La investigación científica suele avanzar a un ritmo lento: requiere tiempo, financiación y numerosos pasos que, además, no siempre conducen a resultados inmediatos. En ese contexto, la idea de un “colega” basado en inteligencia artificial (IA) —capaz de llevar a cabo proyectos completos— aparece como una posible vía para hacer la ciencia más eficiente. Pero, junto con la promesa de acelerar descubrimientos, también emergen inquietudes sobre errores, fiabilidad y riesgos a largo plazo, según se lee en un informe de la Deutsche Welle.
Un sistema que investiga de principio a fin
En 2024, la startup Sakana.ai, con sede en Tokio, presentó “The AI scientist”, un sistema de IA diseñado para generar investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma y por un coste estimado de 15 dólares por artículo.

Lea más: El peligroso fenómeno de la desalineación en IA: ¿deberíamos preocuparnos?
Según la descripción del sistema, su automatización abarca todo el ciclo de investigación: plantea hipótesis, ejecuta el código y redacta resultados sin asistencia humana.
Incluso incorpora un mecanismo propio de revisión por pares, orientado a evaluar automáticamente la calidad de los artículos y comprobar si se ajustan a estándares científicos.
Primeras pruebas: velocidad notable, calidad cuestionada
Cuando un equipo independiente de investigadores evaluó la versión de 2024, el balance fue mixto. Por un lado, observaron que la IA podía completar por sí sola todas las fases del proceso. Por otro, la calidad les pareció baja: compararon el resultado con el de “un estudiante universitario desmotivado que se apresura para cumplir un plazo”.

Entre los problemas detectados se mencionaron secciones incompletas, referencias obsoletas o limitadas y resultados numéricos incorrectos —o incluso inventados—, fallos que en el ámbito de la IA suelen describirse como “alucinaciones”.
Lea más: La IA tropieza ante preguntas complejas: una investigación muestra sus limitaciones actuales
Aun así, el experimento dejó ver una ventaja difícil de ignorar: la eficiencia. El equipo estimó que un trabajo que a ese hipotético estudiante le llevaría al menos 20 horas podía completarse en alrededor de 3,5 horas con el sistema, por un coste medio de entre 6 y 15 dólares.
Un artículo generado por IA supera la primera criba en un taller
Un año y medio después, Sakana.ai probó una versión más reciente del sistema en un escenario de revisión por pares: se enviaron tres artículos generados por IA junto con 40 trabajos de autores humanos a un taller de un congreso de primer nivel sobre aprendizaje automático.
Los revisores sabían que algunos textos habían sido producidos por IA, aunque no se les indicó cuáles. En la primera ronda, aproximadamente el 70% de los artículos presentados avanzó. Dos de los trabajos generados por IA no superaron el corte, pero uno sí lo logró, lo que implica que cumplía los estándares científicos exigidos en esa etapa del proceso.
La evaluación, sin embargo, no apunta a un rendimiento impecable. La versión actual todavía presenta defectos, como ideas poco desarrolladas, problemas de estructura y múltiples tipos de “alucinaciones”.
Lea más: Investigadores revelan sesgos en IA para diagnóstico de cáncer y presentan una solución
Pese a ello, el propio sistema de evaluación de Sakana.ai sugiere que la calidad de los artículos mejora de forma constante con el tiempo, lo que acerca la posibilidad de una ciencia con investigadores virtuales más presentes.
Por qué seduce la automatización: menos tiempo, menor coste
La promesa de estos sistemas se apoya en características prácticas: la IA puede leer artículos científicos en segundos, no se fatiga por jornadas extensas y, en términos económicos, resulta más barata que un investigador humano.
Esa combinación podría traducirse en más resultados en menos tiempo y, por tanto, en un proceso más eficiente de descubrimiento. La cuestión de fondo, no obstante, es qué tipo de ciencia se produciría y hacia dónde conduciría ese ritmo acelerado.
El riesgo de un “monocultivo” científico
Parte de la preocupación gira en torno a la diversidad de enfoques que caracteriza a la investigación humana. Un estudio no es solo su resultado final: se construye con decenas o cientos de pequeñas decisiones sobre métodos, supuestos e interpretaciones, y difícilmente dos personas abordarían un mismo tema de forma idéntica.
Cuando esas decisiones quedan en manos de un sistema considerado “sobrehumano” —más rápido, aparentemente más objetivo—, existe el riesgo de que se reduzca la variedad de perspectivas.
La antropóloga Lisa Messeri y la neurocientífica Molly Crockett advierten sobre un posible “monocultivo de la ciencia”.
La analogía proviene de la agricultura, donde el monocultivo —concentrarse en una sola especie en lugar de varias— puede aumentar beneficios, pero también eleva la vulnerabilidad ante plagas y enfermedades.
Trasladado a la ciencia, el temor es que la IA favorezca líneas de investigación que se ajusten mejor a sus capacidades, dejando en desventaja proyectos que requieren contexto, matices y el “toque humano”.
Esto podría estrechar el alcance del conocimiento y aumentar el riesgo de errores sistemáticos difíciles de detectar si la supervisión humana se reduce.
La clave, según especialistas: pensamiento crítico humano
La profesora Iryna Gurevych, especialista en Procesamiento Ubicuo del Conocimiento, advirtió al Science Media Center Germany que el mayor riesgo es confiar en exceso en los resultados generados por IA. Para ella, la contramedida esencial es la capacidad humana de pensar de forma crítica.
Sin esa revisión crítica, el saldo podría ser paradójico: producir más de forma “objetiva”, pero comprender menos.
En el debate sobre investigadores virtuales, la eficiencia aparece como una ventaja evidente; el desafío es evitar que la velocidad y el bajo coste se impongan a la fiabilidad, el contexto y la diversidad intelectual que sostienen el avance científico.
Fuente: Deutsche Welle
