Investigaciones en piloto automático: cuando la inteligencia artificial entra al laboratorio

Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?
Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?Shutterstock

La ciencia avanza despacio: requiere tiempo, dinero y pasos rigurosos. Ahora, una IA como “The AI scientist” de Sakana.ai promete generar investigaciones completas en horas y a bajo costo. Pero, mientras la eficiencia seduce, expertos alertan sobre errores, “alucinaciones” y la pérdida de diversidad intelectual.

La investigación científica suele avanzar a un ritmo lento: requiere tiempo, financiación y numerosos pasos que, además, no siempre conducen a resultados inmediatos. En ese contexto, la idea de un “colega” basado en inteligencia artificial (IA) —capaz de llevar a cabo proyectos completos— aparece como una posible vía para hacer la ciencia más eficiente. Pero, junto con la promesa de acelerar descubrimientos, también emergen inquietudes sobre errores, fiabilidad y riesgos a largo plazo, según se lee en un informe de la Deutsche Welle.

Un sistema que investiga de principio a fin

En 2024, la startup Sakana.ai, con sede en Tokio, presentó “The AI scientist”, un sistema de IA diseñado para generar investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma y por un coste estimado de 15 dólares por artículo.

Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?
Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?

Según la descripción del sistema, su automatización abarca todo el ciclo de investigación: plantea hipótesis, ejecuta el código y redacta resultados sin asistencia humana.

Incluso incorpora un mecanismo propio de revisión por pares, orientado a evaluar automáticamente la calidad de los artículos y comprobar si se ajustan a estándares científicos.

Primeras pruebas: velocidad notable, calidad cuestionada

Cuando un equipo independiente de investigadores evaluó la versión de 2024, el balance fue mixto. Por un lado, observaron que la IA podía completar por sí sola todas las fases del proceso. Por otro, la calidad les pareció baja: compararon el resultado con el de “un estudiante universitario desmotivado que se apresura para cumplir un plazo”.

Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?
Concepto de robot investigador. ¿Qué pasa cuando la inteligencia artificial genera investigaciones nuevas en aprendizaje automático desde cero, de manera totalmente autónoma?

Entre los problemas detectados se mencionaron secciones incompletas, referencias obsoletas o limitadas y resultados numéricos incorrectos —o incluso inventados—, fallos que en el ámbito de la IA suelen describirse como “alucinaciones”.

Aun así, el experimento dejó ver una ventaja difícil de ignorar: la eficiencia. El equipo estimó que un trabajo que a ese hipotético estudiante le llevaría al menos 20 horas podía completarse en alrededor de 3,5 horas con el sistema, por un coste medio de entre 6 y 15 dólares.

Un artículo generado por IA supera la primera criba en un taller

Un año y medio después, Sakana.ai probó una versión más reciente del sistema en un escenario de revisión por pares: se enviaron tres artículos generados por IA junto con 40 trabajos de autores humanos a un taller de un congreso de primer nivel sobre aprendizaje automático.

Los revisores sabían que algunos textos habían sido producidos por IA, aunque no se les indicó cuáles. En la primera ronda, aproximadamente el 70% de los artículos presentados avanzó. Dos de los trabajos generados por IA no superaron el corte, pero uno sí lo logró, lo que implica que cumplía los estándares científicos exigidos en esa etapa del proceso.

La evaluación, sin embargo, no apunta a un rendimiento impecable. La versión actual todavía presenta defectos, como ideas poco desarrolladas, problemas de estructura y múltiples tipos de “alucinaciones”.

Pese a ello, el propio sistema de evaluación de Sakana.ai sugiere que la calidad de los artículos mejora de forma constante con el tiempo, lo que acerca la posibilidad de una ciencia con investigadores virtuales más presentes.

Por qué seduce la automatización: menos tiempo, menor coste

La promesa de estos sistemas se apoya en características prácticas: la IA puede leer artículos científicos en segundos, no se fatiga por jornadas extensas y, en términos económicos, resulta más barata que un investigador humano.

Esa combinación podría traducirse en más resultados en menos tiempo y, por tanto, en un proceso más eficiente de descubrimiento. La cuestión de fondo, no obstante, es qué tipo de ciencia se produciría y hacia dónde conduciría ese ritmo acelerado.

El riesgo de un “monocultivo” científico

Parte de la preocupación gira en torno a la diversidad de enfoques que caracteriza a la investigación humana. Un estudio no es solo su resultado final: se construye con decenas o cientos de pequeñas decisiones sobre métodos, supuestos e interpretaciones, y difícilmente dos personas abordarían un mismo tema de forma idéntica.

Cuando esas decisiones quedan en manos de un sistema considerado “sobrehumano” —más rápido, aparentemente más objetivo—, existe el riesgo de que se reduzca la variedad de perspectivas.

La antropóloga Lisa Messeri y la neurocientífica Molly Crockett advierten sobre un posible “monocultivo de la ciencia”.

La analogía proviene de la agricultura, donde el monocultivo —concentrarse en una sola especie en lugar de varias— puede aumentar beneficios, pero también eleva la vulnerabilidad ante plagas y enfermedades.

Trasladado a la ciencia, el temor es que la IA favorezca líneas de investigación que se ajusten mejor a sus capacidades, dejando en desventaja proyectos que requieren contexto, matices y el “toque humano”.

Esto podría estrechar el alcance del conocimiento y aumentar el riesgo de errores sistemáticos difíciles de detectar si la supervisión humana se reduce.

La clave, según especialistas: pensamiento crítico humano

La profesora Iryna Gurevych, especialista en Procesamiento Ubicuo del Conocimiento, advirtió al Science Media Center Germany que el mayor riesgo es confiar en exceso en los resultados generados por IA. Para ella, la contramedida esencial es la capacidad humana de pensar de forma crítica.

Sin esa revisión crítica, el saldo podría ser paradójico: producir más de forma “objetiva”, pero comprender menos.

En el debate sobre investigadores virtuales, la eficiencia aparece como una ventaja evidente; el desafío es evitar que la velocidad y el bajo coste se impongan a la fiabilidad, el contexto y la diversidad intelectual que sostienen el avance científico.

Fuente: Deutsche Welle