Un aviso sobre el potencial de manipulación
Un estudio publicado en la revista Radiology alerta sobre un riesgo emergente en el ámbito sanitario: imágenes de rayos X falsas generadas con inteligencia artificial (IA), diseñadas para imitar resultados reales de pacientes humanos, pueden confundir tanto a radiólogos con experiencia como a herramientas de IA empleadas para analizar este tipo de pruebas.
El trabajo se presenta como una demostración del potencial de manipulación por parte de usuarios malintencionados, en un contexto en el que los sistemas de IA se integran cada vez más en procesos clínicos y de apoyo al diagnóstico, se lee en un informe de la Deutsche Welle.
Lea más: Ecografías con IA detectan anomalías fetales dos veces más rápido que la tecnología actual
Qué se evaluó y quiénes participaron
En la investigación participaron 17 radiólogos procedentes de 12 hospitales ubicados en seis países. En conjunto, revisaron 264 imágenes de rayos X.
La mitad de ese material visual había sido generado por IA utilizando las herramientas ChatGPT o RoentGen, con el objetivo de producir radiografías sintéticas difíciles de distinguir de las auténticas.
Cómo se realizó la prueba
Los especialistas analizaron el conjunto de radiografías bajo condiciones en las que, inicialmente, no conocían el verdadero propósito del estudio. Es decir, evaluaban las imágenes sin saber que parte de ellas había sido creada artificialmente.
Posteriormente, los radiólogos fueron informados de que el conjunto de datos contenía imágenes sintéticas, con el fin de observar si esa advertencia modificaba su capacidad de detección.
Lea más: La IA es como un asteroide que transformará por completo nuestra vida, advierte experto
Principales resultados: baja detección sin aviso
Cuando los radiólogos no sabían que podían encontrarse con radiografías generadas por IA, solo el 41 % identificó de manera espontánea cuáles eran imágenes sintéticas, según el informe publicado en Radiology.
El estudio subraya, además, que la capacidad de engaño no se limita al ojo humano: las imágenes falsas también pueden engañar a herramientas de IA, lo que amplía el alcance del problema más allá de la revisión clínica tradicional.
Por qué importa
El hallazgo apunta a un desafío de seguridad y confianza en el uso de imágenes médicas: si radiografías sintéticas pueden parecer suficientemente reales como para confundir a profesionales y a sistemas automatizados, el riesgo de uso indebido —por ejemplo, mediante manipulación deliberada— se vuelve un tema relevante para la práctica clínica y para el diseño de medidas de verificación.
La investigación, en suma, plantea una advertencia clara: la sofisticación de la IA en la generación de imágenes médicas puede abrir nuevas vías de fraude o distorsión, y obliga a reforzar los mecanismos de detección y control en entornos sanitarios.
Fuente: Deutsche Welle
