Estados Unidos e Israel lanzaron el 28 de febrero pasado un ataque contra Irán, que responde con represalias. El conflicto afecta también a los países vecinos de la República Islámica donde están asentadas bases militares estadounidenses.
En su tercera semana de desarrollo, la guerra no solo se libra en el terreno de Medio Oriente: ahora incluye la batalla cultural y propagandística que se fortalece en las redes sociales con la publicación de videos falsos y contenidos no verificados.
Falsos videos creados con inteligencia artificial (IA) se multiplican en la red X y muestran soldados estadounidenses capturados por Irán, una ciudad israelí en ruinas o embajadas de Estados Unidos en llamas, en una ola de desinformación a pesar a una dura política para frenarla, reporta la agencia AFP.
Lea más: Israel dice que la ofensiva a Irán durará hasta eliminar las "amenazas existenciales"
Avalancha de imágenes de IA
La guerra en Oriente Medio ha generado una avalancha de imágenes generadas con IA que supera todo lo visto en conflictos anteriores y a menudo deja a los usuarios sin poder distinguir lo real de lo ficticio, aseguran investigadores.
En un intento por proteger la “información auténtica” durante conflictos, la red de Elon Musk anunció la semana pasada que suspendería por 90 días de su programa de ingresos a los creadores que publicasen videos sobre la guerra sin aviso de que fueron generados con IA.
Además, si seguían publicándolos, la suspensión sería permanente, según advertía en la misma red la jefe de producto, Nikita Bier.
Desinformación
La nueva política interna es un giro importante en una plataforma duramente criticada por convertirse en el paraíso de la desinformación desde que Elon Musk la compró por US$ 44.000 millones en octubre de 2022.
Sin embargo, los investigadores de la desinformación se mantienen escépticos, según AFP.
Lea más: Cierre del estratégico paso de Ormuz y venganza, la primera reacción oficial del ayatolá Mojtaba
“Los hilos que monitoreo están aún inundados con contenido sobre la guerra generado por IA”, declaró a la AFP Joe Bodnar del Instituto para el Diálogo Estratégico.
“No parece que los creadores (de contenidos) hayan sido disuadidos de difundir imágenes y videos engañosos sobre el conflicto generados por IA” , agregó.
Bodnar apuntó a una publicación de una cuenta “blue check” o verificada, elegible para la monetización en X, que compartió un video hecho con IA en el que muestra un supuesto ataque iraní “con capacidad nuclear” contra Israel, reportó AFP.
Incentivos por ’fakes’
La red X no respondió a una pregunta de la AFP sobre cuántas cuentas ha desmonetizado desde el anuncio de Bier.
La red global de verificadores de contenido de la AFP, de Brasil a India, identificó un flujo de contenidos falsos sobre la guerra en Oriente Medio generados con IA, muchos procedentes de cuentas de pago de X, con la marca azul.
Entre estos hay videos hechos con IA que muestran soldados estadounidenses que lloran dentro de una embajada bombardeada, o tropas capturadas y de rodillas al lado de banderas iraníes, así como una flota de naves estadounidenses destruidas.

“Deepfake”
Este flujo de imágenes fabricadas mezcladas con imágenes reales de Oriente Medio continúa creciendo a un ritmo más rápido del que los profesionales de la verificación pueden señalarlos.
El propio chatbot de IA de X, Grok, pareció empeorar el problema al responder equivocadamente a los usuarios que buscaban verificar si algunos contenidos generados por IA sobre la guerra eran reales.
Los investigadores también han advertido que el modelo de X -que permite a las cuentas premium ganar dinero en función de la interacción- ha multiplicado el incentivo económico por contenido falso o sensacionalista.
Una cuenta premium, que publicó un video que muestra en llamas al rascacielos Burj Khalifa en Dubái ignoró el pedido de Bier de identificarlo como obra de la IA. Sigue en línea y ha alcanzado más de 2 millones de vistas.
’Contramedida’
El mes pasado, un informe del Tech Transparency Project señaló que X parecía obtener beneficios de más de dos docenas de cuentas premium de funcionarios del gobierno iraní y medios controlados por el Estado que difundían propaganda, lo que podría violar sanciones estadounidenses.
Posteriormente, X retiró la marca de verificación azul a algunos de ellos, según el informe.
Incluso si la penalización de X se aplicara de manera estricta, muchos usuarios que difunden contenido generado por IA no forman parte del programa de ingresos, afirman los investigadores. Esos usuarios siguen sujetos a verificación a través de Community Notes, un sistema cuya eficacia ha sido cuestionada.

Notas de la comunidad
El año pasado, un estudio del Instituto Democracia Digital para las Américas descubrió que más del 90% de las Community Notes de X nunca se publican.
“La política de X es una contramedida razonable frente a la desinformación viral sobre la guerra. En principio, esta política reduce la estructura de incentivos” , dijo Alexios Mantzarlis, director de Security, Trust, and Safety Initiative en Cornell Tech.
Pero “es poco probable que X pueda garantizar al mismo tiempo una alta precisión y una alta retirada (de contenidos generados con IA de la red) a través de esta política”, agregó.
