El Fondo de las Naciones Unidas para la Infancia presentó un estudio en colaboración con la ONG ECPAT e INTERPOL llevado a cabo en once países en el que revelan que al menos 1,2 millones de niños y niñas se vieron afectados en el último año por la manipulación de sus imágenes mediante 'deepfakes' con contenido sexual explícito.
Se conoce como 'deepfake' o ultrafalso a los contenidos generados por IA que imitan de una forma muy realista la apariencia, la voz o los gestos de una persona.
"Debemos ser claros: las imágenes sexualizadas de menores creadas o manipuladas por herramientas de IA constituyen imágenes de abusos sexuales de niños y niñas", aseguró UNICEF en un comunicado.
La agencia de la ONU afirmó que estos siguen siendo abusos porque "aunque las imágenes sean falsas", causan un daño que "es real".
UNICEF hizo un llamamiento "urgente" a los gobiernos para frenar esta amenaza "creciente".
Entre otras cosas, pidió que se amplíen las definiciones de lo que constituyen imágenes de abusos sexuales de niños y niñas para incluir el contenido generado por IA y se penalice su creación, adquisición, posesión y distribución.
El daño que provoca el abuso mediante 'deepfake' es real y requiere una acción inmediata. Los niños y niñas no pueden estar esperando a que la legislación se actualice.”
El Congreso de EE.UU. ha impulsado iniciativas relacionadas con el 'deepfake'.
En los últimos días, Grok, la inteligencia artificial integrada en X, el antiguo Twitter, ha protagonizado una polémica por generar imágenes de contenido sexual en la plataforma sin ningún tipo de permiso y/o restricción.