Pornografía sintética, un paso más allá de los Deepfakes, y por qué nuevamente los niños son víctimas

“La violencia es el último recurso del incompetente.” Isaac Asimov . Colegio privado Saint George’s de Lima, Perú, Universidad de San Juan, carrera de Diseño Gráfico, provincia de San Juan, República Argentina, colegio concertado Ruta de la Plata de Almendralejo en Badajoz, España. ¿Qué tienen en común estos tres centros educativos? Que, en todos ellos, separados por miles de kilómetros de distancia, se hizo un uso delictivo de una herramienta de inteligencia artificial para generar pornografía sintética, es decir, fotografías y vídeos pornográficos, donde los rostros de las personas involucradas fueron tomados de sus compañeras para crear cuerpos desnudos con los rasgos faciales y características físicas de ellas.

Cargando...

Me gustaría decir que “pegaron la cara de las víctimas” en los cuerpos desnudos, pero fue algo mucho más complejo, más acabado y los resultados superan por mucho a cualquier trabajo de algún especialista en Photoshop.

Las fotografías fueron tomadas por los victimarios o fueron descargadas de las redes sociales de las víctimas, de sus padres o de los mismos colegios e instituciones que inundan Internet con este material. Una vez que los victimarios tuvieron estas fotos en su poder, solo fue cuestión de seleccionar los mejores materiales, hacer trabajar la herramienta y darle los retoques finales. En resumen, entra un rostro o un cuerpo vestido y sale un cuerpo totalmente desnudo, se componen escenas pornográficas sin que las víctimas hayan estado, ni siquiera presentes, en el acto.

Esto no es nuevo, de hecho, la aplicación “DeepNudes”, que ya fue dada de baja varias veces sobre todo de Telegram, había sido la herramienta que ciberdelincuentes utilizaron entre 2017 y 2020 para crear, comercializar y tratar de extorsionar con material falso a personalidades como Gal Gadot, Rosalía, Aitana, Mónica Naranjo, Rigoberta Bandini, India Martínez, Angy Fernández o Beatriz Luengo.

Hago y resalto la salvedad, no es que “la inteligencia artificial desnuda a las personas y crea material pornográfico sin consentimiento”, por supuesto que no, sino que los seres humanos crean aplicaciones con inteligencia artificial para delinquir, para cometer delitos y vulnerar a otras personas para beneficio propio.

Lo que debe llamar nuestra atención para tomar medidas es el rápido avance de los conceptos delictivos en el tema “pornografía”, sobre todo cuando se trata de menores. En este punto me declaro contrario a llamar “pornografía infantil” a este tipo de materiales, porque los menores per se NO PUEDEN producir pornografía, y más se configura como abuso sexual infantil, tráfico sexual infantil, maltrato infantil, pero como está definido así en nuestro marco legal, hay que llamarlo de esa manera, “pornografía infantil”.

Este avance al cual me refiero pasa por los siguientes conceptos:

Fake News: este término es utilizado para conceptualizar la divulgación de noticias falsas que provocan un peligroso círculo de desinformación. Las redes sociales permiten que los usuarios sean productores y consumidores de contenidos a la vez, y han facilitado la difusión de contenido engañoso, falso o fabricado. Así se genera un circuito vicioso, y una noticia falsa se replica miles de veces en cuestión de segundos. Todo esto sucede en un contexto de posverdad, término definido por el diccionario de Oxford como la palabra del año en 2016 y se refiere a las circunstancias en que los hechos objetivos son menos importantes a la hora de modelar la opinión pública que las apelaciones a la emoción o a las creencias personales. Fuente: International Federation of Journalists: https://www.ifj.org/fileadmin/user_upload/Fake_News_-_FIP_AmLat.pdf

Si quieren ver algunas situaciones de Fake News “históricas”, para que comprendan mejor, comparto este vídeo: https://www.youtube.com/watch?v=rJqdavsDHdc

Deep Fake: los Deepfakes o “falsedades profundas” son archivos de vídeo, imagen o voz manipulados mediante un software de inteligencia artificial de modo que parezcan originales, auténticos y reales. Los Deepfakes utilizan el aprendizaje de la inteligencia artificial, por lo que estos archivos consiguen engañarnos fácilmente. Los Deepfakes se utilizan para inducir a error a las personas receptoras, por lo que suponen una gran amenaza para la sociedad actual, pudiendo facilitar la desinformación y que la ciudadanía pase a desconfiar de cualquier fuente de información. Fuente: Instituto Lisa https://www.lisainstitute.com/

En el enlace que les dejo, van a poder observar algunos de los Deep Fakes más famosos, que incluyen a personalidades como Keanu Reeves. https://www.youtube.com/watch?v=lSTM_MtJc5o

Pornografía sintética: por último, en esta vorágine de situaciones falsas, nos encontramos con una “evolución”, para mal, de aplicaciones de inteligencia artificial, que van más allá del Deep Fake y crean escenarios completos que pueden ser fotos, vídeos o archivos de audio, donde las víctimas ni siquiera han estado presentes o tuvieron algo que ver, más allá del hecho de haber disponibilizado (o no) material digital en Internet, mensajeros o redes sociales. Digo disponibilizado o no, porque muchas víctimas no consintieron que se les tome fotos o vídeos, pero estos materiales están colgados en las redes de sus padres o de las instituciones educativas a las que pertenecen.

El relato de una de las víctimas en España es desgarrador, lo recoge el Prof. Santiago Rubín en su sitio https://www.errepar.com/inteligencia-artificial-deepfake-y-pornografia-infantil, y narra: […] conforme lo han informado medios periodísticos las niñas se han enterado de la situación a través de Instagram y WhatsApp, poniendo en conocimiento a sus padres: “La niña me enseñó la foto de ella misma desnuda. “Me dio un vuelco el corazón”. “Si yo no conozco el cuerpo de mi hija, esta foto parece real”; surge de las investigaciones que dichas imágenes han sido editadas mediante el uso de aplicaciones con Inteligencia Artificial (IA), presuntamente por otros menores, compañeros de secundaria de las víctimas”.

Lo triste de esta situación es que el origen de esta aplicación llamada “DeepNudes”, fue la Academia y con fines benéficos para el ser humano y la investigación.

DeepNudes utiliza el algoritmo pix2pix, desarrollado por la Universidad de California en Berkeley en 2017. Para su utilización en DeepNude, su desarrollador, lo ha entrenado con más de 10.000 imágenes de mujeres desnudas, en aquella época, en tanto que esta versión ahora en controversia tenía un entrenamiento con más 25.000 parámetros y una base de datos de alrededor de 150.000 imágenes, sí, leyó bien, y ¿de dónde piensan que obtuvieron ese material? Con ellas intenta replicar desnudos en cualquier situación, y lo que no deja de asombrarme es la evolución que ha tenido la herramienta desde 2017 hasta ahora, para resolver problemas como por ejemplo que la víctima esté sentada o en posiciones donde sea difícil retirar la ropa o generar efectos como que el cinto apretó la piel, la marca de la ropa interior, etc.

Cuando DeepNude tiene que trabajar con imágenes de chicas con una postura extraña y con mucha ropa, los resultados eran especialmente malos, pero estas nuevas versiones lo han solucionado.

Una vez más, la pregunta correcta no es “¿será que va a pasar en Paraguay?”, para nada, la pregunta correcta es: “¿cuándo va a empezar en Paraguay?”.

Las aplicaciones como DeepNude están al alcance de los niños, como otro montón de herramientas que, a pesar de tener condiciones de uso y políticas de privacidad tibias, con rangos etarios irrisorios, siempre deberían quedar bajo la responsabilidad de los padres.

Paraguay tampoco ha adoptado o creado un índice tipo PEGI o ESRB, que permitan tener una clasificación cierta y aterrizada a nuestra realidad sobre el grado de violencia en una aplicación, Software, mensajero o juego, que informe y responsabilice a los tutores legales sobre las acciones de sus hijos.

Sumemos a esto un vacío legal, una “legislación” contra el Grooming que tiene 4 líneas y un sistema de protección escolar que no está preparado para contener riesgo cibernético.

Es hora de hacer foco en la salud digital infantil, de colaborar todos para un Paraguay Ciberseguro.

miguel.gaspar@ciberpadres.red

Enlance copiado
Content ...
Cargando...Cargando ...