El padre teórico de la inteligencia artificial, Alan Turing, quién imaginó que las computadoras algún día serían inteligentes como los humanos antes de que fuera técnicamente posible, propuso en 1950 su famoso test –conocido como «Test de Turing»– para evaluar si una máquina ha logrado reproducir un comportamiento inteligente similar al de un humano. Según esta prueba, si una persona conversa con lenguaje natural a través de texto con otra persona y con una máquina y no puede identificar cuál es cuál, la computadora ha pasado el test.
Turing pronosticó que las máquinas serían capaces de pasar su test para el año 2000. Tardarían, sin embargo, un cuarto de siglo más en lograrlo. Si bien ya desde el primer chatbot creado en 1966, ELIZA, varios usuarios no podían creer que quien respondía sus mensajes era una computadora, y a pesar de que la capacidad de los chatbots de imitar a los humanos ha mejorado con los años, recién en el año 2025 han sido capaces de pasar estadísticamente el Test de Turing en un experimento diseñado según su propuesta.
Lea más: Alan Turing, el genio que anticipó la inteligencia artificial: nació un día como hoy
¿Qué pasó en 2025? En un estudio se puso a dos grupos de personas (estudiantes universitarios y voluntarios pagados) a chatear con humanos y con varios modelos de chatbots, con las siguientes variables: 1. Con un prompt con instrucciones generales: deberás pasar en un Test de Turing y 2. Con un prompt con instrucciones precisas sobre la personalidad con la que debían responder para hacerse pasar por personas.

El modelo GPT-4.5 de ChatGpt con indicaciones para adoptar una personalidad determinada fue el que más participantes engañó: el 73% lo consideró una persona, mientras que solo el 27% de las personas reales fueron consideradas tales. El modelo Llama-3.1 de Meta, por su parte, fue considerado un humano por el 56% de los participantes, que consideraron personas al 44% de los que realmente eran humanos.
Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy
El porcentaje de personas que creyeron que el modelo GPT-4.5 de ChatGpt era una persona fue notablemente superior al de quienes consideraron que los que realmente eran humanos lo eran, superando con creces el Test de Turing. Por su parte, el modelo Llama-3.1, que también superó el test, fue para los participantes del estudio indistinguible de una persona real (1).
Lea más: Investigación revela que Grok creó tres millones de imágenes sexualizadas en tiempo récord
En conversaciones con lenguaje natural por medio de chatbots ya existen modelos de inteligencia artificial capaces de engañarnos a la perfección, no siendo ya posible distinguir si chateamos con una computadora o con un humano.
Esto ya pasó y muy probablemente la mayoría de la población mundial ni se enteró o, si lo hizo, lo tomó como una noticia más de las tantas que les llegan a diario. Pero esto no es un hecho más. Hemos cruzado un punto del cual no hay retorno y recién estamos comenzando a experimentar las consecuencias, todavía sin dimensionar todas las implicancias que esto tendrá en nuestro futuro.

Esto ya comenzó y no hay vuelta atrás. 2025 fue el año en el que las computadoras pudieron parecer más humanas que los propios humanos. Este hito ya es parte del pasado y el futuro que nos espera a partir de aquí es todavía incierto.
La irrupción de la inteligencia artificial no solo nos ha logrado engañar con chatbots que pueden responder como si fuesen personas. A partir de la creación o edición de imágenes, video o audio con inteligencia artificial, ha aparecido contenido capaz de imitar a la perfección rostros y voces de personas reales (deepfake) y mostrárnoslas haciendo o diciendo cosas que no han dicho ni hecho jamás.
Lea más: Chateando con fantasmas
Si desde la invención de aparatos para registrar la imagen y el sonido, aquello que la fotografía, las grabaciones de audio y las filmaciones nos mostraban lo creímos como una representación de la realidad, pues eran registros de objetos y sonidos que realmente existían, con los deepfakes pasamos a tener que desconfiar de lo que nos muestran fotos, videos y audios que pueden parecer verdaderos y ser falsos. Ya no podemos creer en nuestros sentidos. Al menos, no en lo que vemos u oímos en medios digitales.
Los primeros deepfakes aparecieron en 2017 en la plataforma Reddit, donde un usuario comenzó a publicar videos de tipo pornográfico de celebridades y se creó un foro en el que los usuarios intercambiaban este tipo de videos y compartían programas para crearlos. A partir de esta comunidad y otras que surgieron luego se desarrollaron herramientas fáciles de usar y se democratizó la creación de este tipo de contenido, lo que dio origen a malos usos del mismo.

Debido a que la mayoría de los deepfakes que se publicaron en este foro inicial de Reddit eran pornografía no consensuada, la plataforma cerró la comunidad original y prohibió este tipo de contenido en sus foros.
Pero la tecnología ya se había expandido por el mundo, siendo utilizada para otros fines, desde irrelevantes pasatiempos, como crear videos de humor con celebridades en situaciones ridículas, hasta acciones tan graves como mostrar figuras públicas haciendo declaraciones que nunca hicieron, suplantar identidades para estafar o crear videos de contenido sexual para extorsionar (2).
Lea más: Crónicas de un futuro posible
Todo esto ya ha ocasionado daño real a víctimas de los deepfakes en todo el mundo. Pero esto no es todo. Debido a la difusión de contenido falso que simula ser verdadero ya es muy difícil distinguir lo verdadero de lo falso, lo que ha ocasionado una crisis de fiabilidad de las noticias difundidas por internet, existiendo la sospecha de que todo video o audio puede ser un deepfake.
La mayoría de la legislación de los países que se puede aplicar a la creación y difusión de deepfakes fue formulada antes de su existencia, siendo insuficiente para encararlos. Por su rápida circulación, pueden ser producidos en un país y consumidos en otro, con lo que la legislación de un solo país no tiene jurisdicción sobre todos los involucrados en su creación y distribución.

Los deepfakes plantean serios problemas de privacidad y consentimiento. El uso no autorizado de la imagen de una persona puede ocasionar daños irreversibles a su reputación, además de traumas y comisión de delitos. Las víctimas de pornografía deepfake o de suplantación de identidad mediante deepfakes suelen encontrarse con recursos legales limitados, especialmente en países en los que no existe protección de la privacidad.
Algunos países ya cuentan con legislación específica sobre deepfakes, como los miembros de la Unión Europea, cuya legislación obliga a que todo lo producido por inteligencia artificial esté etiquetado. Sin embargo, la amenaza de los deepfakes va más allá de las fronteras nacionales, por lo que se necesita un marco global de colaboración para facilitar el intercambio de datos sobre los delitos cometidos con estos medios y una hoja de ruta para combatirlos que involucre a todos los países.
Lea más: Gobernando desde TikTok
Para evitar que haya más víctimas de usos malintencionados de los deepfakes, se debe educar a la ciudadanía sobre su naturaleza, cómo detectarlos y la importancia de verificar la información que encuentran en línea (3).
Una de las principales dificultades que están teniendo las herramientas de detección de deepfakes es que a medida que mejora su capacidad de detección, también lo hace la calidad de los deepfakes, por lo que cada vez es más difícil detectarlos.

La regulación sobre el uso de deepfakes se encuentra en tensión entre la necesidad de prevenir daños a posibles víctimas y la libertad de expresión. Los deepfakes satíricos pueden considerarse una manifestación de la libertad de expresión en sociedades que la valoran. Sin embargo, esto no exime de responsabilidad a quienes por medio de deepfakes hacen daño a los demás o cometen delitos.
Algunos gobiernos están legislando en la dirección de prohibir cierto tipo de uso de deepfakes. Es el caso del gobierno británico, que desde el 2023 está implementando una ley que busca convertir al Reino Unido en el país más seguro del mundo para estar en línea. Esta ley considera delito penal la creación y solicitud de imágenes íntimas no consensuadas generadas por inteligencia artificial (4).
Lea más: Tras polémica con IA de Grok, Reino Unido ilegaliza imágenes íntimas generadas sin consentimiento
Estamos asistiendo en vivo al ocaso de la realidad, tal como la conocíamos hasta hace poco, y al inicio de una nueva era en la que nuestras creaciones son capaces de emularla a través de nuestros dispositivos y engañarnos si estamos desprevenidos. La duda sobre la veracidad de lo que vemos y oímos a través de una pantalla ya debe ser parte de nuestro presente.
Notas
(1) Jones CR, Bergen BK (2025). Large language models pass the Turing test. Preprint at https://doi.org/10.48550/arXiv.2503.23674
(2) Fernández, A. & otros (2025). Deepfakes: riesgos, casos reales y desafíos en la era de la IA. ISMS Forum.
(3) Wadhawan, A. (2025). Deepfake Technology as a New Tool for Criminal Offenses: Legal Challenges and Its Way Forward in Criminal Law. International Journal for Multidisciplinary Research, 7(3)
(4) Department for Science, Innovation & Technology. (2025). Guidance Online Safety Act: explainer. https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer

*Marcelo Bogado Pompa (Asunción, 1979) es licenciado en Filosofía por la Universidad Nacional de Asunción, máster en Estudios Latinoamericanos con énfasis en Antropología por la Université Sorbonne Nouvelle (París 3), docente y autor de los libros Representaciones y prácticas de salud en dos comunidades mbya guaraní de Caazapá (Cruz Roja Española / Kuña Aty, 2012), Antropología Social (Santillana, 2023) y Los antiguos y los nuevos (Tiempo de Historia, 2025).
