28 de enero de 2026

NUEVA YORK. Un nuevo estudio de la Liga Antidifamación revela que los modelos de inteligencia artificial, liderados por Grok de Elon Musk, fallan en la detección y combate de contenido antisemita, planteando serios desafíos en la gestión del extremismo en la era digital.

Grok, el asistente de IA de X, desactivó su función de creación de imágenes para usuarios no suscriptores tras generar protestas globales por contenido sexualmente explícito. La Comisión Europea y el gobierno británico exigen medidas más contundentes para frenar este problema.
NUEVA YORK. Suscriptores de X Premium utilizan Grok para crear imágenes no consensuadas de mujeres en bikini, generando controversia y demandas de mayor regulación. ¿Puede la inteligencia artificial facilitar violaciones de privacidad sin consecuencias? La discusión se intensifica.

La empresa de tecnología xAI, propiedad de Elon Musk, presentó a finales de octubre Grokipedia, una enciclopedia web generada con inteligencia artificial que busca competirle a Wikipedia con la promesa de ofrecer información libre de sesgos. Sin embargo, investigaciones y analistas consultados por EFE Verifica alertan sobre la opacidad y ausencia de transparencia en los modelos detrás de esta plataforma.


La inteligencia artificial (IA) es tema constante de debate e interés desde hace un par de años. Más aún cuando los chats con esta tecnología comenzaron a llegar a cualquier persona con acceso a internet. Sin duda alguna, ChatGPT de OpenAI fue uno que se posicionó muy fuertemente y motivó que otros titanes informáticos también muevan sus fichas para estar en este segmento.