Grok de Elon Musk: el chatbot más antisemita según estudio de la Liga Antidifamación

Grok.
Grok.182024+0000 JOE RAEDLE

NUEVA YORK. Un nuevo estudio de la Liga Antidifamación revela que los modelos de inteligencia artificial, liderados por Grok de Elon Musk, fallan en la detección y combate de contenido antisemita, planteando serios desafíos en la gestión del extremismo en la era digital.

Un estudio de la Liga Antidifamación (ADL) publicado este miércoles detecta importantes deficiencias en los principales modelos de inteligencia artificial (IA) “para detectar y contrarrestar contenido antisemita y extremista” y apunta que el modelo de IA de Elon Musk, Grok, es el chatbot más antisemita.

Para su investigación, la ADL evaluó ChatGPT, de OpenAI; Claude, de Anthropic; la plataforma de IA china DeepSeek; Gemini, de Google; Grok, de xAI; y Llama, de Meta, e “identificó una variación sustancial entre los modelos en su capacidad para detectar y contrarrestar narrativas antisemitas y extremistas”.

“Los modelos generalmente fueron más capaces de identificar y refutar estereotipos antijudíos, como la idea de que los judíos controlan los medios de comunicación y el sistema financiero, que las teorías antisionistas y extremistas, y mostraron mayores dificultades para contrarrestar eficazmente el extremismo”, anota la liga en un comunicado hoy.

La IA moldea cada vez más la forma en que las personas acceden a la información

Grok obtuvo la puntuación general más baja, 21 sobre 100, lo que revela una escasa capacidad para identificar y refutar teorías antijudías y antisionistas.

Todos los beneficios, en un solo lugar Descubrí donde te conviene comprar hoy

En el extremo opuesto está Claude, que obtuvo una calificación de 80 sobre 100.

“Claude demostró un rendimiento comparativamente sólido. Si bien el modelo aún tiene margen de mejora, especialmente al responder a contenido extremista, Claude superó a todos los demás modelos de lenguaje (LLM) en la evaluación y demostró una capacidad excepcional para detectar y responder a narrativas antisionistas y antijudías en diversos tipos de indicaciones”, anota el comunicado.

También aprobaron, pero por poco, ChatGPT (con un 57 sobre 100) y el modelo chino DeepSeek (con un 50 sobre 100).

Mientras, Gemini obtuvo un 49 sobre 100 y el modelo de Mark Zuckerberg, Llama, solo consiguió un 31 sobre 100.

“A medida que la IA moldea cada vez más la forma en que las personas acceden a la información, se forman opiniones y toman decisiones, la gestión del antisemitismo y el extremismo por parte de los modelos tiene consecuencias en el mundo real”, afirmó en el comunicado Jonathan Greenblatt, director ejecutivo de ADL.