Este asistente de IA conversacional, desarrollado por xAI -propiedad de Musk- está integrado en la red social X y puede responder a preguntas de los usuarios.
Según el WSJ, Ed Forst, principal funcionario de la Administración de Servicios Generales (GSA, en inglés), alertó en los últimos meses a miembros de la Casa Blanca sobre posibles problemas de seguridad con Grok.
Otros trabajadores de la agencia comparten esta preocupación y consideran a la IA de Musk "demasiado susceptible a la manipulación o corrupción por datos erróneos o sesgados", de acuerdo con el periódico, que cita a personas familiarizadas con el asunto.
La jefa de gabinete de la Casa Blanca, Susie Wiles, también mostró su preocupación por la creación de imágenes sexualizadas y desnudos sin consentimiento por parte de Grok y se puso en contacto con un alto ejecutivo de xAI para manifestarle sus dudas al respecto.
A esto se suma que Matthew Johnson, jefe de IA responsable del Pentágono, dimitió hace dos semanas debido, en parte, "a su preocupación por que la seguridad y la gobernanza se hubieran convertido en una prioridad secundaria" del Departamento de Guerra, según el rotativo.
El WSJ señala que altos funcionarios de EE.UU., entre ellos de la Casa Blanca, se decantan por Grok para implementar esta IA en el Pentágono por su menor regulación y por "la postura absolutista" de Musk sobre la libertad de expresión.
Asimismo, indica que estos funcionarios han manifestado su rechazo a la tecnológica Anthropic, creadora de la herramienta de IA Claude, por su postura sobre seguridad y sus vínculos con donantes demócratas.
Anthropic anunció ayer que no cederá a los términos del Pentágono para el uso completo de Claude al considerar que permitir su uso en armas totalmente autónomas o en vigilancia masiva sería "incompatible con los valores democráticos".
La compañía señaló en un comunicado que el Pentágono pretende contratar únicamente a empresas de IA que acepten "cualquier uso legal" de su IA y eliminen estas salvaguardas.
El Pentágono dio de plazo a Anthropic hasta hoy a las 17:01 hora del este (22:01 GMT) para permitirle usar su IA sin restricciones o, de lo contrario, ser calificada como una empresa "riesgo para la cadena de suministro".
Por su parte, el director ejecutivo de OpenAI, Sam Altman, ha revelado que su compañía negocia un acuerdo con el Departamento de Guerra para desplegar sus modelos de IA en entornos clasificados, aunque todavía no se ha firmado ningún acuerdo y las conversaciones podrían fracasar, según el WSJ.
