La disputa, que ha alcanzado niveles críticos esta semana, se centra en si el modelo de lenguaje Claude, desarrollado por Anthropic, puede ser utilizado en sistemas de armas autónomas y en la toma de decisiones durante escenarios de conflicto extremo, incluyendo hipotéticos ataques nucleares.
El Pentágono fijó la fecha límite para Anthropic para las 17:01 hora local (22:01 GMT) de este viernes. De no cumplir con las exigencias, el Gobierno ha sugerido que podría invocar su autoridad legal -posiblemente a través de la Ley de Producción de Defensa (DPA, por sus siglas en inglés)- para obligar a la empresa a entregar su tecnología, además de incluirla en una "lista negra" para futuros contratos de defensa.
Según una fuente de Defensa citada por el rotativo, el jefe de tecnología del Pentágono redujo el debate a un escenario nuclear de vida o muerte en una reunión el mes pasado e hizo la siguiente pregunta: si se lanzara un misil balístico intercontinental contra Estados Unidos, ¿podrían los militares utilizar el sistema de inteligencia artificial Claude de Anthropic para ayudar a derribarlo?
La respuesta del director ejecutivo de Anthropic, Dario Amodei, fue algo similar a: "Podrías llamarnos y lo resolveríamos", algo que irritó al Pentágono, según el medio.
No obstante, un portavoz de Anthropic negó a The Washington Post que Amodei diera esa respuesta, calificándola de "manifiestamente falsa" y afirmando que la compañía accedió a permitir el uso de Claude para la defensa antimisiles.
El conflicto también tiene tintes políticos, ya que varios expertos consultados por el diario sugieren que Anthropic, fundada por exmiembros de OpenAI con un enfoque en la seguridad, está bajo la lupa de la administración del presidente Donald Trump por no estar alineada con su agenda.
Por su parte, el portavoz del Pentágono, Sean Parnell, aseguró ayer en una publicación en la red social X que: "el Departamento de Guerra no tiene ningún interés en usar IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal) ni quiere usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios".
"Solicitamos lo siguiente: Permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales", anotó, y señaló que EE. UU. no permitirá que "ninguna empresa dicte las condiciones de las decisiones operativas".
El subsecretario Emil Michael dijo a CBSNews ayer que Anthropic ha sido invitada a participar en la junta de ética de IA, pero que no se pueden poner las normas y políticas del Ejército y el Gobierno de Estados Unidos en manos de una sola empresa privada".
