Anthropic demanda al Pentágono por calificar a su IA como un «riesgo» para la seguridad nacional
La startup de inteligencia artificial (IA) Anthropic demandó este lunes a varias agencias del gobierno estadounidense ante un tribunal federal de California para pedir que revierta sanciones en su contra que considera excesivas.
El Departamento de Defensa incluyó la semana pasada a Anthropic en su lista de empresas que representan un «riesgo» para la cadena de suministro, después que la firma se negara a autorizar el uso militar sin límites de sus modelos de IA Claude.
«Estas medidas no tienen precedentes y son ilegales. La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por sus declaraciones protegidas», afirmó Anthropic. El jueves, el Pentágono impuso a Anthropic una designación formal de riesgo en la cadena de suministro, lo que limita el uso de una tecnología que, según una fuente, se estaba utilizando para operaciones militares en Irán. El secretario de Defensa, Pete Hegseth, designó a Anthropic después de que la empresa emergente se negara a eliminar las barreras contra el uso de su IA para armas autónomas o vigilancia doméstica. Ambas partes habían mantenido conversaciones cada vez más polémicas sobre esas limitaciones durante meses, según informó Reuters.
