IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica
En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.
Anthropic también ha sido amenazada con aplicarle la Ley de Producción de Defensa (Defense Production Act), una norma de tiempos de la Guerra Fría que otorga al presidente amplios poderes para obligar a la industria a apoyar la defensa nacional. La incoherencia de esta medida es obvia, ya que, por un lado, el Pentágono considera a Anthropic como un riesgo para la seguridad y, por otro, amenaza con obligarla a proporcionar su tecnología, lo que implica considerarla indispensable para la defensa nacional.
