2 de abril de 2026

IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica

En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.

Anthropic también ha sido amenazada con aplicarle la Ley de Producción de Defensa (Defense Production Act), una norma de tiempos de la Guerra Fría que otorga al presidente amplios poderes para obligar a la industria a apoyar la defensa nacional. La incoherencia de esta medida es obvia, ya que, por un lado, el Pentágono considera a Anthropic como un riesgo para la seguridad y, por otro, amenaza con obligarla a proporcionar su tecnología, lo que implica considerarla indispensable para la defensa nacional.

Este conflicto va mucho más allá de una disputa contractual. Representa una lucha fundamental por determinar quién fija los límites éticos del uso militar de la IA en ausencia de una legislación clara y actualizada. A medida que los sistemas de IA se vuelven más potentes y se integran más profundamente en las operaciones de seguridad nacional, la brecha entre la capacidad tecnológica y la supervisión democrática se ha ampliado.

Ello pone de relieve una realidad muy preocupante: cuando los estados renuncian a regular con el fin de poner límites a la IA (como ocurre en Estados Unidos) es ilusorio esperar que las grandes corporaciones tecnológicas se impongan límites voluntariamente si ello amenaza sus márgenes de beneficio o su posición estratégica. De hecho a lo largo del último año, varias grandes tecnológicas han renegado de sus compromisos éticos previos para asegurar contratos militares muy lucrativos.

Google es un ejemplo revelador. En 2018, tras las protestas de sus empleados por su participación en el Proyecto Maven (un programa del Pentágono que utilizaba IA para analizar imágenes de drones), la empresa se retiró de Maven y estableció principios éticos que excluían aplicaciones militares y de vigilancia masiva. Sin embargo, en febrero de 2025 eliminó discretamente esas prohibiciones de su sitio web, justificando el cambio por la competencia geopolítica y las necesidades de seguridad nacional.

OpenAI siguió un camino similar. En 2024 levantó su prohibición general sobre aplicaciones militares. En 2025, durante su reestructuración como entidad con fines de lucro, eliminó el concepto “IA segura” de su declaración de misión, comprometiéndose vagamente a “garantizar que la inteligencia artificial general beneficie a la humanidad”, sin mención explícita a la seguridad. No es difícil advertir que suprimir esa referencia dificultará exigir responsabilidades. Por su parte, xAI, de Elon Musk, fue aún más lejos al firmar un acuerdo que permite que su modelo Grok se utilice en aplicaciones militares sin restricciones. Meta, por su parte, anunció en noviembre de 2024 que pondría sus modelos Llama a disposición del gobierno de Estados Unidos para su uso en seguridad nacional.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *