OpenAI ha firmado un acuerdo acelerado con el Departamento de Defensa de Estados Unidos para desplegar sus modelos de inteligencia artificial en entornos clasificados, justo después de que fracasaran las negociaciones entre su rival Anthropic y el Pentágono.
La ruptura con Anthropic desencadenó una reacción en cadena: el presidente Donald Trump ordenó a las agencias federales dejar de usar la tecnología de esa empresa tras un periodo de transición de seis meses, y el secretario de Defensa Pete Hegseth la declaró un riesgo para la cadena de suministro. En ese contexto, OpenAI se movió rápido y cerró su propio pacto con el Gobierno.
Tanto Anthropic como OpenAI dicen compartir las mismas “líneas rojas”: nada de uso en armas totalmente autónomas, ni en vigilancia masiva dentro de EE. UU., ni en sistemas de decisiones automatizadas de alto impacto, como un posible “crédito social”. OpenAI publicó un blog detallando que su acuerdo prohíbe explícitamente estos tres usos y presume de un enfoque de seguridad “multicapa”: mantiene el control de su sistema de seguridad, despliega solo vía nube, con personal autorizado supervisando y con cláusulas contractuales fuertes, además del marco legal ya existente.
Sin embargo, las dudas crecieron de inmediato. El analista Mike Masnick (Techdirt) sostiene que el contrato sí permite en la práctica la vigilancia doméstica, porque se ampara en la Orden Ejecutiva 12333, el marco legal con el que la NSA ha realizado históricamente interceptaciones de comunicaciones fuera del territorio estadounidense que incluyen datos de ciudadanos de EE. UU. Según esta crítica, el acuerdo deja una puerta abierta a formas indirectas de espionaje masivo.
Katrina Mulligan, jefa de alianzas de seguridad nacional en OpenAI, respondió que se está exagerando el peso de una sola cláusula contractual. Defiende que la arquitectura técnica del despliegue —restringir el uso a la API en la nube y evitar integraciones directas con armas, sensores u otros sistemas operativos— es un freno más eficaz que cualquier frase en el contrato.
El propio CEO, Sam Altman, reconoció en X que el pacto fue “definitivamente apresurado” y que la imagen pública “no se ve bien”. A pesar del fuerte rechazo —incluida la subida de Anthropic Claude por encima de ChatGPT en la App Store de Apple—, Altman sostiene que el objetivo era ayudar a “desescalar” las tensiones entre la industria de la IA y el Departamento de Defensa. Si el acuerdo sirve para rebajar la confrontación, dice, OpenAI quedará como una empresa visionaria que asumió costes reputacionales por el bien del sector; si no, quedará como una compañía imprudente que actuó con prisas.
El artículo también incluye bloques promocionales sobre eventos de TechCrunch (Disrupt 2026 y Founder Summit 2026), que no aportan información adicional sobre el acuerdo pero muestran el contexto comercial en el que se publica la noticia.


