En poco más de una semana, la relación entre las grandes startups de inteligencia artificial y el Pentágono ha entrado en turbulencias. Primero se rompieron las negociaciones para que el Departamento de Defensa de Estados Unidos siguiera usando la tecnología de Claude, de Anthropic. Después, la administración Trump designó a Anthropic como un “riesgo para la cadena de suministro”, una etiqueta que la compañía anunció que combatirá en los tribunales.
Mientras tanto, OpenAI se movió rápido y cerró su propio acuerdo con el Pentágono. El movimiento desató una fuerte reacción pública: las desinstalaciones de la app de ChatGPT se dispararon casi un 300% y la app de Claude escaló posiciones en las listas de descargas. Incluso una directiva de OpenAI presentó su dimisión, alegando que el acuerdo con Defensa se anunció sin salvaguardas adecuadas.
En el pódcast Equity de TechCrunch, los periodistas analizan qué significa todo esto para otras startups que quieren trabajar con el Gobierno, y en concreto con el Departamento de Defensa. Subrayan que muchas empresas —desde gigantes como General Motors hasta startups de tecnología “de doble uso”— ya colaboran con el Pentágono sin tanta visibilidad. La diferencia con Anthropic y OpenAI es que sus productos son masivos, muy mediáticos y, en este caso, se discute directamente si su tecnología puede usarse, o no, en misiones que implican matar personas.
Los conductores del programa señalan además que Anthropic y OpenAI, al menos en público, comparten la idea de imponer restricciones al uso de su IA, pero discrepan en cuán lejos llevar esas limitaciones y en hasta qué punto aceptar cambios unilaterales en los contratos. Detrás del conflicto también habría tensiones personales entre directivos de Anthropic y altos cargos del Departamento de Defensa.
Para los analistas, el punto más inquietante no es solo la guerra de imagen ni el duelo entre compañías, sino que el Pentágono intentara modificar los términos de un contrato ya existente, algo poco habitual en la burocracia federal. Ese gesto, advierten, debería hacer que cualquier startup se replantee los riesgos de depender de grandes contratos gubernamentales, especialmente cuando se trata de tecnologías tan sensibles como la inteligencia artificial aplicada al ámbito militar.


