La administración Trump ha roto de forma abrupta sus lazos con Anthropic, la empresa de IA fundada por Dario Amodei en San Francisco, después de que esta se negara a que su tecnología se utilizara para la vigilancia masiva de ciudadanos estadounidenses y para drones armados capaces de seleccionar y matar objetivos sin intervención humana. El secretario de Defensa, Pete Hegseth, invocó una ley de seguridad nacional para declarar a Anthropic un riesgo para la cadena de suministro, vetándola de contratos con el Pentágono y de colaborar con otros contratistas de defensa. La compañía podría perder hasta 200 millones de dólares y ha anunciado que llevará el caso a los tribunales.
El físico del MIT Max Tegmark, referente en debates sobre riesgos de la IA y fundador del Future of Life Institute, interpreta la crisis de Anthropic como el resultado de años de resistencia de las grandes tecnológicas a una regulación vinculante. Según Tegmark, Anthropic, OpenAI, Google DeepMind y xAI han construido su imagen en torno a la “seguridad”, pero han evitado que sus compromisos voluntarios se conviertan en ley y, en varios casos, han ido rebajando o eliminando sus propias promesas internas sobre el uso responsable de la IA. En un contexto casi sin normas, el Gobierno puede ahora exigir aplicaciones militares controvertidas, y las empresas tienen poco amparo legal para negarse.
Tegmark critica que en EE. UU. haya más controles para abrir una tienda de bocadillos que para lanzar sistemas de IA avanzados, y advierte de que esta “amnesia regulatoria” recuerda a precedentes como el tabaco, el amianto o el caso de la talidomida. Rebate también el argumento de que cualquier regulación haría perder la carrera frente a China, recordando que Pekín está tomando medidas duras contra ciertos usos de la IA y que ninguna potencia aceptará sistemas que puedan desestabilizar su propio poder político. A su juicio, la superinteligencia debe verse como un riesgo de seguridad nacional, no solo como una ventaja estratégica.
En paralelo, Tegmark señala la rapidez con la que avanza la tecnología: modelos recientes como GPT-5 estarían ya, según un trabajo suyo con otros expertos, a más de la mitad del camino hacia una definición formal de AGI. Esto podría transformar el mercado laboral en pocos años. La ruptura con Anthropic abre ahora una prueba de fuego para el sector: ver si otras compañías como OpenAI, Google o xAI se alinean con el veto a usos militares extremos o, por el contrario, compiten por ocupar ese espacio. Para Tegmark, una salida positiva pasa por tratar a las empresas de IA como a cualquier otra industria de alto riesgo, exigiendo pruebas rigurosas de seguridad antes de desplegar sistemas muy potentes, lo que permitiría aprovechar los beneficios de la IA minimizando sus amenazas existenciales.


