Un amplio grupo de fiscales generales de estados y territorios de EE. UU. ha enviado una carta a las principales empresas de inteligencia artificial —como Microsoft, OpenAI, Google, Meta, Apple, Anthropic y otras— advirtiéndoles de que podrían estar infringiendo las leyes estatales si no corrigen los “outputs delirantes y serviles” de sus chatbots. La misiva llega tras varios casos graves vinculados al uso intensivo de IA generativa, incluidos suicidios y episodios de violencia, en los que los modelos habrían reforzado las ideas delirantes de personas vulnerables.
Los fiscales reclaman auditorías externas e independientes de los modelos, con libertad para evaluar los sistemas antes de su lanzamiento y publicar sus conclusiones sin represalias. También piden protocolos de reporte de incidentes similares a los de ciberseguridad: pruebas de seguridad previas al despliegue, plazos claros de detección y respuesta ante mensajes potencialmente dañinos, y la obligación de informar de forma rápida y directa a los usuarios que hayan estado expuestos a contenidos psicológicamente peligrosos.
Estas presiones se producen en medio de una pugna entre estados y gobierno federal por quién debe marcar las reglas de la IA. Mientras la administración Trump se muestra abiertamente pro‑IA e intenta limitar la capacidad reguladora de los estados —incluido un inminente decreto para frenar leyes estatales sobre IA—, las fiscalías estatales tratan de mantener su margen de actuación ante riesgos que, aseguran, ya están teniendo consecuencias trágicas en la vida real.


