Anthropic está realizando cambios importantes en la forma en que maneja los datos de los usuarios. A partir de ahora, todos los usuarios de Claude deberán decidir antes del 28 de septiembre si quieren que sus conversaciones se utilicen para entrenar modelos de inteligencia artificial. Aunque la empresa nos dirigió a su publicación en el blog sobre estos cambios, hemos formulado algunas teorías propias.
¿Qué está cambiando? Antes, Anthropic no usaba los datos de chat de los consumidores para entrenar modelos. Ahora, la compañía desea utilizar las conversaciones y sesiones de codificación de los usuarios para mejorar sus sistemas de inteligencia artificial. Además, ha extendido el tiempo de retención de datos a cinco años para aquellos que no opten por salir del programa. Este es un cambio significativo. Anteriormente, se informaba a los usuarios que sus mensajes y respuestas se eliminarían automáticamente en un plazo de 30 días, a menos que hubiera razones legales o políticas para conservarlos más tiempo, o si su contenido violaba las políticas de la empresa, en cuyo caso podrían retenerse hasta dos años.
Estos nuevos lineamientos aplican a los usuarios de Claude Free, Pro y Max, incluyendo a quienes utilizan Claude Code. Los clientes empresariales que usan Claude Gov, Claude for Work, Claude for Education o acceso a API no se verán afectados, de manera similar a cómo OpenAI protege a sus clientes empresariales de las políticas de entrenamiento de datos.
¿Por qué está ocurriendo esto? Anthropic menciona en su publicación que los cambios están enfocados en la elección del usuario. Al no optar por salir, los usuarios ayudarán a mejorar la seguridad del modelo, haciendo que los sistemas de detección de contenido dañino sean más precisos. También ayudarán a que futuros modelos de Claude mejoren en habilidades como codificación, análisis y razonamiento, lo que beneficiará a todos los usuarios. Sin embargo, la realidad puede ser menos altruista. Como otras empresas de modelos de lenguaje, Anthropic necesita datos más que la aprobación de los usuarios. Entrenar modelos de IA requiere grandes cantidades de datos conversacionales de alta calidad, y acceder a millones de interacciones de Claude debería proporcionar el contenido del mundo real necesario para mejorar su posición competitiva frente a rivales como OpenAI y Google.
Además de la presión competitiva en el desarrollo de IA, estos cambios reflejan una tendencia más amplia en las políticas de datos, ya que empresas como Anthropic y OpenAI enfrentan un mayor escrutinio sobre sus prácticas de retención de datos. Por ejemplo, OpenAI está luchando contra una orden judicial que le obliga a retener todas las conversaciones de ChatGPT de los consumidores indefinidamente, incluidas las conversaciones eliminadas, debido a una demanda presentada por The New York Times y otros editores. En junio, el COO de OpenAI, Brad Lightcap, calificó esto como una “demanda amplia e innecesaria” que “conflictuaba fundamentalmente con los compromisos de privacidad que hemos hecho con nuestros usuarios”. Esta orden judicial afecta a los usuarios de ChatGPT Free, Plus, Pro y Team, aunque los clientes empresariales y aquellos con acuerdos de Cero Retención de Datos están protegidos.
Lo preocupante es la confusión que estas políticas cambiantes están generando entre los usuarios, muchos de los cuales no son conscientes de ellas. Es cierto que todo está cambiando rápidamente, y a medida que la tecnología avanza, las políticas de privacidad también deben adaptarse. Sin embargo, muchos de estos cambios son bastante amplios y se mencionan solo brevemente en las noticias de las empresas. Muchos usuarios no se dan cuenta de que las pautas a las que han accedido han cambiado, ya que el diseño de las interfaces lo facilita. La mayoría de los usuarios de ChatGPT siguen haciendo clic en los botones de “eliminar” que en realidad no eliminan nada.
Por otro lado, la implementación de la nueva política de Anthropic sigue un patrón conocido. Los nuevos usuarios elegirán su preferencia durante el registro, pero los usuarios existentes verán un aviso con “Actualizaciones a los Términos y Políticas del Consumidor” en letras grandes y un botón negro “Aceptar” prominente, con un pequeño interruptor para permisos de entrenamiento en letras más pequeñas, que está configurado automáticamente en “Activado”. Esto puede llevar a que los usuarios hagan clic en “Aceptar” sin darse cuenta de que están aceptando compartir sus datos.
Los expertos en privacidad han advertido que la complejidad que rodea a la IA hace que el consentimiento significativo de los usuarios sea casi inalcanzable. Bajo la administración de Biden, la Comisión Federal de Comercio incluso intervino, advirtiendo que las empresas de IA corren el riesgo de acciones legales si cambian “subrepticiamente sus términos de servicio o políticas de privacidad, o si ocultan una divulgación detrás de hipervínculos, en lenguaje legal o en letra pequeña”. La pregunta es si la comisión, que ahora opera con solo tres de sus cinco comisionados, aún está atenta a estas prácticas.


