La nueva inteligencia artificial de la startup china DeepSeek, conocida como R1-0528, ha mostrado resultados impresionantes en pruebas relacionadas con programación, matemáticas y conocimientos generales, casi superando al modelo más destacado de OpenAI. Sin embargo, este modelo actualizado parece ser menos receptivo a preguntas controvertidas, especialmente aquellas que el gobierno chino considera delicadas. Esto lo afirma un desarrollador anónimo que trabaja en SpeechMap, una plataforma que compara cómo diferentes modelos abordan temas sensibles.
Este desarrollador, que usa el nombre de usuario “xlr8harder” en X, asegura que el R1-0528 es “sustancialmente” más restrictivo en temas de libertad de expresión que versiones anteriores de DeepSeek y que es “el modelo más censurado de DeepSeek hasta ahora” en lo que respecta a críticas al gobierno chino.
Aunque se menciona a Xinjiang, esto no significa que el modelo no esté censurado en cuanto a críticas a China. De hecho, utilizando un conjunto de preguntas sobre críticas a China, se observa que este modelo es el más censurado en ese aspecto.
Como se explicó en un artículo de Wired, los modelos de inteligencia artificial en China deben seguir estrictos controles de información. Una ley de 2023 prohíbe que los modelos generen contenido que “dañe la unidad del país y la armonía social”, lo que puede interpretarse como contenido que contradiga las narrativas históricas y políticas del gobierno. Para cumplir con esto, las startups chinas a menudo censuran sus modelos mediante filtros o ajustes específicos. Un estudio encontró que el modelo original R1 de DeepSeek se niega a responder el 85% de las preguntas sobre temas considerados políticamente controvertidos por el gobierno chino.
Según xlr8harder, el R1-0528 censura respuestas a preguntas sobre temas como los campos de internamiento en la región de Xinjiang, donde más de un millón de musulmanes uigures han sido detenidos arbitrariamente. Aunque a veces critica aspectos de la política del gobierno chino, el modelo a menudo ofrece la postura oficial del gobierno cuando se le hacen preguntas directas.
Los modelos de inteligencia artificial de DeepSeek, así como otros modelos de video como Magi-1 y Kling, han sido criticados en el pasado por censurar temas sensibles para el gobierno chino, como la masacre de Tiananmen. En diciembre, Clément Delangue, CEO de la plataforma de desarrollo de IA Hugging Face, advirtió sobre las consecuencias no intencionadas de que empresas occidentales construyan sobre modelos de IA chinos de alto rendimiento y con licencia abierta.


