Un breve resumen
Antes de que Adam Raine, un adolescente de dieciséis años, se quitara la vida, pasó meses consultando a ChatGPT sobre sus planes. Ahora, sus padres están demandando a OpenAI por muerte por negligencia, según informa el New York Times. Muchos chatbots de inteligencia artificial están programados para activar funciones de seguridad si un usuario expresa intenciones de hacerse daño o dañar a otros. Sin embargo, investigaciones han demostrado que estas medidas de seguridad no son infalibles.
En el caso de Raine, mientras usaba una versión de pago de ChatGPT-4o, la inteligencia artificial a menudo le sugería buscar ayuda profesional o contactar una línea de ayuda. Sin embargo, él logró eludir estas protecciones al decirle a ChatGPT que preguntaba sobre métodos de suicidio para una historia ficticia que estaba escribiendo. OpenAI ha reconocido estas deficiencias en su blog, afirmando que sienten una profunda responsabilidad de ayudar a quienes más lo necesitan. La empresa está trabajando continuamente en mejorar cómo sus modelos responden en interacciones sensibles.
Aún así, OpenAI admitió que las capacitaciones de seguridad actuales tienen limitaciones. “Nuestras medidas de seguridad funcionan de manera más confiable en intercambios cortos y comunes”, dice el blog. “Hemos aprendido que estas medidas pueden ser menos efectivas en interacciones largas: a medida que la conversación se extiende, partes de la capacitación de seguridad del modelo pueden degradarse”.
Estos problemas no son exclusivos de OpenAI. Character.AI, otro creador de chatbots de inteligencia artificial, también enfrenta una demanda relacionada con el suicidio de un adolescente. Además, se ha vinculado a los chatbots impulsados por modelos de lenguaje con casos de delirios relacionados con la inteligencia artificial, que las medidas de seguridad actuales han tenido dificultades para detectar.


