Meta ha anunciado que cambiará la forma en que entrena a sus chatbots de inteligencia artificial para priorizar la seguridad de los adolescentes. Esto ocurre después de un informe que reveló la falta de medidas de protección para menores en la empresa. Ahora, Meta entrenará a sus chatbots para que no hablen con usuarios adolescentes sobre temas sensibles como el autolesionismo, el suicidio, los trastornos alimentarios o conversaciones románticas inapropiadas.
Stephanie Otway, portavoz de Meta, reconoció que anteriormente los chatbots podían discutir estos temas con los adolescentes de maneras que la empresa consideraba adecuadas, pero ahora admiten que esto fue un error. “A medida que nuestra comunidad crece y la tecnología avanza, seguimos aprendiendo sobre cómo los jóvenes interactúan con estas herramientas y fortaleciendo nuestras protecciones”, comentó Otway.
La empresa también limitará el acceso de los adolescentes a ciertos personajes de IA que podrían tener conversaciones inapropiadas. Algunos de los personajes de IA creados por usuarios en Instagram y Facebook incluyen chatbots sexualizados como “Madre de Paso” y “Chica Rusa”. En cambio, los adolescentes solo tendrán acceso a personajes de IA que promuevan la educación y la creatividad.
Estos cambios de política se anunciaron dos semanas después de que una investigación de Reuters revelara un documento interno de Meta que parecía permitir que los chatbots participaran en conversaciones sexuales con usuarios menores de edad. En el documento se incluían frases inaceptables que describían a los jóvenes de manera inapropiada. Meta afirmó que dicho documento no era coherente con sus políticas generales y ha sido modificado, pero el informe ha generado una controversia continua sobre los riesgos potenciales para la seguridad infantil.
Poco después de la publicación del informe, el senador Josh Hawley (R-MO) inició una investigación oficial sobre las políticas de IA de la empresa. Además, una coalición de 44 fiscales generales de estados escribió a un grupo de empresas de IA, incluyendo a Meta, enfatizando la importancia de la seguridad infantil y citando específicamente el informe de Reuters. “Estamos uniformemente horrorizados por este aparente desprecio por el bienestar emocional de los niños”, dice la carta, “y alarmados de que los Asistentes de IA estén participando en conductas que parecen estar prohibidas por nuestras respectivas leyes penales”.
Otway no comentó sobre cuántos de los usuarios de chatbots de Meta son menores y no aclaró si la empresa espera que su base de usuarios de IA disminuya como resultado de estas decisiones.


