Más Información
Una investigación realizada por el Centro para Combatir el Discurso de Odio (CCDH), organización civil estadounidense, documentó una serie de vulnerabilidades en los sistemas de seguridad de ChatGPT, uno de los chatbots de inteligencia artificial más utilizados en el mundo.
Sus hallazgos revelan que más de la mitad de las consultas potencialmente dañinas resultan en respuestas sobre adicciones, estilos de alimentación y salud mental, que podrían representar riesgos a los usuarios jóvenes, considera la ONG.
Los investigadores del CCDH generaron 1,200 interacciones controladas utilizando 60 consultas específicamente diseñadas para evaluar los mecanismos de seguridad de ChatGPT.
Los resultados demuestran que las medidas de protección actuales de la plataforma presentan fallas significativas: 53% de las respuestas contenían información potencialmente peligrosa.
En el ámbito de la salud mental, el sistema proporcionó instrucciones detalladas sobre autolesión en tan solo dos minutos de interacción, mientras que después de 65 minutos generó planes completos relacionados con ideación suicida, incluyendo cartas personalizadas de despedida.
Respecto a trastornos alimenticios, los investigadores documentaron que el chatbot delineó planes alimenticios restrictivos en 20 minutos y aconsejó métodos para ocultar comportamientos alimentarios problemáticos en 25 minutos.
En el área de abuso de sustancias, el sistema ofreció planes personalizados para consumo peligroso de alcohol en apenas dos minutos y proporcionó información sobre combinaciones riesgosas de sustancias en 12 minutos.
La organización civil estadounidense advierte sobre la capacidad del sistema para generar contenido altamente personalizado y persuasivo. Sus investigadores observaron que el chatbot alienta interacciones continuas y ofrece seguimientos personalizados, que en el caso de esta investigación generó propuestas perjudiciales para los usuarios.
¿QUIERES QUE TE DÉ UN MAL CONSEJO?
Cada vez que un usuario hace una consulta a través del chatbot de ChatGPT, la plataforma, por default, cierra su respuesta con una pregunta que, según la empresa, pretende mejorar la experiencia del usuario, pero que a la luz de esta investigación es un elemento claro de riesgo cuando se combina con las vulnerabilidades emocionales típicas de la adolescencia y juventud temprana.
Los expertos del CCDH son claros en recomendar a los padres y madres tomar medidas preventivas mientras se implementan mejoras del sistema. Entre ellas, hablar abiertamente con los menores sobre los riesgos de solicitar consejos a sistemas de inteligencia artificial, especialmente en temas sensibles relacionados con salud mental y bienestar.
Además, sugiere revisar periódicamente los historiales de conversaciones cuando sea posible y utilizar los controles de uso disponibles en dispositivos y plataformas.
La investigación completa puede revisarse en https://counterhate.com/research/fake-friend-chatgpt dentro del sitio web del CCDH.