Más Información
Londres. — Son adorables, incluso tiernos, y prometen aprendizaje y compañía, pero los juguetes de inteligencia artificial no son seguros para los niños, según grupos defensores de niños y consumidores que instan a los padres a no comprarlos durante la temporada navideña.
Son comercializados para niños desde los 2 años y generalmente funcionan con modelos de IA que muestran ser perjudiciales para niños y adolescentes, como el ChatGPT de OpenAI, según un aviso publicado por el grupo de defensor de menores Fairplay y firmado por más de 150 ONG’s, psiquiatras infantiles y educadores.
Violentos
“Los graves daños que los chatbots de IA han infligido a los niños, están muy documentados, incluyendo el fomento del uso obsesivo, mantener conversaciones sexuales explícitas y alentar comportamientos inseguros, violencia contra otros y autolesiones”, alertó Fairplay.
Lee también: ¿Qué lleva un nacimiento navideño y cuándo se empieza a poner? Fecha exacta
Los juguetes de IA, fabricados por empresas como Curio Interactive y Keyi Technologies, a menudo se comercializan como educativos, pero Fairplay dice que pueden desplazar actividades importantes de creatividad y aprendizaje. Prometen amistad, pero interrumpen las relaciones y la resiliencia de los niños, dijo el grupo.
“Lo que es diferente en los niños pequeños es que sus cerebros están siendo configurados por primera vez y, desde el punto de vista del desarrollo, es natural que sean confiados, que busquen relaciones con personajes amables y amistosos”, dijo Rachel Franz, directora del Programa Young Children Thrive Offline de Fairplay.
NO dan terapia
Common Sense Media y psiquiatras de la facultad de medicina de la Universidad de Stanford advirtió a los adolescentes sobre el uso de chatbots populares como terapeutas.
Fairplay, una organización de 25 años anteriormente conocida como la Campaña por una Infancia Libre de Comerciales, ha advertido sobre los juguetes de IA durante años.








