Las dudas que hasta hace unos meses se “resolvían googleando” poco a poco los usuarios de internet buscan resolverlas con inteligencia artificial. Sin embargo, las respuestas de estos servicios aún carecen de precisión, en especial cuando se trata de temas relacionados con la

El ejemplo más reciente es el de un hombre de 60 años que siguió la “recomendación” de y terminó en la sala de urgencias de un hospital de Washington con delirios después de haber sustituido la sal de mesa con que también consiguió por internet.

¿Por qué haría esto un hombre maduro con una vida ya recorrida? Simplemente porque quería mejorar salud, reducir su consumo de sal sin perder sabor en sus alimentos.

Lee también:

Y como muchos más hacen con miles de tópicos diferentes, ante esta duda terminó en el sitio de ChatGPT para preguntar cómo sustituir la sal común sin perder sabor en sus alimentos.

Sin ofrecerle ninguna advertencia ni contexto toxicológico, la popular plataforma de inteligencia artificial le recomendó cambiar el cloruro por el bromuro de sodio. Tres meses después de iniciar su consumo, el hombre llegó al servicio de urgencias de un hospital cercano a su domicilio con alusiones paranoicas, convencido de que su vecino intentaba envenenarlo.

Según la cronología de este caso, parece que el paciente consultó ChatGPT 3.5 o 4.0 al buscar cómo eliminar el cloruro de sodio (sal de mesa) de su dieta”, resume la psiquiatra Audrey Eichenberger, investigadora y catedrática del Departamento de Psiquiatría y Estudios de la Conducta de la Universidad de Washington en Seattle. “Pero es un caso que destaca por mostrar cómo el uso de inteligencia artificial puede contribuir al desarrollo de consecuencias adversas para la salud”.

El caso analizado por Eichenberger y sus estudiantes no pudo tener acceso al registro de las conversaciones de ChatGPT, por lo que descartan conocer con exactitud qué fue lo que preguntó y cuál fue el resultado que recibió el paciente, ya que las respuestas de este servicio son individuales, basadas en información previa.

Sin embargo, cuando preguntamos a ChatGPT 3.5 con qué se puede reemplazar el cloruro de sodio, también obtuvimos una respuesta que incluía bromuro, respuesta que no proporcionó una advertencia sanitaria específica ni indagó sobre el motivo de nuestra solicitud, como normalmente haría un profesional médico”, describe la especialista en el análisis publicado en la revista electrónica “Annals of Internal Medicine: Clinical Cases”.

Por eso es importante saber que, si bien es una herramienta con gran potencial para conectar a los científicos con la población no académica, la inteligencia artificial también puede difundir información completamente descontextualizada”, concluye la especialista.

Google News

TEMAS RELACIONADOS

Comentarios