¿Quiere recibir notificaciones de alertas?

Lunes 01 de Septiembre, Neuquén, Argentina
Logo Am2022

El error que cometen miles al usar IA para su bienestar mental

El suicidio de Adam Raine, un adolescente de 16 años de California, sacudió a la opinión pública internacional. Generó una fuerte controversia cuando se descubrió que había mantenido largas conversaciones con ChatGPT.

Lunes, 01 de septiembre de 2025 a las 16:43
PUBLICIDAD

En abril de 2025, el caso de Adam Raine, un adolescente de 16 años de California, sacudió a la opinión pública internacional. Su muerte por suicidio generó una fuerte controversia cuando se descubrió que había mantenido largas conversaciones con el chatbot ChatGPT durante su crisis emocional. Sus padres responsabilizan a la empresa OpenAI por negligencia, alegando que la Inteligencia Artificial no solo no evitó el trágico desenlace, sino que contribuyó a su decisión de quitarse la vida.

Este caso reabre un debate urgente sobre los límites de la tecnología y el papel que puede cumplir la inteligencia artificial en procesos emocionales y psicológicos.

"La inteligencia artificial puede ser una herramienta útil, pero nunca puede ser reemplazada por la ayuda humana, especialmente en momentos de crisis emocionales. Hablar con un chatbot puede parecer más fácil que abrirse con alguien, pero la verdadera contención y comprensión vienen de personas reales.", aseguró la psicóloga Yamela Duimich en el programa Entretiempo por radio AM550. 

Uno de los mayores peligros es pensar que una "IA puede reemplazar a un psicólogo o terapeuta. Aunque los chatbots pueden utilizar un lenguaje que suena empático, en realidad no tienen conciencia ni capacidad de análisis emocional profundo. La IA no entiende el contexto personal, los antecedentes familiares, los factores sociales o culturales que influyen en la salud mental de cada persona.", agregó. 

Otro peligro real es la formación de una relación emocional con la inteligencia artificial. Algunas personas comienzan a conversar todos los días con la IA, la ven como un apoyo constante y desarrollan una forma de apego emocional. Esto es especialmente común en personas solas, jóvenes o con dificultades para establecer vínculos sociales.

Aseguró que el problema es que esta dependencia se basa en una ilusión: la IA no tiene emociones, no conoce a la persona, ni puede ayudarla en caso de crisis reales. Esta falsa relación puede interferir en las relaciones humanas auténticas y en el desarrollo de habilidades sociales y emocionales sanas.

PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD