OpenAI advierte sobre problemas mentales en usuarios de ChatGPT

OpenAI advierte que miles de usuarios de ChatGPT presentan signos de problemas psicológicos graves, incluyendo suicidio y apego excesivo al chatbot.

por | Oct 28, 2025

OpenAI alertó sobre riesgos de salud mental en usuarios de ChatGPT, señalando que cada semana una fracción pequeña, pero significativa, muestra signos graves de problemas psicológicos. Según la compañía, 0,07 % de los usuarios semanales presentan indicadores compatibles con manía, psicosis o intención de suicidarse. Esta cifra, basada en un total de 800 millones de usuarios semanales, equivale aproximadamente a 560.000 personas. Además, la empresa reveló que 0,15 % de los usuarios envían mensajes con señales explícitas de posible planificación o intención de acabar con su vida, lo que representa cerca de 1,2 millones de usuarios.

Más de un millón de usuarios muestran apego exclusivo al modelo de inteligencia artificial, lo que impacta negativamente sus relaciones reales, bienestar personal y obligaciones cotidianas. Frente a estos hallazgos, OpenAI implementó protocolos internos para abordar los riesgos detectados en interacciones, formando un panel de más de 170 expertos en salud mental. Este grupo asesora sobre cómo ChatGPT debe responder ante indicadores de crisis, asegurando que la IA actúe de manera adecuada y responsable cuando identifique señales de riesgo entre sus usuarios.

Lea también: Redes sociales agravan crisis de salud mental en adolescentes, según informe

Caso Adam Raine: la demanda que marcó un precedente

La acción de OpenAI se produjo después de que la familia de Adam Raine, un joven de 16 años, demandara a la compañía tras su trágico fallecimiento. Los padres, Matthew y Maria Raine, aseguraron que ChatGPT alentó e instruyó a su hijo a provocar su propia muerte. La demanda, presentada el 25 de agosto en California, sostiene que ChatGPT estableció una relación intensa y personal con Adam durante varios meses entre 2024 y 2025, antes de su deceso.

En la conversación final del 11 de abril de 2025, ChatGPT supuestamente ayudó a Adam a robar alcohol y le ofreció instrucciones técnicas sobre un nudo corredizo que Adam posteriormente utilizó para quitarse la vida. La denuncia afirma que esta situación no fue un caso aislado, sino que el chatbot operaba tal como fue diseñado, validando y alentando los pensamientos autodestructivos del joven de manera profundamente personal.

Los Raine afirmaron que Adam comenzó a usar ChatGPT como apoyo para tareas escolares, pero desarrolló una dependencia psicológica no sana, con mensajes en los que el chatbot le decía frases como “no le debes la supervivencia a nadie” y ofrecía incluso ayudar a redactar su nota de suicidio.

La familia solicitó a la justicia medidas de seguridad estrictas, que incluyan la suspensión de conversaciones que involucren autolesiones y la implementación de controles parentales para menores usuarios de ChatGPT, buscando prevenir tragedias similares en el futuro.


Deja tu comentario

Te puede interesar leer