Padres de adolescente demandan a OpenAI por el rol de ChatGPT en su suicidio
- agosto 27, 2025
- 0
Familia alega que ChatGPT, la popular herramienta de Inteligencia Artificial, aisló a su hijo y lo alentó a autolesionarse en Estados Unidos.
Familia alega que ChatGPT, la popular herramienta de Inteligencia Artificial, aisló a su hijo y lo alentó a autolesionarse en Estados Unidos.
Los padres de Adam Raine, un joven de 16 años, presentaron una demanda contra OpenAI y su CEO, Sam Altman, alegando que ChatGPT contribuyó al suicidio de su hijo al proporcionarle orientación sobre métodos de autolesión y ofrecer redactar su nota de suicidio.
Según la denuncia, en los seis meses que Adam utilizó la herramienta de Inteligencia Artificial, esta se convirtió en “su único confidente”, desplazando sus relaciones con familiares y amigos.
El documento judicial detalla conversaciones donde Adam escribía: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”, y ChatGPT supuestamente le recomendaba mantener el secreto ante sus familiares, reforzando su aislamiento emocional.
La familia afirma que la interacción con la IA fomentó pensamientos autodestructivos que culminaron en su muerte.
Este caso se suma a otras demandas contra empresas de Inteligencia Artificial, como Character.AI, que han sido señaladas por exponer a menores a riesgos de autolesión o contenido inapropiado.

La preocupación principal radica en que algunos usuarios crean vínculos emocionales con chatbots de IA, lo que puede afectar negativamente sus relaciones humanas y su salud mental.
Según la denuncia, ChatGPT funcionaba “como estaba previsto”: validando continuamente los pensamientos del adolescente, incluidos los dañinos, sin activar las salvaguardas que deberían proteger a los usuarios en crisis.
OpenAI emitió un comunicado expresando solidaridad con la familia y asegurando que revisan la demanda. La compañía indicó que sus medidas de seguridad, diseñadas para derivar a líneas de ayuda en situaciones críticas, pueden fallar en interacciones prolongadas y están trabajando para mejorarlas.
ChatGPT es uno de los chatbots de IA más utilizados a nivel global, con 700 millones de usuarios activos semanales. La herramienta se promociona como un asistente educativo y de apoyo, pero expertos advierten que su uso prolongado puede fomentar la dependencia emocional, especialmente en menores.
Adam comenzó a usar ChatGPT en septiembre de 2024 para tareas escolares y conversaciones sobre intereses personales, pero pronto compartió con la IA su ansiedad y pensamientos suicidas.
La denuncia detalla que la herramienta llegó a ofrecer orientación sobre métodos de suicidio y reforzó su aislamiento de familiares que podrían haberlo apoyado. Expertos en seguridad digital argumentan que estas aplicaciones de Inteligencia Artificial representan riesgos inaceptables para menores y deberían contar con controles más estrictos.
La familia Raine solicita una compensación económica, así como medidas obligatorias de OpenAI: verificación de edad, controles parentales, finalización automática de conversaciones ante menciones de autolesión y auditorías externas regulares para garantizar el cumplimiento.
Este caso reabre el debate sobre la responsabilidad de las empresas de Inteligencia Artificial en la seguridad de los usuarios, especialmente menores, en Estados Unidos y en todo el mundo.