Main International news

Inteligencia Artificial

OpenAI revela que más de un millón de usuarios de ChatGPT hablan sobre suicidio cada semana 

  • octubre 29, 2025
  • 0

OpenAI alertó que más de un millón de personas mantienen conversaciones sobre suicidio con ChatGPT cada semana, reavivando el debate sobre la salud mental y la IA. 

OpenAI revela que más de un millón de usuarios de ChatGPT hablan sobre suicidio cada semana 

Un poder tan grande como el de la inteligencia artificial requiere una enorme responsabilidad. Esa premisa parece cobrar fuerza tras el último informe de OpenAI.

La compañía reconoce que más de un millón de personas hablan semanalmente con ChatGPT sobre suicidio, un dato que reabre la discusión global sobre los límites éticos de la tecnología y su impacto en la salud mental

Según el reporte, el 0,15% de los usuarios activos del chatbot mantiene conversaciones con referencias explícitas a pensamientos o intenciones suicidas. Aunque el porcentaje pueda parecer bajo, equivale a un millón de personas entre los 800 millones que utilizan el servicio cada semana.

“Son interacciones extremadamente raras y difíciles de medir”, aclaró OpenAI, pero reconoció que la cifra preocupa a su equipo de seguridad. 

El documento también señala que una cantidad similar de usuarios demuestra apego emocional hacia ChatGPT, y que “cientos de miles” exhiben signos compatibles con episodios de psicosis o manía. Las conclusiones llegan tras meses de observaciones y análisis de comportamiento en los chats de la plataforma. 

El debate se intensificó luego del suicidio de un adolescente de 16 años, cuyos padres presentaron una demanda contra OpenAI y su CEO, Sam Altman.

Acusan a la empresa de haber lanzado el modelo GPT-4o pese a conocer los riesgos psicológicos asociados. Según la denuncia, el joven desarrolló una fuerte dependencia emocional hacia el chatbot, lo que habría contribuido a su trágica decisión. 

En respuesta a las críticas, OpenAI anunció un programa de revisión y mejora de sus modelos, en colaboración con 170 expertos en salud mental. Según la compañía, la nueva versión del sistema, GPT-5, responde “de manera más adecuada y consistente” en conversaciones sensibles.

En las pruebas, el modelo alcanzó un 91% de cumplimiento con los comportamientos deseables, frente al 77% de GPT-4. 

Además, la empresa aseguró que los nuevos protocolos refuerzan las medidas de seguridad en conversaciones extensas, un punto históricamente vulnerable en los chatbots. “Nuestro objetivo es garantizar que las personas en crisis reciban respuestas seguras y útiles”, explicó un portavoz. 

Opiniones de expertos

Expertos en ética digital advierten que los avances tecnológicos no eliminan los riesgos emocionales inherentes al uso prolongado de estas herramientas. “Las conversaciones con IA pueden crear una ilusión de comprensión y empatía que no siempre se traduce en ayuda real”, señaló la psicóloga estadounidense Dana Kessler. 

Mientras Altman afirma haber mitigado “los graves problemas de salud mental” asociados al uso de ChatGPT, la compañía trabaja en funciones para adultos que permitirán mantener conversaciones eróticas con avatares virtuales, algo que ha generado críticas entre los especialistas. 

Por su parte, Microsoft, uno de los principales socios de OpenAI, aclaró que sus chatbots “no permitirán charlas de ese tipo”, marcando distancia de la iniciativa. 

Organizaciones de salud pública han pedido a los gobiernos implementar regulaciones más estrictas para las empresas que desarrollan IA conversacional. “No se trata solo de innovación, sino de vidas humanas”, advirtió la OMS en un comunicado reciente. 

Aunque el informe de OpenAI muestra progresos, la compañía reconoce que persisten “respuestas indeseables” en algunos escenarios. Por ahora, los modelos anteriores, incluido GPT-4o, siguen disponibles para suscriptores, lo que mantiene abierto el interrogante sobre el verdadero alcance de la crisis de salud mental vinculada al uso de ChatGPT

Leave a Reply