Los padres de un joven californiano presentaron una demanda contra OpenAI y su CEO, Sam Altman, luego de que su hijo se quitara la vida en abril. Según los documentos judiciales, el adolescente veía a ChatGPT como un confidente y habría recibido del chatbot respuestas que reforzaban sus pensamientos autodestructivos, lo que, según la familia, contribuyó a su aislamiento emocional.
OpenAI y ChatGPT: Fallas en la detección de crisis
OpenAI admitió que su inteligencia artificial puede fallar en situaciones sensibles, especialmente en interacciones prolongadas. La compañía señaló que sus mecanismos de seguridad funcionan mejor en conversaciones cortas y que los diálogos largos pueden dificultar la identificación de señales de riesgo.
Para solucionar esto, la empresa anunció que trabaja en actualizar el sistema para que detecte indicios de suicidio a lo largo de múltiples conversaciones y responda de manera más adecuada. Estas mejoras incluyen ajustes en la forma en que ChatGPT reconoce señales de angustia y refuerzos en la manera de responder, buscando evitar interpretaciones peligrosas o sugerencias dañinas.

Herramientas de supervisión y control parental
OpenAI también planea introducir herramientas de control parental. Con ellas, madres y padres podrán supervisar cómo sus hijos utilizan ChatGPT, revisar reportes de actividad y establecer límites de interacción. La compañía explicó que estas funciones buscan proteger a los usuarios más jóvenes y asegurar que el chatbot mantenga un nivel constante de alerta ante señales de crisis, incluso si se desarrollan de forma gradual.
Únete a nuestro canal de WhatsApp
Un debate sobre el acompañamiento emocional de la IA
La demanda sostiene que ChatGPT jugó un papel decisivo en el aislamiento emocional del adolescente. Según los padres, el joven expresó que encontraba consuelo al pensar en quitarse la vida, y el chatbot respondió de manera que podría interpretarse como una justificación de su intención. OpenAI expresó sus condolencias y señaló que revisa la acusación con cuidado.
Desde su lanzamiento en 2022, ChatGPT ha alcanzado más de 700 millones de usuarios semanales y se utiliza en tareas que van desde programación y escritura creativa hasta acompañamiento emocional. Sin embargo, especialistas en salud mental advierten que estos modelos de lenguaje aún no están preparados para manejar situaciones críticas y que su uso con fines emocionales requiere supervisión.

Casos similares en la industria
El riesgo no se limita a OpenAI. En mayo, Character Technologies Inc., otra empresa de chatbots, enfrentó una demanda por interacciones inapropiadas con menores, también relacionadas con un suicidio adolescente. Estas situaciones abrieron un debate más amplio sobre la responsabilidad de las compañías de inteligencia artificial y la necesidad de establecer protocolos claros para proteger a usuarios vulnerables.
La controversia resalta un desafío creciente: equilibrar el acceso a tecnologías avanzadas con la seguridad emocional de quienes las utilizan, especialmente jóvenes que pueden encontrar en estas herramientas una compañía o guía en momentos difíciles.
¡Consulta todo nuestro contenido y sigue a Mundo Ejecutivo CDMX en Google News!