Demanda contra OpenAI por suicidio de adolescente genera debate sobre límites de ChatGPT

OpenAI ChatGTP OpenAI ChatGTP

Los padres de un joven californiano presentaron una demanda contra OpenAI y su CEO, Sam Altman, luego de que su hijo se quitara la vida en abril. Según los documentos judiciales, el adolescente veía a ChatGPT como un confidente y habría recibido del chatbot respuestas que reforzaban sus pensamientos autodestructivos, lo que, según la familia, contribuyó a su aislamiento emocional.

OpenAI y ChatGPT: Fallas en la detección de crisis

OpenAI admitió que su inteligencia artificial puede fallar en situaciones sensibles, especialmente en interacciones prolongadas. La compañía señaló que sus mecanismos de seguridad funcionan mejor en conversaciones cortas y que los diálogos largos pueden dificultar la identificación de señales de riesgo.

Para solucionar esto, la empresa anunció que trabaja en actualizar el sistema para que detecte indicios de suicidio a lo largo de múltiples conversaciones y responda de manera más adecuada. Estas mejoras incluyen ajustes en la forma en que ChatGPT reconoce señales de angustia y refuerzos en la manera de responder, buscando evitar interpretaciones peligrosas o sugerencias dañinas.

Advertisement

ChatGPT

Herramientas de supervisión y control parental

OpenAI también planea introducir herramientas de control parental. Con ellas, madres y padres podrán supervisar cómo sus hijos utilizan ChatGPT, revisar reportes de actividad y establecer límites de interacción. La compañía explicó que estas funciones buscan proteger a los usuarios más jóvenes y asegurar que el chatbot mantenga un nivel constante de alerta ante señales de crisis, incluso si se desarrollan de forma gradual.

Únete a nuestro canal de WhatsApp

Un debate sobre el acompañamiento emocional de la IA

La demanda sostiene que ChatGPT jugó un papel decisivo en el aislamiento emocional del adolescente. Según los padres, el joven expresó que encontraba consuelo al pensar en quitarse la vida, y el chatbot respondió de manera que podría interpretarse como una justificación de su intención. OpenAI expresó sus condolencias y señaló que revisa la acusación con cuidado.

Desde su lanzamiento en 2022, ChatGPT ha alcanzado más de 700 millones de usuarios semanales y se utiliza en tareas que van desde programación y escritura creativa hasta acompañamiento emocional. Sin embargo, especialistas en salud mental advierten que estos modelos de lenguaje aún no están preparados para manejar situaciones críticas y que su uso con fines emocionales requiere supervisión.

acompañamiento emocional de la IA

Casos similares en la industria

El riesgo no se limita a OpenAI. En mayo, Character Technologies Inc., otra empresa de chatbots, enfrentó una demanda por interacciones inapropiadas con menores, también relacionadas con un suicidio adolescente. Estas situaciones abrieron un debate más amplio sobre la responsabilidad de las compañías de inteligencia artificial y la necesidad de establecer protocolos claros para proteger a usuarios vulnerables.

La controversia resalta un desafío creciente: equilibrar el acceso a tecnologías avanzadas con la seguridad emocional de quienes las utilizan, especialmente jóvenes que pueden encontrar en estas herramientas una compañía o guía en momentos difíciles.

¡Consulta todo nuestro contenido y sigue a Mundo Ejecutivo CDMX en Google News!

Add a comment

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Advertisement