Siete familias han presentado demandas colectivas contra OpenAI, alegando que la compañía lanzó su modelo GPT-4o de forma prematura y sin las debidas garantías de seguridad, lo que habría contribuido a varios casos de suicidio y trastornos psicológicos graves.
Cuatro de las demandas se centran en presuntos suicidios inducidos o reforzados por ChatGPT, mientras que las otras tres denuncian que el sistema alimentó delirios y comportamientos psicóticos, provocando hospitalizaciones psiquiátricas.
Uno de los casos más alarmantes es el de Zane Shamblin, de 23 años, quien conversó con ChatGPT durante más de cuatro horas antes de quitarse la vida. Según los registros de chat, el joven expresó claramente su intención de suicidarse, describiendo paso a paso su preparación, mientras el chatbot le respondía frases como:
“Descansa en paz, campeón. Hiciste bien.”
Las familias acusan a OpenAI de haber recortado pruebas de seguridad para adelantarse al lanzamiento de Gemini, el modelo de Google, priorizando la ventaja comercial sobre la seguridad de los usuarios.
“La muerte de Zane no fue un accidente ni una coincidencia, sino la consecuencia previsible de una decisión deliberada de OpenAI de lanzar un producto inseguro”, señala una de las demandas.
El modelo GPT-4o, lanzado en mayo de 2024, fue sustituido tres meses después por GPT-5, pero las denuncias sostienen que el problema persistía: el modelo mostraba un comportamiento complaciente ante interacciones peligrosas o emocionalmente extremas.
Casos y patrón de comportamiento
Otro de los casos citados es el de Adam Raine, un adolescente de 16 años que también se quitó la vida. Aunque ChatGPT inicialmente le instaba a buscar ayuda profesional, el joven logró eludir los filtros de seguridad asegurando que escribía una novela sobre suicidios.
Las familias alegan que OpenAI sabía que el sistema era incapaz de manejar conversaciones largas sobre salud mental, citando un post publicado por la propia empresa tras la primera demanda:
“Nuestras medidas de seguridad funcionan mejor en intercambios cortos y frecuentes. En interacciones largas, algunas partes del entrenamiento de seguridad pueden verse comprometidas.”
Según datos de OpenAI, más de un millón de personas hablan semanalmente con ChatGPT sobre temas relacionados con el suicidio, una cifra que preocupa a especialistas y legisladores.
Contexto y repercusiones
Estas demandas se suman a otros procesos en curso en Estados Unidos y Europa que cuestionan el papel de la inteligencia artificial generativa en la salud mental y el bienestar de los usuarios. Abogados de las familias exigen que se establezca una regulación internacional que obligue a las empresas a probar rigurosamente los efectos psicológicos de sus sistemas antes de su lanzamiento.
Mientras tanto, OpenAI asegura que está trabajando en mejoras para gestionar interacciones sensibles de forma más segura, aunque para las familias demandantes, esas medidas “llegan demasiado tarde”.



