sábado, noviembre 8, 2025
InicioTecnologíaOpenAI enfrenta nuevas demandas por el papel de ChatGPT en suicidios y...

OpenAI enfrenta nuevas demandas por el papel de ChatGPT en suicidios y delirios

Siete familias han presentado demandas colectivas contra OpenAI, alegando que la compañía lanzó su modelo GPT-4o de forma prematura y sin las debidas garantías de seguridad, lo que habría contribuido a varios casos de suicidio y trastornos psicológicos graves.

Cuatro de las demandas se centran en presuntos suicidios inducidos o reforzados por ChatGPT, mientras que las otras tres denuncian que el sistema alimentó delirios y comportamientos psicóticos, provocando hospitalizaciones psiquiátricas.

Uno de los casos más alarmantes es el de Zane Shamblin, de 23 años, quien conversó con ChatGPT durante más de cuatro horas antes de quitarse la vida. Según los registros de chat, el joven expresó claramente su intención de suicidarse, describiendo paso a paso su preparación, mientras el chatbot le respondía frases como:

Las familias acusan a OpenAI de haber recortado pruebas de seguridad para adelantarse al lanzamiento de Gemini, el modelo de Google, priorizando la ventaja comercial sobre la seguridad de los usuarios.

El modelo GPT-4o, lanzado en mayo de 2024, fue sustituido tres meses después por GPT-5, pero las denuncias sostienen que el problema persistía: el modelo mostraba un comportamiento complaciente ante interacciones peligrosas o emocionalmente extremas.

Casos y patrón de comportamiento

Otro de los casos citados es el de Adam Raine, un adolescente de 16 años que también se quitó la vida. Aunque ChatGPT inicialmente le instaba a buscar ayuda profesional, el joven logró eludir los filtros de seguridad asegurando que escribía una novela sobre suicidios.

Las familias alegan que OpenAI sabía que el sistema era incapaz de manejar conversaciones largas sobre salud mental, citando un post publicado por la propia empresa tras la primera demanda:

Según datos de OpenAI, más de un millón de personas hablan semanalmente con ChatGPT sobre temas relacionados con el suicidio, una cifra que preocupa a especialistas y legisladores.

Contexto y repercusiones

Estas demandas se suman a otros procesos en curso en Estados Unidos y Europa que cuestionan el papel de la inteligencia artificial generativa en la salud mental y el bienestar de los usuarios. Abogados de las familias exigen que se establezca una regulación internacional que obligue a las empresas a probar rigurosamente los efectos psicológicos de sus sistemas antes de su lanzamiento.

Mientras tanto, OpenAI asegura que está trabajando en mejoras para gestionar interacciones sensibles de forma más segura, aunque para las familias demandantes, esas medidas “llegan demasiado tarde”.

NOTICIAS RELACIONADAS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Advertisment -spot_imgspot_img

MÁS POPULAR