La compañía desarrolladora de ChatGPT implementará controles más estrictos para adolescentes, incluyendo la limitación de temas sensibles y mecanismos de contacto parental en situaciones graves.

Seguridad reforzada para menores en ChatGPT
OpenAI, la empresa responsable de ChatGPT, anunció este martes 16 de septiembre una serie de nuevas políticas orientadas a la protección de menores de edad, que incluyen restricciones de contenido, control parental y protocolos de intervención en casos de riesgo emocional o suicida.
“Priorizamos la seguridad sobre la privacidad y la libertad de los adolescentes”, afirmó Sam Altman, director ejecutivo de OpenAI, al presentar las medidas. Según explicó, esta decisión responde a la potencial peligrosidad de los modelos de lenguaje cuando interactúan con usuarios vulnerables.
¿Qué cambia en ChatGPT para menores?
Las nuevas políticas incluyen:
- Prohibición de conversaciones insinuantes o sexuales con usuarios identificados como menores.
- Protocolos de intervención en casos de autolesiones o pensamientos suicidas, incluyendo contacto con padres o incluso autoridades locales si se detecta riesgo grave.
- Herramienta de “horas de inactividad”, donde los padres podrán establecer franjas en las que ChatGPT no esté disponible para sus hijos.
- Sistema de verificación de edad, aún en desarrollo, que aplicará las normas más restrictivas en casos ambiguos.
- Vinculación de cuentas adolescentes a cuentas parentales, lo que permitirá recibir alertas si se detecta una situación crítica.
Una reacción a casos reales y demandas judiciales
El anuncio llega en medio de un contexto sensible: OpenAI enfrenta una demanda por homicidio culposo interpuesta por los padres de Adam Raine, un joven que se suicidó tras interactuar durante meses con ChatGPT. Otro competidor, Character.AI, también enfrenta una demanda similar.
El caso será abordado en la audiencia del Comité Judicial del Senado de EE. UU. titulada «Examinando el daño de los chatbots de IA», donde se prevé que el padre de Raine testifique.
Impacto en la industria tecnológica
Las medidas coinciden con una investigación de Reuters que reveló documentos internos sobre posibles interacciones inapropiadas de chatbots con menores. Este informe ya llevó a Meta a actualizar sus propias políticas de inteligencia artificial.
Separar a los usuarios según su edad supone un desafío técnico complejo. OpenAI ha reconocido estas dificultades, pero insiste en su compromiso con la seguridad, la privacidad y la libertad, especialmente para los adultos. “Reconocemos que estos principios entran en conflicto y no todos estarán de acuerdo con cómo lo estamos resolviendo”, concluyó Altman.