OpenAI anuncia control parental y nuevas medidas tras casos de suicidio vinculados a ChatGPT
Medidas para abordar riesgos vinculados a la salud mental
[Tras varias tragedias](https://www.bbc.com/mundo/articles/c30z5lyjzygo) reportadas en Estados Unidos, donde usuarios vulnerables mantuvieron largas conversaciones con ChatGPT antes de intentar o consumar suicidios, [OpenAI ha reforzado sus protocolos de respuesta](https://www.biobiochile.cl/noticias/ciencia-y-tecnologia/moviles-y-apps/2025/09/04/openai-integrara-control-parental-y-otras-funciones-tras-suicidio-de-adolescente-orientado-por-chatgpt.shtml) en diálogos que reflejan crisis emocionales o intenciones suicidas. La compañía anunció que su modelo ahora ofrecerá respuestas consistentes y adecuadas incluso en conversaciones largas o reiteradas de un mismo usuario, garantizando una intervención constante en casos de riesgo evidenciado.
Además, OpenAI apunta a redirigir a los usuarios en situación crítica hacia recursos de ayuda profesionales, y plantea un sistema de verificación humana para revisar ciertas conversaciones en las que se detecte riesgo de violencia física contra terceros, con la posibilidad de alertar a las autoridades en situaciones graves.
Implementación de control parental para usuarios menores de edad
Abordando la preocupación por el acceso de menores a ChatGPT —actualmente restringido a mayores de 13 años, aunque con baja efectividad en su control—, OpenAI [anunció](https://openai.com/index/building-more-helpful-chatgpt-experiences-for-everyone/) la incorporación de un sistema de control parental previsto para octubre de 2025. Este permitirá a los padres vincular su cuenta con la de su hijo adolescente (mayor de 13 años), estableciendo reglas personalizadas que condicionan cómo el chatbot responde, ajustadas a la edad y necesidades del menor.
El sistema también incluirá opciones para desactivar funciones como la memoria del chatbot o el historial de chats, además de enviar notificaciones a los padres si se detecta que el adolescente está en una situación de angustia emocional grave. Estas herramientas buscan aumentar la supervisión y protección de los jóvenes, atendiendo las dificultades actuales en la aplicación efectiva de restricciones por edad.
Implicaciones para la comunidad de IA y la sociedad
Los acontecimientos recientes subrayan los desafíos éticos y técnicos que enfrentan las compañías de IA generativa al interactuar con usuarios en situaciones vulnerables. La capacidad de detectar y responder adecuadamente a señales de riesgos emocionales es una línea crítica para garantizar que estas tecnologías no solo sean útiles, sino también seguras.
El desarrollo y despliegue de controles parentales especializados representa un avance hacia una gestión más responsable del acceso juvenil, un aspecto clave para la regulación futura de sistemas conversacionales en la esfera pública y privada. Estos pasos influirán en la forma en que la industria de la IA concibe la moderación de contenidos y la protección de usuarios.