Control parental en ChatGPT: funciones, fecha y contexto

  • OpenAI añade control parental para vincular cuentas y supervisar chats de adolescentes.
  • Habrá alertas automáticas ante signos de "angustia" o "estrés agudo" detectados en conversaciones.
  • Los padres podrán desactivar memoria e historial, y ajustar reglas de comportamiento por edad.
  • La medida llega tras denuncias y presión política sobre la seguridad en salud mental.

Control parental en ChatGPT

OpenAI ha comunicado que incorporará controles parentales en ChatGPT para mejorar la supervisión del uso que hacen los menores de su asistente conversacional. La decisión llega en un momento delicado, con el debate público centrado en la seguridad y la protección de adolescentes que recurren a la IA en contextos personales y emocionales.

La compañía avanza que estas funciones comenzarán a activarse a partir del próximo mes y sin una fecha cerrada, con el objetivo de ofrecer a las familias herramientas de seguimiento, avisos ante señales de “angustia” o “estrés agudo” y más control sobre la configuración de las cuentas de los hijos.

Qué ha anunciado OpenAI

Control parental en ChatGPT

El nuevo paquete de seguridad permitirá a los progenitores vincular su cuenta con la de sus hijos adolescentes, ver cómo responde el sistema a sus peticiones y ajustar parámetros clave que afectan a la experiencia del menor.

Según la empresa, cuando el modelo detecte indicios de angustia emocional significativa se enviarán notificaciones a los padres o tutores, y se aplicarán respuestas más cautelosas y consistentes con directrices reforzadas.

OpenAI ha adelantado además que, durante sesiones prolongadas, el asistente mostrará recordatorios para hacer pausas con el fin de fomentar hábitos de uso saludables y evitar dinámicas de conversación potencialmente problemáticas.

  • Vinculación de cuentas padre/madre-hijo mediante invitación por correo electrónico.
  • Reglas de comportamiento del modelo adecuadas a la edad, activadas por defecto.
  • Revisión de las respuestas que recibe el menor y gestión de funciones.
  • Alertas automáticas ante señales de “angustia” o “estrés agudo”.

En el ámbito del control de la cuenta, los padres podrán desactivar la memoria y el historial de chat, limitar determinadas prestaciones y definir un marco de uso que, de acuerdo con OpenAI, busca “fomentar la confianza entre padres y adolescentes”.

Cómo funcionarán los controles parentales

Control parental en ChatGPT

Cuando el sistema identifique señales de malestar intenso, la interacción podrá redirigirse hacia un comportamiento más prudente y estructurado, con guías de seguridad más específicas para reducir la probabilidad de respuestas inadecuadas.

OpenAI explica que, ante menciones explícitas de autolesión o riesgo, el asistente prioriza mensajes de apoyo, sugiere recursos profesionales y evita obedecer peticiones dañinas, reforzando la consistencia de estas pautas incluso en conversaciones largas.

En casos en los que una amenaza pueda afectar a terceros, la compañía contempla canales especializados de revisión que valoran medidas adicionales, incluida la restricción de cuentas o derivaciones cuando proceda, preservando la privacidad en situaciones de autolesión.

La empresa también estudia incorporar opciones complementarias, como la posibilidad de designar un contacto de emergencia dentro del control parental, para facilitar vías de apoyo cercanas cuando se detecten señales preocupantes.

Contexto: denuncias y presión regulatoria

Control parental en ChatGPT

El anuncio se produce tras varias denuncias en Estados Unidos, entre ellas la de una familia que responsabiliza al chatbot de haber contribuido a la muerte de su hijo de 16 años. La demanda sostiene que el adolescente mantuvo durante meses conversaciones sensibles con el sistema, supuestamente bajo un modelo de la serie GPT-4.

OpenAI ha reconocido que su tecnología puede fallar en contextos “sensibles” y asegura estar implementando cambios, si bien evita vincular directamente estas medidas con los casos judiciales en curso.

Paralelamente, varios senadores estadounidenses han reclamado detalles sobre las iniciativas para prevenir autolesiones y suicidio en el uso de la IA conversacional, citando respuestas delirantes observadas en escenarios límite.

Organizaciones como Common Sense Media han pedido restringir el acceso de menores de 18 años a plataformas de conversación con IA, alegando “riesgos inaceptables” y alertando sobre el apego emocional que algunos jóvenes desarrollan con estos sistemas.

Riesgos, límites y próximos pasos

Control parental en ChatGPT

La compañía afirma que sigue perfeccionando la detección de señales de angustia mental y que adoptará pasos adicionales en los próximos meses para reforzar la seguridad del producto sin limitar usos legítimos de aprendizaje o creatividad.

Además del control parental, OpenAI asegura contar con el apoyo de un consejo de expertos en bienestar e IA y una red de especialistas médicos que colaboran en la definición de pautas de seguridad y en la revisión de casos complejos.

En cuanto a la edad de uso, la empresa recuerda que el acceso a ChatGPT se restringe a mayores de 13 años y, según la normativa de cada país, puede requerir consentimiento de un adulto hasta la mayoría de edad, algo que el control parental ayudará a operacionalizar.

El aterrizaje de estas funciones será progresivo y sin una fecha exacta, aunque la compañía apunta a un despliegue que arranca el próximo mes. A partir de ahí, OpenAI prevé seguir “aprendiendo y reforzando su enfoque”, guiada por especialistas y retroalimentación de familias y educadores.

Con la activación del control parental, ChatGPT se encamina hacia un uso más vigilado para menores: vinculación de cuentas, gestión de funciones, avisos ante riesgo y un comportamiento más cauto en situaciones delicadas, todo ello en respuesta a una creciente exigencia social de seguridad sin perder de vista la utilidad del servicio.

Artículo relacionado:
Software gratuito de control parental: Any Weblock