Meta habilita controles parentales para acotar los chats de IA de los adolescentes

  • Meta introduce bloqueo total o selectivo de chats con personajes de IA en cuentas de adolescentes.
  • El asistente Meta AI no podrá desactivarse, pero tendrá protecciones por edad.
  • Los padres verán resúmenes temáticos de las conversaciones, no los chats íntegros.
  • Despliegue inicial a principios del próximo año en EE. UU., Reino Unido, Canadá y Australia.

Controles parentales de IA en redes sociales

Meta prepara una batería de nuevos controles parentales para que las familias puedan gestionar cómo interactúan los adolescentes con los chatbots en sus plataformas, con opciones que van desde bloquear bots concretos hasta cortar por completo los chats uno a uno con personajes de IA.

La compañía, no obstante, mantendrá operativo su asistente principal: Meta AI no podrá desactivarse y seguirá disponible con salvaguardas de contenido acordes a la edad, pensadas para ofrecer información y usos educativos bajo un marco de protección reforzada.

Qué cambia en Instagram y Messenger

controles parentales en ChatGPT
Artículo relacionado:
ChatGPT activa controles parentales: filtros, horarios y alertas

Dentro del nuevo paquete, los tutores podrán desactivar todas las conversaciones con personajes de IA o aplicar limitaciones selectivas que bloqueen solo a aquellos bots que consideren más problemáticos, así como restringir temas delicados en las interacciones de sus hijos adolescentes.

Además, se habilitará una vista para padres con informes de alto nivel sobre los asuntos tratados en las charlas con los personajes de IA; no incluirá el contenido completo de los mensajes para preservar cierta privacidad del menor, pero sí ofrecerá contexto suficiente para una supervisión responsable.

  • Bloqueo total de chats con personajes de IA o veto selectivo por bot.
  • Información temática para padres sobre las conversaciones (sin acceso al chat íntegro).
  • Mantenimiento de Meta AI con filtros por edad y respuestas limitadas.
  • Posibilidad de fijar límites de tiempo para el uso de funciones de IA.

En paralelo, las cuentas para menores en Instagram seguirán con ajustes por defecto equivalentes a un estándar PG-13 (similares a la calificación de cine), lo que evita exposición a contenido sexual, consumo de drogas o retos peligrosos, y limita el descubrimiento de publicaciones sensibles.

Dónde y cuándo llegará

Meta ha avanzado que el despliegue de estas herramientas comenzará a principios del próximo año, primero en inglés y en mercados como Estados Unidos, Reino Unido, Canadá y Australia, con la idea de extenderse gradualmente a otros países e idiomas más adelante.

La empresa indica que irá afinando las funciones durante el lanzamiento inicial, priorizando el equilibrio entre seguridad y autonomía para que la experiencia sea útil sin llegar a resultar invasiva para los adolescentes.

Por qué ahora: presiones sociales y legales

El movimiento llega en plena ola de escrutinio sobre el impacto de las redes y la IA en menores, con demandas y quejas públicas que piden controles más estrictos y mejores salvaguardas. Organizaciones de defensa de la infancia han recibido con escepticismo estos anuncios, apuntando que buscan, en parte, calmar a las familias y frenar iniciativas legislativas más duras y la presión política.

Los datos de uso muestran que la relación entre jóvenes y asistentes conversacionales es ya cotidiana: según Common Sense Media, más del 70% de los adolescentes ha probado compañeros de IA y cerca de la mitad los utiliza de forma habitual, un contexto que obliga a reforzar la supervisión sin desconectar del todo a los menores de estas experiencias.

Filtros de contenido y límites para menores

Meta asegura que los personajes de IA en cuentas adolescentes tendrán temas acotados y no podrán entablar conversaciones sobre cuestiones sensibles como autolesiones, trastornos alimentarios o sexualidad explícita; el foco se orientará a áreas como educación, deportes y aficiones.

Además de los filtros temáticos, Instagram aplica por defecto un modo que reduce la exposición a publicaciones no aptas para menores y que los adolescentes no podrán modificar sin permiso de los padres, reforzando así el control familiar sobre la experiencia.

La compañía también está utilizando sistemas de IA para detectar posibles falsificaciones de edad y limitar el acceso de quienes intenten saltarse los requisitos, una medida destinada a disminuir los riesgos asociados a perfiles fuera de su franja.

Cómo se comparan estas medidas con el sector

El anuncio se enmarca en una tendencia más amplia: otras tecnológicas, como plataformas de vídeo o proveedores de asistentes conversacionales, han presentado controles parentales adicionales y filtros que restringen contenidos violentos, sexuales o especialmente sensibles para menores.

Aunque el enfoque varía por servicio, la dirección es similar: reforzar la moderación por defecto, aumentar la visibilidad de los padres sobre el uso de la IA y ofrecer mecanismos para adaptar la experiencia a cada familia sin eliminar por completo las posibilidades educativas de estas herramientas.

Claves prácticas para familias

Con la llegada de los nuevos ajustes, conviene revisar en la app el panel de control parental, activar el nivel de restricción deseado y decidir si se opta por un bloqueo total o por un veto selectivo de personajes de IA según el caso.

También es recomendable acordar con los menores unas normas de uso claras (horarios, temas apropiados, tiempo de pantalla) y aprovechar los informes temáticos para detectar posibles señales de riesgo sin invadir la conversación completa.

La supervisión técnica funciona mejor cuando se acompaña de diálogo constante y educación digital; así, los adolescentes pueden desarrollar criterio y hábitos saludables al relacionarse con tecnologías emergentes.

El plan de Meta introduce una capa adicional de control y transparencia en los chats con IA de los adolescentes, mantiene operativo su asistente general con filtros por edad y limita los temas sensibles, a la vez que fija un despliegue gradual por países para pulir la experiencia antes de su llegada a más mercados e idiomas.