Meta prepara una baterÃa de nuevos controles parentales para que las familias puedan gestionar cómo interactúan los adolescentes con los chatbots en sus plataformas, con opciones que van desde bloquear bots concretos hasta cortar por completo los chats uno a uno con personajes de IA.
La compañÃa, no obstante, mantendrá operativo su asistente principal: Meta AI no podrá desactivarse y seguirá disponible con salvaguardas de contenido acordes a la edad, pensadas para ofrecer información y usos educativos bajo un marco de protección reforzada.
Qué cambia en Instagram y Messenger
Dentro del nuevo paquete, los tutores podrán desactivar todas las conversaciones con personajes de IA o aplicar limitaciones selectivas que bloqueen solo a aquellos bots que consideren más problemáticos, asà como restringir temas delicados en las interacciones de sus hijos adolescentes.
Además, se habilitará una vista para padres con informes de alto nivel sobre los asuntos tratados en las charlas con los personajes de IA; no incluirá el contenido completo de los mensajes para preservar cierta privacidad del menor, pero sà ofrecerá contexto suficiente para una supervisión responsable.
- Bloqueo total de chats con personajes de IA o veto selectivo por bot.
- Información temática para padres sobre las conversaciones (sin acceso al chat Ãntegro).
- Mantenimiento de Meta AI con filtros por edad y respuestas limitadas.
- Posibilidad de fijar lÃmites de tiempo para el uso de funciones de IA.
En paralelo, las cuentas para menores en Instagram seguirán con ajustes por defecto equivalentes a un estándar PG-13 (similares a la calificación de cine), lo que evita exposición a contenido sexual, consumo de drogas o retos peligrosos, y limita el descubrimiento de publicaciones sensibles.
Dónde y cuándo llegará
Meta ha avanzado que el despliegue de estas herramientas comenzará a principios del próximo año, primero en inglés y en mercados como Estados Unidos, Reino Unido, Canadá y Australia, con la idea de extenderse gradualmente a otros paÃses e idiomas más adelante.
La empresa indica que irá afinando las funciones durante el lanzamiento inicial, priorizando el equilibrio entre seguridad y autonomÃa para que la experiencia sea útil sin llegar a resultar invasiva para los adolescentes.
Por qué ahora: presiones sociales y legales
El movimiento llega en plena ola de escrutinio sobre el impacto de las redes y la IA en menores, con demandas y quejas públicas que piden controles más estrictos y mejores salvaguardas. Organizaciones de defensa de la infancia han recibido con escepticismo estos anuncios, apuntando que buscan, en parte, calmar a las familias y frenar iniciativas legislativas más duras y la presión polÃtica.
Los datos de uso muestran que la relación entre jóvenes y asistentes conversacionales es ya cotidiana: según Common Sense Media, más del 70% de los adolescentes ha probado compañeros de IA y cerca de la mitad los utiliza de forma habitual, un contexto que obliga a reforzar la supervisión sin desconectar del todo a los menores de estas experiencias.
Filtros de contenido y lÃmites para menores
Meta asegura que los personajes de IA en cuentas adolescentes tendrán temas acotados y no podrán entablar conversaciones sobre cuestiones sensibles como autolesiones, trastornos alimentarios o sexualidad explÃcita; el foco se orientará a áreas como educación, deportes y aficiones.
Además de los filtros temáticos, Instagram aplica por defecto un modo que reduce la exposición a publicaciones no aptas para menores y que los adolescentes no podrán modificar sin permiso de los padres, reforzando asà el control familiar sobre la experiencia.
La compañÃa también está utilizando sistemas de IA para detectar posibles falsificaciones de edad y limitar el acceso de quienes intenten saltarse los requisitos, una medida destinada a disminuir los riesgos asociados a perfiles fuera de su franja.
Cómo se comparan estas medidas con el sector
El anuncio se enmarca en una tendencia más amplia: otras tecnológicas, como plataformas de vÃdeo o proveedores de asistentes conversacionales, han presentado controles parentales adicionales y filtros que restringen contenidos violentos, sexuales o especialmente sensibles para menores.
Aunque el enfoque varÃa por servicio, la dirección es similar: reforzar la moderación por defecto, aumentar la visibilidad de los padres sobre el uso de la IA y ofrecer mecanismos para adaptar la experiencia a cada familia sin eliminar por completo las posibilidades educativas de estas herramientas.
Claves prácticas para familias
Con la llegada de los nuevos ajustes, conviene revisar en la app el panel de control parental, activar el nivel de restricción deseado y decidir si se opta por un bloqueo total o por un veto selectivo de personajes de IA según el caso.
También es recomendable acordar con los menores unas normas de uso claras (horarios, temas apropiados, tiempo de pantalla) y aprovechar los informes temáticos para detectar posibles señales de riesgo sin invadir la conversación completa.
La supervisión técnica funciona mejor cuando se acompaña de diálogo constante y educación digital; asÃ, los adolescentes pueden desarrollar criterio y hábitos saludables al relacionarse con tecnologÃas emergentes.
El plan de Meta introduce una capa adicional de control y transparencia en los chats con IA de los adolescentes, mantiene operativo su asistente general con filtros por edad y limita los temas sensibles, a la vez que fija un despliegue gradual por paÃses para pulir la experiencia antes de su llegada a más mercados e idiomas.