El acceso de los menores a redes sociales y contenidos restringidos plantea un desafío creciente en todo el mundo. Hasta hace muy poco tiempo esta responsabilidad recaía en los adultos responsables de esos menores.
Hoy, la respuesta está cambiando. Las autoridades europeas ya no lo dejan solo en manos de padres o plataformas. Frente al creciente impacto de los algoritmos en la salud mental infantil, la Unión Europea está marcando una nueva hoja de ruta: herramientas tecnológicas, protección jurídica y armonización legal para verificar la edad sin comprometer la privacidad.
La Comisión Europea ha presentado una aplicación de verificación de edad desarrollada con estándares de privacidad y anonimato.
El prototipo se está probando en cinco Estados miembros, entre ellos España, y permite confirmar si un usuario es mayor de edad sin necesidad de DNI, registros biométricos permanentes ni compartir datos con terceros.
El sistema se basa en una arquitectura interoperable, sencilla e integrable en cualquier plataforma. Y va más allá de las recomendaciones: busca convertirse en infraestructura común europea, según Bruselas.
En paralelo, la Comisión ha publicado unas directrices oficiales para ayudar a gobiernos y empresas a aplicar controles de edad compatibles con el Reglamento General de Protección de Datos (RGPD) y la Ley de Servicios Digitales.
«No basta con confiar en la edad que declara un menor al registrarse en una red social. Hay que verificar sin violar su privacidad», insisten desde la Comisión.

Mecanismos en marcha
España se ha adelantado con el sistema de verificación de edad diseñado por la Agencia Española de Protección de Datos (AEPD) y la SEDIA. Se trata de un mecanismo voluntario que evita la identificación del usuario, pero permite confirmar si ha superado la edad mínima legal.
El modelo español está alineado con la app europea y refuerza el control en webs de apuestas, contenidos sexuales o redes con funcionalidades sensibles. «Este sistema puede marcar un antes y un después en el acceso digital de los menores», precisan fuentes de la AEPD.
Normas más estrictas en otros países
Fuera de Europa, Estados Unidos avanza en direcciones similares. Arkansas, Utah, Luisiana y Texas han aprobado leyes que exigen verificación de edad para acceder a redes sociales o contenidos adultos, y responsabilizan a las plataformas si fallan en el control.
Sin embargo, varias de estas normas han sido impugnadas en tribunales por considerarse inconstitucionales o por invadir la privacidad del usuario.
Reino Unido, por su parte, introdujo en 2023 el Online Safety Act, que obliga a las tecnológicas a aplicar controles de edad efectivos y tomar medidas proactivas frente a contenidos dañinos. Y Australia también ha planteado restricciones similares, con debate parlamentario activo.
¿Qué hacen las Big Tech?
Las grandes tecnológicas han reaccionado, pero no todas en la misma dirección.
Meta (Facebook, Instagram) defiende una «mayoría de edad digital común» para Europa, lo que evitaría tener que adaptar sus políticas a cada país.
Además, promueve herramientas como el supervisor parental, que permite a los tutores configurar límites de uso, ver actividad o aprobar solicitudes de amistad.
Google, en cambio, apuesta por el perfil infantil supervisado, el uso de inteligencia artificial para detectar comportamientos sospechosos y sistemas internos de verificación adaptados a cada producto (YouTube Kids, Family Link, etc.).
Sin embargo, ambas empresas han recibido críticas por la ineficacia real de estos filtros, según organismos de protección de menores.
TikTok, una de las plataformas más utilizadas por adolescentes, ha anunciado medidas como la eliminación automática de contenidos explícitos, límites de tiempo por defecto en menores y restricciones progresivas según edad, pero sin implementar aún un sistema de verificación fiable que cumpla estándares internacionales.

El reto del anonimato y la interoperabilidad
Uno de los principales desafíos sigue siendo cómo comprobar la edad sin recopilar datos personales. Las soluciones basadas en documentos oficiales o escaneos biométricos generan rechazo por privacidad y exclusión digital.
Por eso, la UE apuesta por verificadores externos y anónimos, como el modelo presentado este verano, capaz de integrarse en cualquier plataforma.
El futuro pasa por combinaciones entre control parental, inteligencia artificial, validadores independientes y diseño de producto responsable. Y la clave estará en lograr acuerdos públicos-privados que equilibren libertad digital, protección de datos y bienestar infantil.
Europa quiere ser referente global en derechos digitales. Y los menores, como colectivo especialmente vulnerable, son prioridad. La verificación de edad pasa de ser una sugerencia a convertirse en una infraestructura crítica para garantizar un internet más seguro, con la mirada puesta en privacidad, salud mental y responsabilidad compartida.