Europa: El Observatorio del Audiovisual Europeo publica un informe sobre la protección de los niños y jóvenes en línea

  • 13 Ene, 2025
  • Berta Gómez Viñuela
Observatorio Audiovisual EuropeoProtección de los menoresVideo-sharing platforms

Berta Gómez Viñuela

El 14 de noviembre de 2024, el Observatorio Audiovisual Europeo (European Audiovisual Observatory) publicó el informe titulado “Pantallas seguras: proteger a los menores en línea” (Safe Screens: Protecting Minors Online), que destaca las medidas adoptadas por los países europeos para garantizar la seguridad de los niños y jóvenes en línea. El informe se centra principalmente en analizar cómo los Estados miembros han traspuesto el artículo 28 b) de la Directiva 2018/1808, de 14 de noviembre de 2018, por la que se modifica la Directiva 2010/13/UE sobre la coordinación de determinadas disposiciones legales, reglamentarias y administrativas de los Estados miembros relativos a la prestación de servicios de comunicación audiovisual (Directiva de servicios de comunicación audiovisual) – DSCA).

En primer lugar, el informe define los servicios de plataformas de intercambio de vídeos (Video-sharing platforms – VSP) como un servicio destinado a proporcionar programas o vídeos generados por los usuarios y dirigidos al público en general, y sobre los cuales el proveedor de la plataforma no tiene responsabilidad editorial. Estos servicios tienen el fin de informar, entretener o educar, mediante redes de comunicaciones electrónicas.

Por otro lado, destaca que el principio del país de origen (artículo 28 b), apartado 2, DSCA) obliga a las VSP a cumplir las normas del país en el que está establecida. A su vez, el artículo 28 b), apartado 3, DSCA, destinado a proteger a los menores de contenidos nocivos, ha sido traspuesto en toda Europa con enfoques diversos, al no establecer la normativa una definición específica sobre qué se considera contenido nocivo, dando lugar a una diversidad de regulaciones.

En segundo lugar, el informe analiza el contenido nocivo en las VSP, destacando que la directiva exige que los países garanticen que las VSP protejan a los menores de contenidos que puedan afectar a su desarrollo físico, mental o moral, incluyendo tanto programas como vídeos generados por los usuarios o los anuncios. En este punto, el informe señala que solo Alemania, Italia y Bulgaria han añadido orientaciones específicas a través de códigos de conducta, especificando qué contenido puede perjudicar al desarrollo de los menores. En cambio, en España y otros 14 países, solo incluyen una referencia genérica al desarrollo de los menores.

En tercer lugar, el informe aborda las medidas de protección introducidas por el artículo 28 b), apartado 3, de la directiva, que los Estados pueden imponer a las VSP bajo su jurisdicción para garantizar que los menores de 18 años estén debidamente protegidos. Entre estas medidas se incluyen las verificaciones de edad, introducidas en las legislaciones nacionales de 20 de los Estados miembros de la UE, más Islandia y Reino Unido; el control parental, presente en las legislaciones nacionales de 21 Estados miembros de la UE e Islandia; o mecanismos de protección de los datos de los menores.

Señala además que, a excepción de Francia, Países Bajos, Letonia y Suecia, todos los Estados miembros de la UE han incluido en sus trasposiciones nacionales la obligación de que las VSP ofrezcan mecanismos transparentes y fáciles de usar. Por otro lado, en España y otros 20 países, se traspusieron las disposiciones del artículo de manera literal o sustancialmente literal.

En cuarto lugar, el informe trata cómo estas medidas de protección deben aplicarse en los Estados miembros, destacando que la implementación de estas medidas por parte de las VSP depende de las autoridades reguladoras nacionales u organismos correspondientes de cada país, para garantizar que las medidas sean adecuadas y proporcionales a los objetivos previstos, teniendo en cuenta diversos factores, como la naturaleza del contenido, el daño que puede causar, las características de las personas a las que se debe proteger, así como los derechos e intereses legítimos en juego.

En quinto lugar, aborda las medidas que se han puesto en práctica por parte de seis VSP (Facebook, Instagram, Snapchat, X, YouTube y TikTok), destacando que todas las plataformas han implementado medidas de protección para los menores, aunque con enfoques variados.

Por último, el informe destaca que, para que los menores puedan acceder a los contenidos de una VSP, deben seguir una serie de pasos: crear una cuenta, verificar su edad, añadir configuraciones predeterminadas y saber cómo marcar los contenidos inapropiados.  En relación con la verificación de edad, se establece una edad mínima de 13 años para poder registrarse de forma autónoma. Además, los usuarios que sospechen que la cuenta pertenece a un menor podrán notificarlo y la cuenta será puesta en revisión. También se podrá exigir una verificación adicional de la edad, como un análisis facial o la presentación de un documento de identidad.

Por otra parte, en España, en julio de 2023, entró en vigor, tras su publicación en el Boletín Oficial del Estado (BOE), la Ley 13/2022, de 7 de julio, General de Comunicación Audiovisual, la cual traspone la Directiva 2018/1808 de Servicios de Comunicación Audiovisual.

Fuentes: European Audiovisual Observatory (Safe screens: protecting minors online), Instituto Autor (UE: El Instituto Autor realiza un recopilatorio sobre las novedades de la trasposición de la Directiva (UE) 2018/1808 de Servicios de Comunicación Audiovisual).

Volver arriba