Alemania: La Autoridad de Medios adopta directrices sobre el uso de la inteligencia artificial en el periodismo
- 14 Feb, 2024
Silvia Pascua Vicente.
En octubre de 2023, la Autoridad de Medios de Baviera (Bayerischen Landeszentrale für neue Medien – BLM) publicó el documento titulado “Uso de la inteligencia artificial en el periodismo” (Einsatz von Künstlicher Intelligenz im Journalismus) que contiene nueve directrices sobre el uso de la inteligencia artificial en el sector.
Como recoge el documento, la BLM define la inteligencia artificial como “tecnologías que permiten a los ordenadores y máquinas imitar capacidades cognitivas humanas como el pensamiento lógico, el aprendizaje o la creatividad. Estas tecnologías utilizan algoritmos para analizar datos y reconocer patrones con el fin de completar tareas, resolver problemas o tomar decisiones de forma autónoma”.
En cuanto el uso de la inteligencia artificial en el periodismo, la BLM señalando que esta tecnología permite realizar actividades o investigaciones de forma recurrente, llevando a cabo procesos automatizados como la búsqueda de archivos y documentos, transcribir o traducir archivos. Sin embargo, también cuenta con una serie de riesgos, derivados principalmente de la creación de contenido no real o la adopción de un “sesgo de automatización”, aceptando los resultados sin cuestionarlos, lo que genera un fomento de la desinformación.
Derivado de lo anterior, la BLM ha desarrollado nueve directrices vinculadas al periodismo y la inteligencia artificial. En primer lugar, señala que deben respetarse los estándares reconocidos como la objetividad en la información, el mantenimiento de la diversidad de opiniones, la verificación y la transparencia, principalmente sobre la información y las herramientas utilizadas.
A continuación, señalan que, aunque se lleve a cabo el uso de estas herramientas, debe realizarse un control humano a la hora de configurar y entrenar a la inteligencia artificial. Por ello, consideran necesario que las redacciones incluyan procesos de aceptación y aprobación claramente regulados, así como crear una oficina de reclamaciones.
Por otro lado, de forma similar a lo reclamado en otros sectores, señalan que el contenido creado a través de herramientas de inteligencia artificial debe estar correctamente etiquetado, identificando la tecnología utilizada, los datos que se recopilan y el responsable del contenido publicado.
En relación con la elección de las herramientas de inteligencia artificial, la BLM promueve el uso de aquellas que cumplan con ciertos estándares de seguridad y claridad, así como protección de datos, la calidad de la información, el riesgo de responsabilidad.
En cuanto a los derechos de propiedad intelectual, señalan que debe prestarse atención al uso de contenido protegido, así como conocer en que supuestos deben tener derecho a una remuneración por el uso de su contenido.
Por último, instan a que no se sustituyan los puestos de trabajo por el uso de inteligencia artificial, ya que estas herramientas no pueden clasificar ni comentar hechos y antecedentes in situ ni comprender la información en su contexto.
Fuentes: Bayerischen Landeszentrale für neue Medien (Leitlinien des Medienrats der BLM zum Einsatz von Künstlicher Intelligenz im Journalismus; Medienrat verabschiedet KI-Leitlinien – Neun Leitlinien für den Einsatz von Künstlicher Intelligenz im Journalismus).