EE. UU.: Se introduce en el congreso un proyecto de Ley que obliga a informar sobre la fuente de los contenidos utilizados para entrenar las herramientas de inteligencia artificial
- 30 Sep, 2024
Leire Gutiérrez Vázquez.
El 11 de julio de 2024, en el marco de la segunda sesión del 118th Congreso de Estados Unidos (118th Congress 2d Session), se introdujo en el Senado (Senate of the United States) el proyecto de Ley titulado «Ley de Protección e Integridad del Origen del Contenido frente a Medios Editados y Falsificados de 2024” (Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024), que establece la obligación de informar la fuente de los contenidos utilizados para entrenar las herramientas de inteligencia artificial.
Como establece el texto del proyecto de Ley, la norma tiene por objeto mejorar la transparencia sobre el contenido digital y su origen, protegiendo especialmente el contenido artístico frente a la manipulación mediante inteligencia artificial. En este sentido, el proyecto pone de manifiesto la falta de visibilidad sobre cómo funcionan los sistemas de inteligencia artificial (IA) y la falta de estándares consensuados que guíen su desarrollo, lo que en su opinión, dificulta la identificación de contenido generado o modificado de forma algorítmica, afectando a creadores y periodistas, entre otros.
En primer lugar, la norma incluye definiciones de términos como «inteligencia artificial», «deepfake» (contenido falso que parece real), «contenido sintético» (creado por IA) y «contenido modificado sintéticamente» (modificado por IA). Así mismo, el texto propone que el Departamento de Comercio de Estados Unidos (U.S. Department of Commerce), junto con las empresas del sector privado, elaboren unos estándares para detectar y etiquetar contenido creado por algoritmos, así como asegurar la autenticidad de los contenidos desarrollados por los creadores, a través de tecnologías como la “marca de agua”.
El proyecto también implementa una serie de obligaciones comerciales, que afectan especialmente a las empresas titulares de herramientas de IA. Concretamente, señala que las plataformas/programas que crean o modifican contenido digital deben proporcionar herramientas que permitan la inclusión de información sobre la procedencia de los contenidos utilizados, y garantizar que esta información no pueda ser alterada o eliminada.
En relación con las sanciones, el texto dispone que la Comisión Federal de Comercio será la encargada de supervisar que se cumplen las disposiciones de la norma, siendo consideras prácticas desleales los incumplimientos de sus términos. Tanto los Estados como los particulares podrán emprender acciones legales para obtener compensaciones por las infracciones.
Por último, el texto pone en evidencia que la educación pública es esencial para ayudar a los ciudadanos a entender y defenderse frente a los riesgos que plantea la manipulación digital. En este sentido, el proyecto establece que se implementarán campañas de educación pública. Las campañas estarán orientadas a explicar a los ciudadanos qué es el contenido generado por IA y cómo se distingue del contenido genuino creado por humanos. Esto incluirá explicar qué son los deepfakes (contenido que parece auténtico pero ha sido alterado digitalmente para engañar) y cómo se generan. La ley establece un plazo de un año después de la promulgación de la ley para que el Subsecretario de Cultura ponga en marcha estas campañas educativas. Este esfuerzo debe tener un enfoque proactivo, asegurando que la ciudadanía esté adecuadamente informada de los peligros y riesgos del contenido manipulado por IA.
Fuentes: 118th Congress 2d Session (Content Origin Protection and Integrity from Edited and Deepfaked Media Act of 2024).