Cartagena (Colombia), 18 mar (EFE).- El uso de la inteligencia artificial (IA) plantea desafíos legales, laborales y éticos para el derecho a la información y la libertad de prensa, alertaron expertos que participan en el VIII Congreso Internacional de Editores de Medios Europa-América Latina y Caribe que comenzó este martes en la ciudad colombiana de Cartagena.
“Una de las más inquietantes es la desinformación y las denominadas ‘deepfakes'”, como se denomina la creación mediante inteligencia artificial de “contenidos falsos altamente realistas que pueden manipular la opinión pública y erosionar la confianza en los medios”, señaló el director editorial de América de la Agencia EFE, Manuel Fuentes.
Según Fuentes, “estos contenidos dificultan la distinción entre la información veraz y la que no lo es, y por lo tanto afectan a la credibilidad periodística”.
El periodista puso como ejemplo lo sucedido durante las elecciones presidenciales de EE.UU. el año pasado cuando se difundió una información ‘ultrafalsa’ en la que el presidente Joe Biden realizaba una declaración de guerra, video que se viralizó rápidamente en las redes sociales y provocó confusión y desconfianza antes de que fuera desmentido por verificadores de hechos.
“El uso indebido de la IA, en algunos casos, también puede vulnerar derechos fundamentales, como la privacidad y la protección de datos, especialmente cuando se recopila y analiza información sin consentimiento”, añadió al intervenir en el panel “La IA y el derecho a la información: los riesgos para la libertad de prensa”.
En ese debate que fue moderado por la presidenta de Prensamedia, Asela Pintado, también intervinieron la directora de la Asociación de Medios de Información de España (AMI), Irene Lanzaco; el jefe de Asuntos Europeos de Axel Springer, Florian Nehm, y la directora del diario panameño La Prensa, Rita Vásquez.
El factor humano

Según Vásquez, un estudio de la Universidad de Columbia (Nueva York) mostró que el 60 % de la información que se genera a través de sitios de inteligencia artificial contiene errores, básicamente porque mucha gente no sabe hacer las preguntas correctas a la IA.
“En el caso tecnológico, si bien la inteligencia artificial absorbe lo que nuestros medios publican en sus plataformas digitales de información, requieren de la inteligencia humana para poder sustraer esa información y (…) poder modificar esa información”, expresó la directora de La Prensa.
El director editorial de EFE en América alertó también de que “los algoritmos de IA pueden contener sesgos que conduzcan a la censura de ciertos contenidos o a la promoción de otros” y que “la concentración del poder informativo” en manos de grandes corporaciones tecnológicas “puede derivar en la centralización de la información”.
“La manipulación de la opinión pública es otro de los aspectos más preocupantes del mal uso de la IA, que como todos sabemos puede ser utilizada para difundir información falsa o sesgada de manera masiva con la finalidad de influir en procesos democráticos y en la formación de la opinión pública, como por ejemplo ocurrió durante las elecciones de Brasil en 2022”, añadió.
Impacto laboral

Fuentes explicó que otro riesgo de la inteligencia artificial está en “el impacto que la automatización puede tener en los puestos de trabajo en las redacciones, porque la implementación de sistemas de IA permite la generación automática de noticias”, lo que por un lado “optimiza la eficiencia” informativa pero también puede acabar causando desempleo y “la eventual pérdida de la calidad narrativa del periodismo”.
“El uso de la IA también plantea desafíos legales y éticos, ya que su rápida evolución supone un desafío a la hora de regular y definir responsabilidades legales, especialmente en casos de difamación o propagación de noticias falsas, pero también por el uso no autorizado de contenido protegido por derechos de autor”, indicó.
Para hacer frente a ese panorama, “que nos puede conducir a un futuro distópico”, Fuentes recomendó herramientas como el Libro de Estilo Urgente de la Agencia EFE, que “establece una serie de principios sobre la inteligencia artificial y el contenido generado automáticamente”.
Según explicó, “las herramientas de IA representan una ayuda que puede servir de apoyo al trabajo periodístico, pero no reemplazan la labor de los periodistas de EFE, porque la creación y verificación de información sigue siendo una responsabilidad humana”.
“La inteligencia artificial debe ser una herramienta complementaria que apoye la labor periodística, pero sin reemplazarla, porque la veracidad y el rigor informativo son esenciales para proteger la libertad de prensa en la era digital”, concluyó Fuentes.