La posibilidad de que la IA produzca artículos periodísticos preocupa a los expertos
Expertos en contenidos digitales han expresado su preocupación porque las herramientas de inteligencia artificial puedan difundir propaganda y desinformación. El mundo de las noticias es uno de los más vulnerables, consideran los analistas.
El trabajo de Google en el desarrollo de una herramienta de inteligencia artificial capaz de producir artículos de noticias preocupa a algunos expertos digitales, quienes dicen que dichos dispositivos corren el riesgo de difundir propaganda o, incluso, poner en peligro a las fueentes sin darse cuenta.
El diario The New York Times informó la semana pasada que Google está probando un nuevo producto, conocido internamente por el título provisional Génesis, que emplea inteligencia artificial (IA), para producir artículos de noticias.
Genesis puede tomar información, como detalles sobre eventos actuales, y crear contenido noticioso, informó el Times. Google ya ha presentado el producto al Times y otras organizaciones, como The Washington Post y News Corp, propietaria de The Wall Street Journal.
El lanzamiento del chatbot de IA generativa ChatGPT el otoño pasado ha provocado un debate sobre cómo la inteligencia artificial puede y debe encajar en el mundo, incluso en la industria de las noticias.
Las herramientas de IA pueden ayudar a los reporteros en sus pesquisas, analizando datos rápidamente y extrayéndolos de archivos PDF en un proceso conocido como raspado. AI también puede ayudar a los periodistas a verificar las fuentes.
Pero la aprensión, incluida la posibilidad de difundir propaganda o ignorar los matices que los humanos aportan a los informes, parece tener más peso. Estas preocupaciones se extienden más allá de la herramienta Génesis de Google para encapsular el uso de la IA en la recopilación de noticias de manera más amplia.
Si los artículos producidos por IA no se revisan cuidadosamente, podrían incluir sin darse cuenta desinformación o información errónea, según John Scott-Railton, quien investiga la desinformación en Citizen Lab en Toronto.
“Es una lástima que los lugares donde la IA tiene menos fricciones para raspar y extraer (contenido que no es de pago) son los lugares donde la desinformación y la propaganda son el objetivo”, dijo Scott-Railton a la Voz de América. “Sacar a la gente del círculo no hace que sea más fácil detectar la desinformación”.
Paul Barrett, subdirector del Centro Stern para Empresas y Derechos Humanos de la Universidad de Nueva York, está de acuerdo en que la inteligencia artificial puede potenciar la difusión de falsedades.
“Va a ser más fácil generar mitos y desinformación”, dijo a la VOA. “Creo que la oferta de contenido engañoso va a aumentar”.
En una declaración enviada por correo electrónico a la VOA, un portavoz de Google dijo: «En asociación con los editores de noticias, especialmente los editores más pequeños, estamos en las primeras etapas de exploración de ideas para proporcionar potencialmente herramientas habilitadas para IA para ayudar a sus periodistas con su trabajo».
“Nuestro objetivo es brindarles a los periodistas la opción de usar estas tecnologías emergentes de una manera que mejore su trabajo y productividad”, dijo el vocero. “Simplemente, estas herramientas no están destinadas a reemplazar, y no pueden reemplazar, el papel esencial que tienen los periodistas para informar, crear y verificar sus artículos”.
Las implicaciones para la credibilidad de un medio de comunicación son otra consideración importante con respecto al uso de la inteligencia artificial.
Los medios de comunicación actualmente están luchando con una crisis de credibilidad. La mitad de los estadounidenses cree que los medios de comunicación nacionales intentan engañar o desinformar a las audiencias a través de sus informes, según un informe de febrero de Gallup y la Fundación Knight.
“Me sorprende que alguien piense que la solución a este problema es introducir una herramienta mucho menos creíble, con un dominio de los hechos mucho más inestable, en las salas de redacción”, dijo Scott-Railton, quien anteriormente fue miembro de Google Ideas.
Los informes muestran que los chatbots de IA generan regularmente respuestas totalmente incorrectas o inventadas. Los investigadores de IA se refieren a este hábito como una «alucinación».
Los expertos digitales también son cautelosos acerca de los riesgos de seguridad que se pueden presentar al usar herramientas de inteligencia artificial para producir artículos de noticias. Las fuentes anónimas, por ejemplo, podrían enfrentar represalias si se revelan sus identidades.
“Todos los usuarios de sistemas impulsados por IA deben ser muy conscientes de qué información están proporcionando al sistema”, dijo Barrett.
“El periodista tendría que ser cauteloso al revelar a estos sistemas de inteligencia artificial información como la identidad de una fuente confidencial o, yo diría, incluso información que el periodista quiere asegurarse de que no se haga pública”, dijo.
Scott-Railton dijo que cree que la IA probablemente tenga futuro en la mayoría de las industrias, pero es importante no apresurar el proceso, especialmente en las noticias.
“Lo que me asusta es que las lecciones aprendidas en este caso se obtendrán a costa de una reputación bien ganada, a costa de la exactitud de los hechos cuando realmente cuenta”, aseveró.
Fuente: VoA Noticias