En la era digital, resumir las noticias con inteligencia artificial (IA) se esta convirtiendo en una herramienta popular, que ayuda a los usuarios a acceder a la informacion mas rapido entre el mar de noticias de cada dia.
Muchas grandes corporaciones tecnologicas han integrado la IA en herramientas de busqueda y plataformas de lectura de noticias, proporcionando resumenes breves en lugar de acceso directo al articulo original.
Sin embargo, los expertos advierten que este enfoque no solo no elimina la situacion de informar de manera poco objetiva, sino que tambien plantea muchos riesgos tanto para los lectores como para la prensa.
A principios de este año, The Guardian publico un estudio que muestra que reemplazar los resultados de busqueda con resumenes creados por la IA puede tener un impacto devastador en los medios de comunicacion en linea.
Segun este estudio, el acceso a los sitios de noticias ha disminuido hasta en un 80% cuando los usuarios solo leen un resumen de la IA sin hacer clic en el origen del articulo.
Esto no solo afecta los ingresos de la prensa, sino que tambien debilita el papel de las redacciones en la provision de informacion completa y verificada.
Mas importante aun, los expertos en medios creen que los resumenes creados por la IA no pueden garantizar la precision y la neutralidad.
En una entrevista reciente en el programa No Spin News, Tim Graham, Director de Analisis de Comunicacion en el Centro de Estudios de Comunicacion (EE. UU.), comento que ya sean Grok, ChatGPT o Gemini, las plataformas de IA tienen un problema comun: dependen de la fuente de datos de entrada que ya puede ser parcial.
Cuando la IA considera que estas fuentes son fiables, el favoritismo se recrea y amplifica en el resumen.
Los prejuicios mediaticos son un fenomeno comun, que surge de los puntos de vista personales, los intereses economicos o la orientacion editorial de cada agencia de prensa.
Segun Mrinal Chatterjee, profesor del Instituto de Comunicacion Publica de la India, la IA actualmente no es lo suficientemente capaz de filtrar estos prejuicios.
La inteligencia artificial carece de la comprension comun y el contexto social para identificar que es parcial y que es informacion equilibrada. La integracion del mecanismo de filtracion de prejuicios en la IA llevara mucho tiempo", dijo Mrinal Chatterjee.
La Dra. Chatterjee tambien enfatizo que la responsabilidad final sigue siendo humana. Los lectores necesitan utilizar el conocimiento, la experiencia y el pensamiento critico para autoevaluar la informacion.
Segun el, el favoritismo en los medios puede deberse a dos razones: estar intencionalmente influenciado o errores profesionales. No todas las agencias de prensa son parciales, pero esta posibilidad siempre existe.
Para limitar los riesgos, los lectores pueden utilizar herramientas de analisis de prejuicios mediaticos como AllSides, que es una plataforma que proporciona una evaluacion de las tendencias politicas y el nivel de desviacion de muchas agencias de noticias en el mundo.
Recientemente, la Casa Blanca tambien lanzo un portal de informacion para monitorear el favoritismo de los medios de comunicacion en Estados Unidos, publicando casos de noticias falsas y listas de unidades reincidentes.
Los expertos creen que la IA puede ser una herramienta para ayudar a leer noticias rapidamente, pero no puede reemplazar por completo el acceso al origen de los articulos y el pensamiento critico de las personas.
En un contexto de informacion cada vez mas compleja, la capacidad de analisis independiente sigue siendo el "escudo" mas importante para ayudar al publico a evitar ser guiado por el favoritismo mediatico.