Estudio revela que los chatbots de IA producen desinformación

Los chatbots de IA como ChatGPT y Copilot distorsionan las noticias y tienen dificultades para distinguir los hechos de las opiniones, según un estudio realizado por 22 emisoras públicas internacionales

0
107

Un nuevo e importante estudio realizado por 22 organizaciones de medios de servicio público, incluida DW, descubrió que cuatro de los asistentes de inteligencia artificial más utilizados tergiversan el contenido de las noticias un 45 % de las veces, independientemente del idioma o el territorio.

Periodistas de una serie de emisoras de servicio público, entre las que también se encontraban la  BBC (Reino Unido) y NPR (EE.UU), evaluaron las respuestas de cuatro asistentes de inteligencia artificial, o chatbots: ChatGPT, Copilot de Microsoft, Gemini de Google y Perplexity AI.

Al medir criterios como la precisión, la obtención de fuentes, el contexto, la capacidad de editar apropiadamente y de distinguir los hechos de las opiniones, el estudio reveló que casi la mitad de todas las respuestas tenían al menos un problema significativo, mientras que el 31 % contenía graves problemas de obtención de fuentes y el 20 % contenía errores fácticos importantes.

DW descubrió que el 53 % de las respuestas proporcionadas por los asistentes de IA a sus preguntas tenían problemas importantes y el 29 % experimentaba problemas específicos con la precisión.

Entre los errores fácticos cometidos en las respuestas a las preguntas de DW, Olaf Scholz, por ejemplo, fue mencionado como el «canciller alemán”, aunque Friedrich Merz ya era canciller desde hacía un mes. En otra respuesta se nombraba a Jens Stoltenberg como secretario general de la OTAN, a pesar de que Mark Rutte ya había asumido el cargo.

Los asistentes de IA han pasado a ser una forma cada vez más común de acceder a la información en todo el mundo. Según el Informe de Noticias Digitales 2025 del Instituto Reuters, el 7 % de los consumidores de noticias en línea utilizan chatbots de IA para informarse, cifra que asciende al 15 % en el caso de los menores de 25 años.

Los autores del estudio afirman que confirma que los asistentes de IA distorsionan sistemáticamente el contenido informativo de todo tipo.

«Esta investigación demuestra de forma concluyente que estas deficiencias no son incidentes aislados», declaró Jean Philip De Tender, subdirector general de la Unión Europea de Radiodifusión (UER, o EBU, por sus siglas en inglés), que fue cocoordinador del estudio.

«Las deficiencias son sistémicas, transfronterizas y multilingües, y creemos que esto pone en peligro la confianza pública. Cuando la gente no sabe en qué confiar, acaba por no confiar en nada, y eso puede deteriorar la participación democrática».

La emisora internacional alemana Deutsche Welle forma parte del nuevo estudio sobre inteligencia artificia

Un estudio sin precedentes

Se trata de uno de los mayores proyectos de investigación de este tipo hasta la fecha, y sigue a un estudio realizado por la BBC en febrero de 2025. Dicho estudio halló que más de la mitad de todas las respuestas de la IA que verificó tenían problemas relevantes, mientras una de cada cinco respuestas citando contenido de la BBC como fuente introducía errores factuales propios.

En el nuevo estudio, organizaciones de medios de 18 países y en múltiples grupos lingüísticos aplican la misma metodología que el estudio de la BBC, que investiga 3.000 respuestas de la IA.

Las organizaciones hicieron preguntas comunes sobre noticias a los cuatro asistentes de IA, como, por ejemplo: «¿Qué es el tratado de recursos minerales de Ucrania?”, o «¿Puede Trump presentarse como candidato presidencial por un tercer mandato?”.

Las respuestas fueron verificadas por periodistas, contrastándolas con sus propios conocimientos profesionales y fuentes, sin saber cuál de los asistentes las proporcionaba.

En comparación con el estudio de la BBC de hace ocho meses, los resultados muestran una ligera mejora, pero con un alto nivel de error aún evidente.

La British Broadcasting Corporation (BBC) presentó un estudio similar hace ocho meses

«Estamos entusiasmados con la IA y con cómo puede ayudarnos a aportar aún más valor a la audiencia», declaró Peter Archer, director de programación de IA generativa de la BBC. «Pero la gente debe poder confiar en lo que lee, ve y observa. A pesar de algunas mejoras, es evidente que estos asistentes aún presentan problemas importantes».

Gemini tuvo el peor rendimiento entre los cuatro chatbots, ya que un 72 % de sus respuestas revelaron problemas importantes en cuanto a las fuentes. En el estudio de la BBC, Copilot y Gemini de Microsoft fueron considerados los de peor rendimiento. Sin embargo, en ambos estudios, los cuatro asistentes de IA presentaron problemas.

En una declaración enviada a la BBC en febrero, un portavoz de OpenAI, desarrollador de ChatGPT, afirmó: «Apoyamos a editores y creadores ayudando a 300 millones de usuarios semanales de ChatGPT a descubrir contenido de calidad mediante resúmenes, citas, enlaces claros y atribución de fuentes”.

Investigadores llaman a la acción a los gobiernos y a las compañías de IA

Las emisoras y organizaciones de medios que llevaron a cabo el estudio están llamando a los gobiernos a tomar medidas al respecto. En un comunicado de prensa, la UER dijo que sus miembros «están presionando a los reguladores nacionales y de la Unión Europea para que hagan cumplir las leyes existentes sobre la integridad de la información, los servicios digitales y el pluralismo mediático”.

También subrayó que el monitoreo independiente de asistentes de IA debe ser una prioridad inmediata, ya que los nuevos modelos de IA están avanzando con gran rapidez.

Mientras tanto, la UER se ha unido a varios grupos internacionales de radiodifusión y medios de comunicación para establecer una campaña conjunta denominada «Facts In: Facts Out» (Datos que entran, datos que salen), que insta a las propias empresas de IA a asumir una mayor responsabilidad en la forma en que sus productos gestionan y redistribuyen las noticias.

En un comunicado, los organizadores de la campaña afirmaron: «Cuando estos sistemas distorsionan, atribuyen erróneamente o descontextualizan noticias fiables, minan la confianza pública».

«La exigencia de esta campaña es simple: si los datos entran, los datos deben salir. Las herramientas de IA no deben comprometer la integridad de las noticias que utilizan».

Con información de dw