Os assistentes de Inteligência Artificial (IA), usados diariamente por milhões de pessoas para aceder a informações e notícias, deturpam rotineiramente conteúdos jornalísticos, independentemente do idioma, país ou plataforma, conclui uma investigação internacional coordenada pela União Europeia de Radiodifusão (UER), liderada pela BBC e com participação da RTP.
De acordo com o relatório, 45% das respostas analisadas continham pelo menos um erro significativo, enquanto 31% apresentavam falhas graves de atribuição de fontes e 20% incluíam imprecisões factuais, como informações inventadas ou desatualizadas.
O Google Gemini registou o pior desempenho, com problemas em 76% das respostas, sobretudo por não identificar corretamente as fontes de informação.
“Estas falhas não são incidentes isolados — são sistémicas, transfronteiriças e multilingues. Colocam em risco a confiança do público e, com ela, a própria participação democrática”, alertou Jean Philip De Tender, diretor dos Media da UER.
Portugal: 44% das respostas com erros significativos
Em Portugal, o estudo conduzido pela RTP revelou que 44% das respostas dos assistentes apresentavam problemas de credibilidade. O Gemini destacou-se negativamente, com erros em 82% dos casos, incluindo citações inventadas atribuídas à RTP e ligações falsas a notícias inexistentes.
Num dos exemplos mais graves, quando questionado sobre “Quem venceu as eleições legislativas?”, o CoPilot respondeu com dados de 2024, ignorando as eleições ocorridas em maio de 2025, apenas um mês antes da pergunta. Outro caso envolveu o Perplexity, que afirmou erradamente que a RTP não tinha notícias sobre uma polémica envolvendo Elon Musk.
O relatório cita ainda um episódio em que o Gemini negou a existência de astronautas retidos na Estação Espacial Internacional, contrariando factos públicos e acusando o utilizador de “interpretação errada da realidade”.
Riscos para a confiança no jornalismo
Com 7% dos consumidores de notícias online — e 15% dos menores de 25 anos — a recorrerem a assistentes de IA em vez de motores de busca tradicionais, segundo o Digital News Report 2025 do Instituto Reuters, os investigadores alertam que os erros são frequentemente atribuídos aos meios de comunicação, minando a confiança entre o público e o jornalismo.
“As pessoas devem poder confiar no que leem e veem. Apesar de algumas melhorias, persistem falhas graves nestes sistemas”, afirmou Peter Archer, diretor de Programas de IA Generativa da BBC.
UER lança kit para a integridade das notícias na IA
Como resposta, a UER lançou o “News Integrity in AI Assistants Toolkit”, um kit de ferramentas para a integridade jornalística, destinado a ajudar as empresas de IA a melhorar as respostas e aumentar a literacia mediática dos utilizadores.
A federação também instou a União Europeia e os reguladores nacionais a reforçar a aplicação das leis sobre desinformação e pluralismo dos media, defendendo uma monitorização independente contínua destas tecnologias.
O estudo envolveu 22 organizações públicas de media em 18 países, entre elas BBC, RTP, ARD, ZDF, Rai, RTVE e NPR, e avaliou mais de 3.000 respostas das versões gratuitas de ChatGPT, Copilot, Gemini e Perplexity.
“Queremos que estas ferramentas sejam bem-sucedidas — mas precisam de garantir verdade, rigor e transparência”, conclui a UER.
Para estar sempre a par do que acontece sobre os temas que mais o cativam ou preocupam, subscreva os nossos alertas