A IA, cujos problemas, pelo contrário, podem ser largamente maiores, como pode rever aqui, (ou nos links em baixo), não se limitam à credibilidade da informação recolhida, como é sabido, não produz informação, recolhe informação pré-existente na internet e ali há de tudo, desde informação científica validada pelas mais credíveis universidades de todo o mundo, às teorias da conspiração mais bizarras...

E as ferramentas de IA, explicado de forma simples, recorrem a toda essa informação por igual, embora os sistemas mais apurados tenham capacidade para considerar as advertências existentes sobre o que é factual e irreal, mas não sem falhas que, por vezes, podem ser graves.

Esta questão assume especial relevância no jornalismo, onde, por vezes, alguns profissionais recorrem à IA para obter informação e, em cada vez mais situações, para a escrita dos textos de forma a contornar debilidades no manuseio da língua.

Mas, como se pode ler numa notícia da Lusa, o problema é que os assistentes de IA como o ChatGPT cometem erros em quase metade das vezes quando questionados sobre assuntos actuais, aponta o estudo da UER divulgado esta semana.

No geral, avança a mesma notícia, 45% das respostas apresentavam "pelo menos um problema significativo", independentemente do idioma ou do território, enquanto 31% das respostas mostraram problemas relativos a fontes e 20% continham grandes problemas de precisão, com informações obsoletas ou mesmo "detalhes inventados".

Dos quatro modelos de IA analisados, o Gemini teve os piores resultados, uma vez que foram detectados "problemas significativos" em três quartos das suas respostas, "mais do dobro dos outros assistentes", principalmente devido ao seu fraco desempenho na citação correcta de fontes. A realização deste estudo envolveu 22 meios de comunicação públicos de 18 países, incluindo 14 idiomas.

Desta forma, os autores do estudo identificam a importância de avaliar criticamente as respostas dos assistentes de IA, sobretudo quando se trata de fontes jornalísticas que carecem de representação rigorosa e verificável.

Entre o final de maio e o início de junho, cada meio de comunicação participante fez as mesmas perguntas de actualidade aos assistentes de IA, pedindo-lhes que procurassem as respostas nos seus conteúdos. Entre as 3.000 respostas, as informações desactualizadas foram um dos problemas mais frequentes.

Por exemplo, em Portugal, quando questionados, em junho, sobre "Quem venceu nas eleições legislativas?", o assistente Copilot errou na resposta, citando o resultado das eleições de 2024 e não as que ocorreram em maio de 2025, uma semana antes da pergunta ser feita.

Neste sentido, "os assistentes de IA ainda não são uma forma fiável de consumir informação", apesar de serem cada vez mais utilizados por pessoas para procurar informação, especialmente pelos jovens. Um relatório global publicado em junho pelo Instituto Reuters revelou que 15% dos menores de 25 anos utilizava modelos de IA semanalmente para obter resumos de notícias.

Este teste incidiu sobre quatro assistentes de IA amplamente utilizados em todo o mundo para obter informação, o ChatGPT, Copilot, Gemini e Perplexity.