Inteligência Artificial em Notícias: Estudo Revela Altas Taxas de Erros e Confusão entre Fato e Opinião

Estudo da EBU e BBC revela altas taxas de erro na Inteligência Artificial em Notícias. Confira como assistentes como Google Gemini confundem fato com opinião e afetam a confiança do público.

Estudo da EBU e BBC Expõe Falhas Críticas da Inteligência Artificial em Notícias

A European Broadcasting Union (EBU) e a BBC conduziram um estudo recente que revelou preocupantes erros em assistentes de Inteligência Artificial ao lidar com notícias. O Google Gemini liderou o ranking negativo, com 76% das respostas contendo erros graves de fato ou de fonte. Para comparação, Microsoft Copilot, ChatGPT e Perplexity apresentaram taxas de erro de 37%, 36% e 30%, respectivamente.

Erros Comuns e Impacto na Confiança Pública

Os problemas mais recorrentes incluem confusão entre fontes, informações desatualizadas e a mistura de opiniões com fatos. Essa situação é especialmente alarmante, já que assistentes de IA estão cada vez mais usados como alternativa a motores de busca e resumos de notícias. O estudo constatou que 45% das respostas geradas por IA continham pelo menos um erro significativo. Além disso, 84% dos entrevistados afirmaram que erros factuais prejudicariam sua confiança na tecnologia, enquanto 76% destacaram a importância da correta citação de fontes.



Perfil dos Usuários e Riscos para a Juventude

Um dado preocupante surgiu da análise dos perfis de usuários: jovens com menos de 25 anos são os principais consumidores de resumos gerados por IA. Essa tendência aumenta o risco de disseminação de informações imprecisas, já que essa faixa etária tende a confiar mais nas respostas automatizadas sem verificar outras fontes.

Responsabilidade: Quem Deve Responder pelos Erros?

Diante das falhas, a sociedade debateu quem deve assumir a responsabilidade. Segundo o estudo, 36% dos adultos no Reino Unido culpam os desenvolvedores de IA por não garantirem a precisão, enquanto 31% apontam para governos e reguladores como responsáveis por estabelecer normas. Paralelamente, 35% defenderam que veículos de imprensa citados também devem ser responsabilizados, mesmo que o erro tenha surgido no resumo automatizado.

Conclusão: Crítica e Escolha por Fontes Confáveis

Apesar da conveniência oferecida por inteligência artificial em notícias, o estudo reforça que essas ferramentas não substituem fontes jornalísticas confiáveis. Diante de taxas de erro significativas, especialmente em modelos como o Google Gemini, é essencial que os usuários adotem uma postura crítica. Verificar múltiplas fontes e questionar as informações geradas por IA são práticas indispensáveis para evitar a disseminação de desinformação.