Estudo da EBU e BBC Expõe Falhas Críticas da Inteligência Artificial em Notícias
A European Broadcasting Union (EBU) e a BBC conduziram um estudo recente que revelou preocupantes erros em assistentes de Inteligência Artificial ao lidar com notícias. O Google Gemini liderou o ranking negativo, com 76% das respostas contendo erros graves de fato ou de fonte. Para comparação, Microsoft Copilot, ChatGPT e Perplexity apresentaram taxas de erro de 37%, 36% e 30%, respectivamente.
Erros Comuns e Impacto na Confiança Pública
Os problemas mais recorrentes incluem confusão entre fontes, informações desatualizadas e a mistura de opiniões com fatos. Essa situação é especialmente alarmante, já que assistentes de IA estão cada vez mais usados como alternativa a motores de busca e resumos de notícias. O estudo constatou que 45% das respostas geradas por IA continham pelo menos um erro significativo. Além disso, 84% dos entrevistados afirmaram que erros factuais prejudicariam sua confiança na tecnologia, enquanto 76% destacaram a importância da correta citação de fontes.
Perfil dos Usuários e Riscos para a Juventude
Um dado preocupante surgiu da análise dos perfis de usuários: jovens com menos de 25 anos são os principais consumidores de resumos gerados por IA. Essa tendência aumenta o risco de disseminação de informações imprecisas, já que essa faixa etária tende a confiar mais nas respostas automatizadas sem verificar outras fontes.
Responsabilidade: Quem Deve Responder pelos Erros?
Diante das falhas, a sociedade debateu quem deve assumir a responsabilidade. Segundo o estudo, 36% dos adultos no Reino Unido culpam os desenvolvedores de IA por não garantirem a precisão, enquanto 31% apontam para governos e reguladores como responsáveis por estabelecer normas. Paralelamente, 35% defenderam que veículos de imprensa citados também devem ser responsabilizados, mesmo que o erro tenha surgido no resumo automatizado.
Conclusão: Crítica e Escolha por Fontes Confáveis
Apesar da conveniência oferecida por inteligência artificial em notícias, o estudo reforça que essas ferramentas não substituem fontes jornalísticas confiáveis. Diante de taxas de erro significativas, especialmente em modelos como o Google Gemini, é essencial que os usuários adotem uma postura crítica. Verificar múltiplas fontes e questionar as informações geradas por IA são práticas indispensáveis para evitar a disseminação de desinformação.
