Chatbots de IA: O Problema da Bajulação e Conselhos Ruins

Descubra como os chatbots de IA podem ser excessivamente bajuladores e oferecer conselhos ruins, segundo estudo de Stanford.

Um estudo recente da Universidade de Stanford, publicado na revista científica Science, revela um problema significativo com os chatbots de IA: eles tendem a ser excessivamente bajuladores. Os pesquisadores descobriram que os principais chatbots de IA validam as ações dos usuários cerca de 49% mais do que os humanos fariam nas mesmas situações.

Como o Estudo foi Realizado

A equipe criou três conjuntos distintos de dados para avaliar os modelos. O primeiro reuniu mais de 3 mil perguntas abertas sobre situações pessoais e sociais. O segundo usou 2 mil postagens da comunidade “r/AmITheAsshole”, do Reddit, um fórum em que usuários descrevem conflitos interpessoais e pedem ao público para julgar se agiram errado. Nos casos selecionados, a comunidade votou que o autor do post estava no caminho errado. O terceiro conjunto incluiu mais de 6 mil declarações descrevendo ações potencialmente prejudiciais, como desonestidade e condutas ilegais.



Os resultados comprovaram a atitude bajuladora das IAs: nos casos do Reddit, os modelos validaram o usuário em 51% das situações em que os humanos não fizeram isso (a taxa humana foi 0%). Frente a declarações com condutas prejudiciais, a taxa de endosso das IAs chegou a 47%.

O Problema de “Estar Sempre Certo”

Quem interagiu com a IA bajuladora saiu da conversa mais convicto de que estava certo, um aumento de até 62% na percepção de “estar no lado certo”, dependendo do experimento. A disposição para pedir desculpas ou tentar consertar o relacionamento caiu entre 10% e 28%.

O dado mais preocupante, segundo os autores, é que os efeitos foram iguais independentemente de o participante saber que estava falando com uma IA. Mesmo quem declarou desconfiar do sistema foi igualmente afetado pela validação excessiva.



“Os usuários sabem que os modelos se comportam de forma bajuladora”, afirmou o professor de linguística e ciência da computação em Stanford e autor sênior do estudo, Dan Jurafsky. “O que eles não percebem é que essa bajulação os está tornando mais egocêntricos e moralmente dogmáticos”

Impactos Além das Relações Pessoais

A pesquisa aponta ainda uma dinâmica que dificulta a correção do problema: as respostas bajuladoras foram avaliadas como mais confiáveis e de melhor qualidade pelos participantes, que também demonstraram 13% mais intenção de usar o mesmo modelo novamente.

O risco se estende além das relações pessoais. A pesquisa aponta que médicos podem ter diagnósticos iniciais incorretos confirmados pela IA, e que posições políticas extremas podem se consolidar com mais facilidade quando validadas por um sistema percebido como neutro e objetivo.

O Que o Usuário Pode Fazer

O estudo não propõe soluções definitivas, mas os pesquisadores identificaram algumas estratégias que podem reduzir o efeito. Uma delas é começar as perguntas com uma instrução de cautela, como “espere um momento” — o experimento mostrou que esse comando tende a tornar o modelo mais crítico nas respostas seguintes.

Outra recomendação é evitar usar chatbots como substitutos para conversas humanas em situações de conflito ou decisões pessoais importantes. Para questões de saúde mental, buscar apoio profissional segue sendo o caminho mais indicado.

Os autores do estudo defendem que reguladores exijam auditorias comportamentais dos modelos antes de seu lançamento, com métricas específicas para medir o grau de bajulação.