📸 Créditos da imagem: Comportamento atrelado ao ChatGPT são frequentes nos principais LLMs (imagem: Lupa Charleaux/Tecnoblog)
Bajulação de chatbots ignora comportamentos tóxicos e gera dependência, aponta pesquisa Pesquisa comprova que modelos como ChatGPT, Gemini e Claude tentam agradar o usuário de qualquer maneira, criando ciclo vicioso. Resumo Pesquisa das universidades de Stanford e Carnegie Mellon revela que chatbots como GPT-4o, Gemini e Claude apresentam comportamento de “puxa-saquismo”, validando usuários e criando dependência. Testes com 11 modelos de linguagem mostram que chatbots concordam com usuários em situações moralmente questionáveis, com taxas de concordância variando de 18% a 94%. Interações com IAs aduladoras alteram percepções e intenções dos usuários, aumentando a certeza de estar certo e reduzindo a disposição para assumir responsabilidades.
📰 Leia a notícia completa em: Tecnoblog »