gsb.stanford.edu ha 6 dias MD Sandbox

Modelos de IA Populares Mostram Viés Partidário ao Serem Pedidos para Falar sobre Política

LLM IA Politica OpenAI

Conteudo

TLDR;

Usuários perceberam que vários LLMs populares tendem a um viés esquerdista, sendo os modelos da OpenAI os mais intensamente avaliados à esquerda, Google e DeepSeek próximos da neutralidade e os modelos da xAI percebidos como o segundo mais à esquerda. Os pesquisadores apresentaram 30 perguntas políticas a 24 LLMs de oito empresas e pediram a mais de 10.000 americanos que avaliassem o "slant" percebido nas respostas, incluindo testes com prompts neutros. Pedir aos modelos para adotarem um tom neutro gerou respostas que usuários acharam menos tendenciosas e mais confiáveis, e os autores recomendam usar avaliações de percepção regulares e ajustes de prompt ou variantes de modelos para mitigar o viés.

Resumo

Um novo estudo liderado por Andrew Hall (Stanford) com Sean Westwood e Justin Grimmer avaliou como usuários percebem o viés político de grandes modelos de linguagem (LLMs) ao usar “respostas ecologicamente validadas”: 30 perguntas políticas foram submetidas a 24 modelos de oito empresas e mais de 10.000 participantes nos EUA julgaram o viés das respostas. Para 18 das 30 questões, a maioria percebeu as respostas como tendendo à esquerda; republicanos notaram esse viés mais intensamente que democratas. Agregando por empresa, modelos da OpenAI foram vistos como mais à esquerda, Google como os menos tendenciosos, e xAI surpreendentemente em segundo lugar entre os mais percebidos como à esquerda. Exemplos como uma resposta da Alibaba sobre abolir a pena de morte — enfatizando perdão e justiça sem citar vítimas — ilustram por que usuários a classificaram como de esquerda. Os autores mostram que pedir tom neutro reduz a percepção de viés e aumenta confiança e qualidade percebida, com respostas neutras usando termos como “equilíbrio”, “complexo” e “consideração cuidadosa”. Mas mediar neutralidade é complexo: pode reforçar o status quo, confundir fatos e percepções, e não ser solução completa. Os pesquisadores sugerem que empresas avaliem continuamente percepções, criem modelos com diferentes visões e usem amostras ou AIs para monitorar mudanças normativas.