LLMs Can't Create World Models, They Just Summarize World Models Created By Others: Turing Award Winner Judea Pearl
Conteudo
TLDR;
Judea Pearl argumenta que os LLMs possuem limitações matemáticas intransponíveis por escalonamento, resumindo modelos do mundo criados por humanos na web em vez de descobri-los diretamente dos dados.. Pearl exemplifica com dados médicos, onde os LLMs processam interpretações humanas de tratamentos e doenças, não os dados brutos dos hospitais.. Outros pesquisadores como Yann LeCun, David Deutsch, Richard Sutton e Fei-Fei Li compartilham o ceticismo, afirmando que LLMs carecem de compreensão causal e interação real com o mundo para alcançar AGI.
Resumo
Cada vez mais pesquisadores seniores em IA, como o vencedor do Prêmio Turing de 2011 Judea Pearl, pioneiro em raciocínio probabilístico e inferência causal, afirmam que os grandes modelos de linguagem (LLMs) não levam à inteligência artificial geral (AGI). Pearl argumenta que os LLMs enfrentam limitações matemáticas fundamentais, impossíveis de superar apenas com escalonamento, pois não descobrem modelos do mundo a partir de dados brutos: eles apenas resumem modelos já criados por humanos e publicados na web. Em uma explicação clara, ele exemplifica no campo médico: dados de hospitais sobre tratamentos não são processados diretamente pelos LLMs; em vez disso, eles se baseiam em interpretações de médicos que já construíram modelos causais sobre doenças e intervenções. Essa distância da realidade — processando interpretações humanas, não observações primárias — é crucial. Suas críticas ecoam em outros luminares: Yann LeCun, da Meta, chama LLMs de meros "geradores de tokens" sem compreensão do mundo físico; David Deutsch diz que não apontam para AGI; Richard Sutton reconhece limitações em aprendizado interativo; e Fei-Fei Li destaca a falta de experiência incorporada e causalidade. A relevância de Pearl reside em sua base matemática na inferência causal, afirmando que nenhum volume de dados ou parâmetros transformará LLMs em sistemas de raciocínio causal genuíno — são apenas resumidores sofisticados de conteúdo humano, úteis, mas limitados para AGI verdadeira. (198 palavras)