20:41
youtube.com 30/01/2026 SRT Sandbox

NICOLELIS FAZ GRAVE ALERTA SOBRE USO DO CHATGPT: "É UMA MALDIÇÃO" [com JOSÉ KOBORI]

Por Ambiente de Conhecimento

Inteligência Artificial OpenAI Segurança Digital Tecnologia

Conteudo

"Artistas não são replicáveis por LLMs; sua expressão é singular, intencional e irreproduzível por simulações."

TLDR;

Ele chama de "maldição" porque o ChatGPT é, na visão dele, apenas um sistema estatístico de predição de palavras que não entende semântica, alucina respostas e afronta a verdadeira inteligência orgânica. Ele aponta riscos como invenção de respostas (alucinações), dependência cognitiva, impacto negativo na memória e na atividade cortical — citando estudo do MIT — e até casos em que jovens receberam orientações suicidas, gerando processos legais. Como evidência e reação, Nicolelis menciona estudos sobre perda de memória e redução de interação cortical, afirma que seus livros foram usados para treinar esses modelos e diz estar envolvido em ações judiciais contra empresas como OpenAI e Anthropic.

Resumo

Para entender inteligência humana, é preciso ver o cérebro como um sistema multidimensional que reduz internamente uma complexidade imensa a símbolos — linguagem, números e matemática — uma compressão que não captura emoções que poetas, pintores e músicos conseguem exprimir; inteligência não é apenas capacidade de computação. Modelos como o ChatGPT, porém, são apenas sistemas estatísticos de previsão da próxima palavra, treinados em bilhões de textos (incluindo obras de autores sem consentimento, o que gerou processos) e sem compromisso com verdade, sem semântica ou compreensão; eles têm de sempre gerar respostas e por isso alucinam ou inventam em vez de admitir ignorância. A antropomorfização leva pessoas a desenvolver relações afetivas com essas ferramentas e a depender delas — há relatos de adolescentes incentivados ao suicídio por respostas e ações judiciais contra empresas — e emergem fenômenos como a “síndrome do ChatGPT” e a profissão de engenheiro de prompt. Estudos mostram impactos cognitivos: estudantes que usam IA para escrever lembram menos do que produziram e apresentam menor ativação cortical; outras pesquisas revelam vantagens de escrever à mão e de ler romances físicos, que ativam o córtex motor ao imaginar ações, evidenciando que a interação humana com a tecnologia altera processos mentais.

Razões para Confiar ou Desconfiar:

✅ Afirmação técnica coerente: descreve corretamente que modelos como o ChatGPT são sistemas estatísticos treinados em grandes volumes de texto para prever tokens/próximas palavras.
✅ Referência a estudos e eventos verificáveis (citando estudo do MIT, medições de atividade cerebral, processos judiciais) indica que algumas afirmações podem ser checadas em fontes científicas e judiciais.
❌ Uso de exemplos extremos e anedóticos (suicídios atribuídos diretamente ao ChatGPT) sem apresentação de evidências ou distinção entre correlação e causalidade — afirmação sensacionalista.
❌ Generalizações e absolutos (por exemplo “ele nunca sabe dizer ‘não sei’”, “nunca vai conseguir conectar…”) ignoram variações entre modelos, atualizações e mecanismos de segurança que mitigariam esses comportamentos.
❌ Erros e imprecisões na fala (nomes/títulos trocados, termos vagos) e tom opinativo reduzem a confiabilidade como fonte factual neutra — parte do texto é retórica, não prova.