18:30
youtube.com ha 5 dias SRT AI Coder TODAY

Acordo entre a Anthropic AI e a SpaceX para data centers: 220.000 GPUs comprovam que a limitação ...

Acordo entre Anthropic AI e SpaceX redefine data centers com 220.000 GPUs.

SpaceX Tecnologia GPUs Anthropic

Conteudo

TLDR;

A Anthropic firmou um acordo com a SpaceX para acessar 220.000 GPUs em data centers, visando aumentar os limites de uso do Claude e aliviar restrições de compute.. As limitações de taxa no Claude surgiram devido à alta demanda por capacidade computacional, agravada pelo alto consumo de tokens em modelos de raciocínio e sistemas de agentes como o Claudebot.. As 220.000 GPUs comprovam que as limitações eram causadas por falta de compute, mas o narrador critica a arquitetura ineficiente, contextos enormes e muitos usuários gratuitos como fatores agravantes.

Resumo

O narrador expressa confusão entre o hype dos defensores da IA e a realidade prática, focando nos problemas da Anthropic com o Claude. Devido ao aumento de usuários, a empresa impôs limites de taxa (rate limiting) por escassez de computação e GPUs, agravada por sistemas como o Claudebot e "harnesses" que consumiam tokens excessivos, levando à proibição deles. Modelos de raciocínio, como o GPTOSS testado localmente em um PC AMD de 4GHz e 32GB RAM, queimam muito mais tokens (2-3 mil por query, contra 400-500 antes), pois incluem etapas de análise, planejamento e verificação, sem melhorar necessariamente as respostas. Ele critica a arquitetura ineficiente: janelas de contexto explodiram de 4 mil para 1 milhão de tokens, tornando obsoleto o RAG (Retrieval-Augmented Generation), mas isso só aumenta o consumo. Muitos usuários gratuitos (possivelmente 60%) contribuem para a restrição, enquanto pagantes enfrentam limites. A parceria com SpaceX para 220 mil GPUs é vista com ceticismo, ecoando debates do podcast All-In sobre o boom da IA versus bolhas passadas. No geral, o problema é arquitetural ruim, não demanda genuína. (198 palavras)