linkedin.com 21/03/2026 MD Sandbox

#inteligenciaartificial #llm #desenvolvimentodesoftware #produtividadetech | Mario Paglia | 10 comments

Claude Tecnologia LLM Produtividade

Conteudo

TLDR;

O consumo rápido de cota no Claude ocorre porque usuários aplicam o Opus para tarefas simples, usam automações excessivas com subagents e arquivos gigantes de contexto, além de prompts mal estruturados que geram retrabalho. O Sonnet resolve a maioria das demandas reais de desenvolvimento com qualidade absurda quando recebe bom contexto e especificação clara, atuando como um desenvolvedor sênior confiável e custo-eficiente. Para otimizar a cota, adote Sonnet como padrão para tarefas comuns, escale para Opus apenas em problemas complexos, mantenha subagents enxutos, reduza contexto global desnecessário e aprenda a criar prompts precisos.

Resumo

Mario Paglia, em post no LinkedIn, aborda reclamações comuns sobre o esgotamento rápido da cota de tokens no Claude AI, especialmente em planos Max 5x ou 20x. Ele explica que modelos como Sonnet 4.6 e Opus 4.6 consomem mais por raciocinarem e gerarem mais texto, mas o problema principal é o uso indiscriminado do Opus para tarefas simples, como implementações básicas, refatorações ou reviews de código. Recomenda tratar o Sonnet como um desenvolvedor sênior para demandas rotineiras – confiável e custo-eficiente – reservando o Opus para desafios complexos, como arquitetura pesada ou debug difícil. Outros vilões incluem automações com subagents excessivos, arquivos CLAUDE.md gigantes (mais de 200 linhas de contexto global) e prompts vagos que geram retrabalho, dobrando o consumo de tokens. A solução está na mudança de mentalidade: prompts bem estruturados, contextos enxutos e workflow otimizado, priorizando eficiência sobre poder bruto. Comentários reforçam a ideia, com Jair Fahl destacando a maturidade no uso em empresas, Paulo Jerônimo preferindo Codex e modelos locais em RTX 5090, Fernando Alves aplicando a não-desenvolvedores e Luiz Otávio questionando visões imaturas sobre IAs em beta. No fim, a otimização vem de aprender a usar melhor as ferramentas disponíveis. (198 palavras)

Post original: #inteligenciaartificial #llm #desenvolvimentodesoftware #produtividadetech | Mario Paglia | 10 comments