Anthropic hands Claude Code more control, but keeps it on a leash
Conteudo
TLDR;
O título indica que a Anthropic deu mais autonomia ao Claude Code, mas com limites e proteções para evitar ações arriscadas.. A mudança principal é o “auto mode”, que permite ao sistema executar tarefas sozinho quando elas forem consideradas seguras.. O recurso ainda está em prévia de pesquisa, roda só em alguns modelos e é recomendado para ambientes isolados, como sandbox, para reduzir riscos.
Resumo
A Anthropic lançou o “auto mode” no Claude Code, uma nova função em prévia de pesquisa que dá mais autonomia à IA para executar tarefas de programação sem depender de aprovação humana a cada passo, mas com uma camada de segurança para bloquear ações arriscadas. A proposta busca resolver um dilema crescente no uso de ferramentas de “vibe coding”: se houver muitas restrições, o trabalho fica lento; se houver poucas, o sistema pode agir de forma perigosa ou imprevisível. Nesse modo, o Claude analisa cada ação antes de executá-la, verificando comportamentos não solicitados pelo usuário e possíveis ataques de “prompt injection”, em que instruções maliciosas escondidas em conteúdos manipulados fazem a IA agir errado. Ações consideradas seguras seguem automaticamente, enquanto as suspeitas são bloqueadas. O recurso amplia o comando já existente “dangerously-skip-permissions”, mas adiciona uma proteção extra. A novidade acompanha a tendência do setor, com empresas como GitHub e OpenAI investindo em ferramentas autônomas, e também se conecta a outras iniciativas da Anthropic, como o Code Review e o Dispatch for Cowork. O auto mode será liberado para usuários Enterprise e de API nos próximos dias, funciona apenas com Claude Sonnet 4.6 e Opus 4.6, e a empresa recomenda seu uso em ambientes isolados, como sandboxes.