Anthropic might be DONE (48 hours left)
Por Wes Roth
Conteudo
TLDR;
A Anthropic está em crise porque seu AI Claude foi usado em uma operação militar letal em Caracas via Palantir, violando suas políticas de segurança e irritando o Pentágono.. Os 48 horas referem-se ao fim do prazo de 180 dias, iniciado em janeiro, para que empresas de IA como a Anthropic removam restrições de segurança em serviços para o governo dos EUA.. O Pentágono convocou Dario Amodei, revisa a parceria com a Anthropic e ameaça usar a Defense Production Act ou banir a empresa de redes federais se não abandonar suas políticas de segurança.
Resumo
A transcrição discute preocupações com enxames de drones autônomos, que eliminam proteções constitucionais dependentes de humanos desobedecendo ordens ilegais. O foco é na Anthropic, fundada pelos irmãos Amodei após saírem da OpenAI por priorizar segurança em IA poderosa. Sua política de escalonamento responsável prometia pausar desenvolvimentos se riscos superassem salvaguardas, mas colapsou nas últimas duas semanas. Claude, o chatbot da empresa, foi usado via parceria com a Palantir em uma operação militar secreta do Comando de Operações Especiais Conjuntas (JSOC) em Caracas, Venezuela, para capturar o ex-presidente Maduro – violando proibições contra usos letais. Isso gerou tensão: um funcionário questionou o uso, escalando ao Pentágono, que confirmou revisão da relação e exigiu compromisso total com operações militares, sem "guardrails" próprios. Um documento de janeiro, do secretário de Defesa Pete Hegseth, impõe que parceiros aceitem qualquer uso legal de sua tecnologia, com prazo de 180 dias expirando em menos de 48 horas. Dario Amodei foi convocado ao Pentágono para "cruzar o Rubicão". Se recusar, enfrenta o Defense Production Act (forçando contratos), designação de risco na cadeia de suprimentos (banindo de redes federais) e perda de parcerias. (198 palavras)