3:27
youtube.com ha 14h SRT AI Coder TODAY

A nova ferramenta de IA da Anthropic é perigosa demais?

Nova ferramenta de IA da Anthropic pode ser perigosa demais?

Tecnologia Segurança Cibernética Claude Mythos Anthropic

Conteudo

TLDR;

A Anthropic considera o Mythos perigoso o bastante para restringir seu lançamento público porque ele pode encontrar e explorar vulnerabilidades em nível igual ou superior a especialistas humanos. O acesso ao Mythos está limitado ao Project Glasswing, que inclui empresas como AWS, Apple, Google, Microsoft, Nvidia e mais de 40 organizações que mantêm infraestrutura crítica. Apesar de ser projetado para defesa, há preocupação real de que atacantes possam usar capacidades semelhantes para explorar e coordenar ataques contra infraestruturas críticas, e a Anthropic admite que essas capacidades devem avançar ainda mais nos próximos meses.

Resumo

A Anthropic revelou que seu novo modelo de IA, Mythos, projetado para tarefas defensivas de cibersegurança, pode localizar e explorar vulnerabilidades de software com uma capacidade que se aproxima ou até supera especialistas humanos, encontrando falhas negligenciadas por décadas; isso gerou preocupação de que atacantes possam usar a mesma tecnologia para orquestrar ataques conjuntos a setores críticos — como energia, água e finanças — e causar danos inéditos. Para limitar riscos, a empresa colocou o sistema em um programa restrito, o Project Glasswing, que reúne grandes empresas como Amazon Web Services, Apple, Cisco, CrowdStrike, Google, JP Morgan Chase, Microsoft, Nvidia, Palo Alto Networks e mais de 40 organizações responsáveis por software crítico, com o objetivo de corrigir vulnerabilidades antes que sejam militarizadas. Pesquisadores e executivos alertam para a concentração de poder e a falta de transparência sobre quem tem acesso ao Mythos, bem como para a possibilidade de avanços rápidos além deste marco; a Anthropic afirma que capacidades de fronteira devem progredir substancialmente nos próximos meses. O CEO Dario Amodei sugeriu que estamos próximos de uma era em que “agentes” de IA em data centers poderiam ser mais capazes que humanos em muitas tarefas, sinalizando uma mudança potencialmente transformadora na corrida entre defensores e atacantes cibernéticos.