17:46
youtube.com ha 6 dias SRT AI Coder TODAY

Andrej Karpathy simplesmente multiplicou por 10 o Código Claude de todos

Andrej Karpathy multiplica por 10 o Código Claude de todos

Claude Tecnologia Obsidian Andrej Karpathy

Conteudo

TLDR;

Andrej Karpathy postou um método para usar LLMs com Cloud Code e Obsidian que automaticamente ingere transcrições e documentos, monta um wiki de conhecimento e cria backlinks e relações entre os nós. É fácil de reproduzir: segundo o vídeo dá para configurar em cerca de cinco minutos com uma pasta de arquivos Markdown, Cloud Code para ingestão e Obsidian como interface, sem infraestrutura complexa. O principal benefício é tornar o conhecimento persistente e cumulativo, permitindo consultas muito mais eficientes, identificação de lacunas para pesquisa e redução drástica do uso de tokens (ex.: 95% em um caso).

Resumo

O vídeo explica como transformar transcrições de vídeos do YouTube em um sistema de conhecimento organizável e consultável usando LLMs (como Claude/Cloud Code) e um editor como Obsidian. Em minutos o LLM ingere arquivos brutos, cria páginas em markdown, indexa conteúdos, registra um log de operações e estabelece backlinks e relações entre ferramentas, técnicas (por exemplo WAT framework), conceitos e fontes, gerando um “wiki” consultável que funciona como um segundo cérebro pessoal ou um sistema específico para YouTube. Essa abordagem torna o conhecimento persistente e cumulativo — ao contrário de conversas efêmeras com chatbots — e permite identificar lacunas, automatizar pesquisas para preenchê‑las e reduzir drasticamente o consumo de tokens em consultas. O processo é simples: uma pasta com markdown (raw, wiki, índice e log) serve de base; o LLM organiza e sumariza documentos, produz índices e facilita Q&A mais eficiente. A ideia de Andrej Karpathy viralizou e foi intencionalmente deixada vaga para customizações; isso sugere um novo paradigma para softwares e agentes AI em que um prompt de alto nível faz o agente construir a infraestrutura necessária. O resultado é economia, escalabilidade e um assistente que "lembra" e integra conhecimento ao longo do tempo de forma contínua e confiável.