Linus Estabelece a Lei
Linus impõe sua autoridade em nova entrevista exclusiva.
Conteudo
TLDR;
Linus e a equipe definiram uma política para o uso de LLMs no desenvolvimento do kernel, exigindo compatibilidade de licenças e que humanos assumam a responsabilidade (IA só pode constar como "assisted-by", sem "Signed-off-by"). A medida surgiu após uma controvérsia em que um patch ligado ao uso de IA não foi declarado, causou uma regressão de desempenho e levantou dúvidas legais sobre copyright e revisão. Na prática, quem usar LLMs deve declarar a assistência com "assisted-by", não permitir que a IA subscreva o sign‑off, garantir compatibilidade de licenças e revisar/assumir integral responsabilidade pelo código.
Resumo
Um vídeo discute a controvérsia sobre uso de modelos de linguagem na contribuição para o kernel Linux: tudo começou com uma pequena alteração de 19 linhas que substituiu uma tabela de hash e removeu a flag read_mostly, provocando regressão de desempenho e reclamações; a situação inflamou quando Sasha Leven, em palestra e artigo, exemplificou ter usado LLMs e citou esse patch sem declarar a assistência da IA, o que gerou críticas de desenvolvedores que disseram que teriam revisado com mais rigor se soubessem. Além das preocupações técnicas, há dúvidas legais sobre direitos autorais e engenharia de “caixa limpa”, já que modelos podem ter código protegido em seus pesos; até grandes fornecedores, como a Microsoft, oferecem compromissos de defesa aos clientes do Copilot. Alguns revisores argumentaram que saber que um patch foi gerado por IA mudaria sua abordagem de revisão, enquanto outros contestam que a revisão deveria ser igualmente cuidadosa independentemente da origem. Após seis meses de debate, o projeto publicou diretrizes de “assistência de codificação por IA”: código deve respeitar licenças, agentes de IA não podem assinar o sign-off e apenas marcadores de “assisted-by” são permitidos, exigindo responsabilidade humana plena sobre o código submetido e mais esclarecimentos ainda são necessários.