techcrunch.com 12/02/2026 MD Sandbox

Uma nova versão do Codex da OpenAI é alimentada por um novo chip dedicado.

Inteligência Artificial Codex Tecnologia Semicondutores

Conteudo

TLDR;

A nova versão leve do Codex é o GPT-5.3-Codex-Spark, projetada para inferência mais rápida e alimentada pelo chip Wafer Scale Engine 3 da Cerebras.. O chip dedicado é o Wafer Scale Engine 3 (WSE-3) da Cerebras, com 4 trilhões de transistores, marcando o primeiro marco da parceria de mais de 10 bilhões de dólares entre OpenAI e a empresa.. Spark está em preview de pesquisa para usuários do ChatGPT Pro no app Codex, focada em colaboração em tempo real, iteração rápida e prototipagem diária, com baixa latência.

Resumo

A OpenAI anunciou na quinta-feira o lançamento do GPT-5.3-Codex-Spark, uma versão leve e otimizada do seu agente de codificação Codex, lançado no início do mês. Projetado para inferência mais rápida, o modelo é alimentado pelo chip Wafer Scale Engine 3 (WSE-3) da Cerebras, com 4 trilhões de transistores, marcando o primeiro marco da parceria entre as empresas, firmada no mês passado por mais de US$ 10 bilhões. O Spark foca em colaboração em tempo real, iterações rápidas e prototipagem diária, diferentemente do Codex original, voltado para tarefas mais pesadas. Disponível em preview de pesquisa para usuários do ChatGPT Pro no app Codex, ele promete baixa latência para fluxos de trabalho ágeis. O CEO Sam Altman deu uma pista no X (ex-Twitter), dizendo que "acende alegria" nele. A OpenAI destaca o Spark como passo inicial para um Codex com modos complementares: real-time para iterações velozes e longo prazo para raciocínio profundo. A Cerebras, com mais de uma década de história, captou US$ 1 bilhão recentemente a uma valuation de US$ 23 bilhões e planeja IPO. Sean Lie, CTO e cofundador da Cerebras, enfatizou o potencial para novos padrões de interação e casos de uso com inferência ultrarrápida. (198 palavras)