Início Tecnologia Uma nova versão do Codex da OpenAI é alimentada por um novo...

Uma nova versão do Codex da OpenAI é alimentada por um novo chip dedicado

10
0

Na quinta-feira, a OpenAI anunciou o lançamento de uma versão leve de sua ferramenta de codificação agente Codex, cujo modelo mais recente foi lançado pela OpenAI no início deste mês. GPT-5.3-Codex-Spark é descrito pela empresa como uma “versão menor” desse modelo, projetada para inferência mais rápida. Para potencializar essa inferência, a OpenAI trouxe um chip dedicado de seu parceiro de {hardware} Cerebras, marcando um novo nível de integração na infraestrutura física da empresa.

O parceria entre Cerebras e OpenAI foi anunciado no mês passado, quando a OpenAI disse que havia chegado a um acordo plurianual com a empresa no valor de mais de US$ 10 bilhões. “Integrar o Cerebras em nosso combine de soluções de computação tem como objetivo fazer com que nossa IA responda muito mais rápido”, disse a empresa na época. Agora, a OpenAI chama o Spark de “primeiro marco” nesse relacionamento.

O Spark, que a OpenAI diz ter sido projetado para colaboração rápida e em tempo actual e “iteração rápida”, será alimentado pelo Wafer Scale Engine 3 da Cerebras. terceira geração megachip em escala wafer, equipado com 4 trilhões de transistores. OpenAI descreve a nova ferramenta leve como um “motor de produtividade diária, ajudando os usuários com prototipagem rápida”, em vez das tarefas mais longas e pesadas para as quais o 5.3 authentic foi projetado. O Spark está atualmente desfrutando de uma prévia da pesquisa para usuários do ChatGPT Professional no aplicativo Codex.

Em um tweet antes do anúncio, o CEO Sam Altman parecia sugerir o novo modelo. “Temos algo especial sendo lançado para usuários do Codex no plano Professional ainda hoje”, tuitou Altman. “Isso desperta alegria para mim.”

Em sua declaração oficial, a OpenAI enfatizou o Spark como projetado para a menor latência possível no Codex. “Codex-Spark é o primeiro passo em direção a um Codex que funciona em dois modos complementares: colaboração em tempo actual quando você deseja iteração rápida e tarefas de longa execução quando você precisa de raciocínio e execução mais profundos”, compartilhou OpenAI. A empresa acrescentou que os chips da Cerebras são excelentes no atendimento a “fluxos de trabalho que exigem latência extremamente baixa”.

Cerebras existe por mais de uma década mas, na period da IA, tem desfrutado de um papel cada vez mais proeminente na indústria tecnológica. Na semana passada, a empresa anunciou que havia levantado US$ 1 bilhão em capital novo a uma avaliação de US$ 23 bilhões. A empresa tem anunciado anteriormente suas intenções de realizar um IPO.

“O que mais nos entusiasma no GPT-5.3-Codex-Spark é a parceria com a OpenAI e a comunidade de desenvolvedores para descobrir o que a inferência rápida torna possível – novos padrões de interação, novos casos de uso e uma experiência de modelo fundamentalmente diferente”, disse Sean Lie, CTO e cofundador da Cerebras, em um comunicado. “Esta prévia é apenas o começo.”

Evento Techcrunch

Boston, MA
|
23 de junho de 2026

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui