Início Tecnologia O novo modelo Spark da OpenAI codifica 15x mais rápido que o...

O novo modelo Spark da OpenAI codifica 15x mais rápido que o GPT-5.3-Codex – mas há um problema

9
0

OpenAI/Elyse Betters Picaro/ZDNET

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • OpenAI tem como alvo a codificação “conversacional”, e não agentes lentos em lote.
  • Grandes ganhos em latência: ida e volta 80% mais rápida, tempo até o primeiro token 50% mais rápido.
  • Funciona em chips Cerebras WSE-3 para um nível de serviço Codex com latência inicial.

A equipe Codex da OpenAI é em chamas. Menos de duas semanas após o lançamento de um aplicativo Codex baseado em agente dedicado para Macs, e apenas uma semana após o lançamento do modelo de linguagem GPT-5.3-Codex mais rápido e orientável, a OpenAI está contando com relâmpagos pela terceira vez.

Além disso: o novo GPT-5.3-Codex da OpenAI é 25% mais rápido e vai muito além da codificação agora – o que há de novo

Hoje, a empresa anunciou uma prévia da pesquisa do GPT-5.3-Codex-Spark, uma versão menor do GPT-5.3-Codex construída para codificação em tempo actual no Codex. A empresa relata que gera código 15 vezes mais rápido, ao mesmo tempo que “permanece altamente capaz para tarefas de codificação do mundo actual”. Há um problema e falarei sobre isso em um minuto.

Além disso: o Codex da OpenAI acaba de ganhar seu próprio aplicativo para Mac – e qualquer um pode experimentá-lo gratuitamente agora

Codex-Spark estará inicialmente disponível apenas para usuários do nível Professional de US$ 200/mês, com limites de taxa separados durante o período de visualização. Se seguir a estratégia de lançamento traditional da OpenAI para lançamentos do Codex, os usuários Plus serão os próximos, com outros níveis ganhando acesso rapidamente.

(Divulgação: Ziff Davis, empresa controladora da ZDNET, entrou com uma ação judicial em abril de 2025 contra a OpenAI, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)

Expandindo a família Codex para colaboração em tempo actual

A OpenAI afirma que o Codex-Spark é seu “primeiro modelo projetado especificamente para trabalhar com o Codex em tempo actual – fazendo edições direcionadas, remodelando a lógica ou refinando interfaces e vendo os resultados imediatamente”.

Vamos desconstruir isso brevemente. A maioria das ferramentas de programação de IA de agência demora um pouco para responder às instruções. No meu trabalho de programação, posso dar uma instrução (e isso se aplica tanto ao Codex quanto ao Claude Code) e sair e trabalhar em outra coisa por um tempo. Às vezes são apenas alguns minutos. Outras vezes, pode demorar o suficiente para almoçar.

Além disso: concluí 4 anos de desenvolvimento de produto em 4 dias por US$ 200 e ainda estou surpreso

Aparentemente, o Codex-Spark é capaz de responder muito mais rápido, permitindo um trabalho rápido e contínuo. Isso poderia acelerar consideravelmente o desenvolvimento, especialmente para solicitações e consultas mais simples.

Eu sei que ocasionalmente fiquei frustrado quando fiz uma pergunta tremendous simples a uma IA que deveria ter gerado uma resposta imediata, mas em vez disso ainda tive que esperar cinco minutos por uma resposta.

Ao tornar a capacidade de resposta um recurso central, o modelo oferece suporte a uma codificação conversacional mais fluida. Às vezes, o uso de agentes de codificação parece mais com a codificação em lote da velha escola. Isso foi projetado para superar esse sentimento.

GPT-5.3-Codex-Spark não se destina a substituir o GPT-5.3-Codex base. Em vez disso, o Spark foi projetado para complementar modelos de IA de alto desempenho criados para tarefas autônomas e de longa duração que duram horas, dias ou semanas.

Desempenho

O modelo Codex-Spark destina-se a trabalhos onde a capacidade de resposta é tão importante quanto a inteligência. Ele suporta interrupção e redirecionamento no meio da tarefa, permitindo loops de iteração estreitos.

Isso é algo que me atrai, porque sempre penso em algo mais para contar à IA dez segundos depois de ter dado uma tarefa.

Além disso: usei Claude Code para codificar um aplicativo Mac em 8 horas, mas deu mais trabalho do que mágica

O modelo Spark tem como padrão edições leves e direcionadas, fazendo ajustes rápidos em vez de grandes mudanças. Ele também não executa testes automaticamente, a menos que solicitado.

A OpenAI conseguiu reduzir a latência (resposta mais rápida) em todo o pipeline de solicitação-resposta. Ele diz que a sobrecarga por viagem de ida e volta cliente/servidor foi reduzida em 80%. A sobrecarga por token foi reduzida em 30%. O tempo até o primeiro token foi reduzido em 50% por meio da inicialização da sessão e otimizações de streaming.

Outro mecanismo que melhora a capacidade de resposta durante a iteração é a introdução de uma conexão WebSocket persistente, para que a conexão não exact ser renegociada continuamente.

Alimentado por chips Cerebras AI

Em janeiro, OpenAI anunciou uma parceria com fabricante de chips AI Cérebros. Já faz algum tempo que cobrimos Cerebras. Abordamos seu serviço de inferência, seu trabalho com DeepSeek, seu trabalho para aumentar o desempenho do modelo Llama da Meta e o anúncio da Cerebras de um realmente grande chip de IA, destinado a dobrar o desempenho do LLM.

GPT-5.3-Codex-Spark é o primeiro marco da parceria OpenAI/Cerebras anunciada no mês passado. O modelo Spark é executado no Wafer Scale Engine 3 da Cerebras, que é uma arquitetura de chip de IA de alto desempenho que aumenta a velocidade ao colocar todos os recursos de computação em um único processador em escala de wafer do tamanho de uma panqueca.

Além disso: 7 ajustes nas configurações do ChatGPT sem os quais não posso mais trabalhar – e sou um usuário avançado

Normalmente, um wafer semicondutor contém vários processadores, que mais tarde no processo de produção são cortados e colocados em suas próprias embalagens. O wafer Cerebras contém apenas um chip, o que o torna um processador muito, muito grande, com conexões muito estreitamente acopladas.

De acordo com Sean Lie, CTO e cofundador da Cerebras, “O que mais nos entusiasma no GPT-5.3-Codex-Spark é a parceria com a OpenAI e a comunidade de desenvolvedores para descobrir o que a inferência rápida torna possível: novos padrões de interação, novos casos de uso e uma experiência de modelo fundamentalmente diferente. Esta prévia é apenas o começo.”

As pegadinhas

Agora, aqui estão as pegadinhas.

Primeiro, a OpenAI diz que “quando a demanda é alta, você pode ver um acesso mais lento ou filas temporárias à medida que equilibramos a confiabilidade entre os usuários”. Então, rápido, a menos que muitas pessoas queiram ir rápido.

Aqui está o chute. A empresa afirma: “No SWE-Bench Professional e no Terminal-Bench 2.0, dois benchmarks que avaliam a capacidade de engenharia de software program da agência, o GPT-5.3-Codex-Spark tem desempenho inferior ao GPT-5.3-Codex, mas pode realizar as tarefas em uma fração do tempo.

Na semana passada, no anúncio do GPT-5.3-Codex, a OpenAI disse que o GPT-5.3-Codex foi o primeiro modelo classificado como “alta capacidade” para segurança cibernética, de acordo com seu publicado Quadro de Preparação. Por outro lado, a empresa admitiu que o GPT-5.3-Codex-Spark “não tem uma likelihood plausível de atingir o limite do nosso Quadro de Preparação para alta capacidade em segurança cibernética”.

Também: Parei de usar ChatGPT para tudo: esses modelos de IA superam em pesquisa, codificação e muito mais

Pense nessas afirmações, caro leitor. Esta IA não é tão inteligente, mas faz essas coisas não tão inteligentes com muito mais rapidez. A velocidade de 15x certamente não é nada desprezível. Mas você realmente deseja que uma IA cometa erros de codificação 15 vezes mais rápido e produza código menos seguro?

Deixe-me dizer uma coisa. “Eh, é bom o suficiente” não é bom o suficiente quando você tem milhares de usuários irritados vindo até você com tochas e forcados porque de repente você quebrou o software program deles com uma nova versão. Pergunte-me como eu sei.

Na semana passada, aprendemos que OpenAI usa Codex para escrever Codex. Também sabemos que ele o utiliza para poder construir código com muito mais rapidez. Portanto, a empresa claramente tem um caso de uso para algo muito mais rápido, mas não tão inteligente. À medida que eu entender melhor o que é isso e onde o Spark se encaixa, avisarei você.

O que vem a seguir?

A OpenAI compartilhou que está trabalhando em busca de modos duplos de raciocínio e trabalho em tempo actual para seus modelos Codex.

A empresa afirma: “O Codex-Spark é o primeiro passo em direção a um Codex com dois modos complementares: raciocínio e execução em um horizonte mais longo e colaboração em tempo actual para iteração rápida. Com o tempo, os modos se misturarão”.

O modelo de fluxo de trabalho previsto é interessante. De acordo com a OpenAI, a intenção é que, eventualmente, “o Codex possa mantê-lo em um ciclo interativo estreito enquanto delega trabalhos de longa duração a subagentes em segundo plano ou distribui tarefas para muitos modelos em paralelo quando você deseja amplitude e velocidade, para que você não exact escolher um único modo antecipadamente.”

Além disso: experimentei um rival do Claude Code que é native, de código aberto e totalmente gratuito – como foi

Essencialmente, está trabalhando para obter o melhor dos dois mundos. Mas, por enquanto, você pode escolher rápido ou preciso. Essa é uma escolha difícil. Mas a precisão está ficando cada vez mais precisa e agora, pelo menos, você pode optar pela rapidez quando quiser (desde que tenha em mente as compensações e esteja pagando pelo nível Professional).

E você? Você trocaria alguma capacidade de inteligência e segurança por respostas de codificação 15x mais rápidas? A ideia de um colaborador de IA interrompível e em tempo actual atrai você ou você prefere um modelo mais deliberado e de maior precisão para um trabalho de desenvolvimento sério?

Quão preocupado você está com a distinção de segurança cibernética entre o Codex-Spark e o modelo GPT-5.3-Codex completo? E se você é um usuário Professional, você se vê alternando entre os modos “rápido” e “inteligente” dependendo da tarefa? Deixe-nos saber nos comentários abaixo.


Você pode acompanhar as atualizações diárias do meu projeto nas redes sociais. Certifique-se de se inscrever meu boletim informativo semanal de atualizaçãoe siga-me no Twitter/X em @DavidGewirtzno Fb em Facebook.com/DavidGewirtzno Instagram em Instagram.com/DavidGewirtzno Bluesky em @DavidGewirtz.come no YouTube em YouTube.com/DavidGewirtzTV.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui