Início Tecnologia Vá em frente, Claude: o novo modelo de IA do Moonshot permite...

Vá em frente, Claude: o novo modelo de IA do Moonshot permite que você crie código de vibração a partir de um único add de vídeo

3
0

Bloomberg / Colaborador/Bloomberg through Getty

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • Moonshot estreou seu modelo Kimi K2.5 de código aberto na terça-feira.
  • Pode gerar interfaces internet baseadas apenas em imagens ou vídeos.
  • Ele também vem com um recurso beta de “enxame de agentes”.

A startup chinesa de IA apoiada pelo Alibaba, Moonshot, lançou o Kimi K2.5 na terça-feira, descrevendo-o em um postagem no blog como o “modelo de código aberto mais poderoso do mundo até hoje”.

Construído sobre o Kimi K2 LLM, que estreou no verão passado, o modelo mais recente do Moonshot vem com recursos de codificação que podem torná-lo um sério concorrente de seus equivalentes proprietários. Kimi K2.5 obteve pontuação comparável aos modelos de fronteira da OpenAI, Google e Anthropic nos benchmarks de codificação SWE-Bench Verified e SWE-Bench Multilingual, de acordo com dados publicados pela Moonshot.

captura de tela-2026-01-27-at-11-19-50am.png

Sua capacidade de criar interfaces internet front-end a partir de entradas visuais, entretanto, é o que realmente poderia diferenciá-lo da multidão.

Codificando com visão

Kimi K2.5 foi pré-treinado com 15 trilhões de tokens de texto e visuais, tornando-o “um modelo multimodal nativo”, de acordo com Moonshot, que pode gerar interfaces internet a partir de imagens ou vídeos carregados, completos com elementos interativos e efeitos de rolagem.

Em um vídeo de demonstração desse recurso de “codificação com visão” incluído na postagem do weblog do Moonshot, Kimi K2.5 gerou um rascunho de um novo website baseado em um vídeo gravado de um website pré-existente, mostrado da perspectiva da tela do usuário enquanto ele rola. O modelo foi capaz de recriar a estética geral, mesmo que – no estilo clássico da IA ​​– tenha cometido alguns pequenos erros visuais ao longo do caminho, como representar continentes em um globo como manchas amorfas.

captura de tela-2026-01-27-at-11-25-27am.png

Não está claro quão prático será esse tipo de capacidade. (Por que uma empresa precisaria criar uma cópia gerada por IA um pouco menos atraente de um website já perfeitamente razoável?) Ainda assim, gerar maquetes de websites e aplicativos exclusivamente a partir de imagens ou vídeos marcaria um avanço significativo para as chamadas ferramentas de “codificação vibratória”, que são baseadas em métodos intuitivos facilmente implantados por não especialistas, em vez da codificação tradicional.

ChatGPT, Claude e Gemini podem gerar código bruto para novos ativos da internet com base em capturas de tela ou outras imagens, mas isso ainda deixa o usuário com a necessidade de traduzi-lo em um produto acabado e utilizável. A novidade (e potencial valor de mercado) do novo modelo da Moonshot é que ele elimina essa etapa intermediária. “Ao raciocinar sobre imagens e vídeo, o K2.5 melhora a geração de imagem/vídeo para código e a depuração visible, reduzindo a barreira para os usuários expressarem intenções visualmente”, escreveu a empresa em seu weblog.

Além disso: usei Claude Code para codificar um aplicativo Mac em 8 horas, mas deu mais trabalho do que mágica

Se for útil no mundo actual, especialmente entre as empresas, outros desenvolvedores provavelmente seguirão o exemplo com capacidades semelhantes para seus próprios modelos.

Os recursos de codificação do Kimi K2.5 foram disponibilizados por meio de uma plataforma de código aberto chamada Kimi Code, que pode ser acessada por meio de ambientes de desenvolvimento integrados (IDEs) como Cursor, VSCode e Zed. O novo modelo também está disponível através Kimi.como aplicativo Kimi e o Kimi API.

Enxame de agentes

Moonshot também revelou uma prévia da pesquisa chamada “enxame de agentes”, que orquestra até cem “subagentes” para melhorar o desempenho em certas tarefas de várias etapas.

Ao executar várias tarefas paralelamente, o enxame de agentes também pode acelerar o processo de computação. “A execução simultânea dessas subtarefas reduz significativamente a latência ponta a ponta em comparação com a execução sequencial do agente”, escreveu Moonshot em seu weblog, acrescentando que avaliações internas mostraram que o tempo de execução ponta a ponta – o processo complete desde a entrada até a conclusão da saída ultimate – poderia ser reduzido em até 80%.

Além disso: usei o Claude Code para codificar um aplicativo Apple Watch em apenas 12 horas – em vez de 2 meses

Usuários com uma conta Moonshot ativa “Allegretto” ou “Vivace” (custando US$ 31/mês e US$ 159/mês, respectivamente) podem experimentar o Agent Swarm no website Kimi clicando no menu suspenso do modelo no canto inferior direito da caixa de immediate e selecionando “K2.5 Agent Swarm (Beta)”.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui