Na atualização do iOS 26.4 que chegará nesta primavera, a Apple apresentará uma nova versão do Siri que irá reformular a forma como interagimos com o assistente pessoal e o que ele é capaz de fazer.
A versão iOS 26.4 do Siri não funcionará como ChatGPT ou Claude, mas contará com grandes modelos de linguagem (LLMs) e foi atualizada desde o início.
Arquitetura Atualizada
A versão de próxima geração do Siri usará modelos avançados de linguagem grande, semelhantes aos usados por ChatGPT, Claude e Gemini. A Apple não está implementando interações completas com chatbot, mas qualquer a atualização é melhor do que o que está disponível agora e há muito esperado.
No momento, o Siri usa aprendizado de máquina, mas não possui os recursos de raciocínio que os modelos LLM transmitem. Siri depende de vários modelos específicos de tarefas para concluir uma solicitação, passando de uma etapa para outra. O Siri precisa determinar a intenção de uma solicitação, extrair informações relevantes (um horário, um evento, um nome, and so on.) e, em seguida, usar APIs ou aplicativos para concluir a solicitação. Não é um sistema tudo-em-um.
No iOS 26.4, o Siri terá um núcleo LLM em torno do qual todo o resto será construído. Em vez de apenas traduzir voz em texto e procurar palavras-chave para executar, o Siri realmente entenderá os detalhes do que o usuário está perguntando e usará o raciocínio para fazer isso.
Melhorias no LLM
Siri hoje geralmente é adequado para tarefas simples, como definir um cronômetro ou alarme, enviar uma mensagem de texto, ligar ou desligar um dispositivo doméstico inteligente, responder a uma pergunta simples ou controlar uma função do dispositivo, mas não entende nada mais complicado, não pode concluir tarefas de várias etapas, não pode interpretar palavras que não estejam na estrutura desejada, não tem contexto pessoal e não suporta perguntas de acompanhamento.
Um LLM deve resolver a maioria desses problemas porque o Siri terá algo semelhante a um cérebro. Os LLMs podem compreender as nuances de uma solicitação, descobrir o que alguém realmente deseja e tomar as medidas necessárias para entregar essas informações ou concluir a ação solicitada.
Já sabemos um pouco do que o LLM Siri será capaz de fazer porque a Apple descreveu os recursos do Apple Intelligence que deseja implementar quando o iOS 18 for lançado.
Recursos prometidos do Siri Apple Intelligence
A Apple descreveu três maneiras específicas de melhorar o Siri, incluindo o contexto pessoal, a capacidade de ver o que está na tela para saber o que o usuário está falando e a capacidade de fazer mais dentro e entre os aplicativos.
O Siri compreenderá pronomes, referências ao conteúdo da tela e dos aplicativos e terá memória de curto prazo para solicitações de acompanhamento.
Contexto Pessoal
Com contexto pessoal, o Siri poderá acompanhar e-mails, mensagens, arquivos, fotos e muito mais, aprendendo mais sobre você para ajudá-lo a concluir tarefas e acompanhar o que foi enviado.
- Mostre-me os arquivos que Eric me enviou na semana passada.
- Encontre o e-mail onde Eric mencionou patinação no gelo.
- Encontre os livros que Eric me recomendou.
- Onde está a receita que Eric me enviou?
- Qual é o número do meu passaporte?
Conscientização na tela
O reconhecimento na tela permitirá que o Siri veja o que está na tela e conclua ações envolvendo tudo o que você está vendo. Se alguém enviar uma mensagem de texto para você com um endereço, por exemplo, você pode dizer ao Siri para adicioná-lo ao cartão de contato. Ou se você estiver olhando uma foto e quiser enviá-la para alguém, pode pedir ao Siri para fazer isso por você.
Integração mais profunda de aplicativos
Uma integração mais profunda de aplicativos significa que o Siri será capaz de fazer mais dentro e entre aplicativos, realizando ações e concluindo tarefas que simplesmente não são possíveis com o assistente pessoal no momento. Não temos uma imagem completa do que o Siri será capaz, mas a Apple forneceu alguns exemplos do que esperar.
- Movendo arquivos de um aplicativo para outro.
- Editar uma foto e depois enviá-la para alguém.
- Obtenha direções para casa e compartilhe o HEC com Eric.
- Envie o e-mail que rascunhei para Eric.
Atualização maior que o prometido
Em uma reunião geral em agosto de 2025, o chefe de engenharia de software program da Apple, Craig Federighi, explicou o desastre do Siri aos funcionários. A Apple tentou fundir dois sistemas separados, o que não deu certo.
Havia um sistema para lidar com comandos atuais e outro baseado em grandes modelos de linguagem, e a abordagem híbrida não estava funcionando devido aos limites da arquitetura Siri atual. O único caminho a seguir period atualizar para a arquitetura de segunda geração construída em torno de um grande modelo de linguagem.
Na reunião de agosto, Federighi disse que a Apple renovou com sucesso o Siri e que a Apple seria capaz de introduzir uma atualização maior do que a prometida no iOS 18.
“O trabalho que fizemos nesta reformulação completa do Siri nos deu os resultados que precisávamos”, disse Federighi aos funcionários. “Isso nos colocou em posição não apenas de entregar o que anunciamos, mas de entregar uma atualização muito maior do que imaginamos.”
Adotando o Google Gemini
Parte do problema da Apple period que ela dependia de modelos de IA construídos internamente e que não eram capazes de igualar as capacidades dos concorrentes. A Apple começou a considerar o uso de um modelo de terceiros para Siri e outros recursos futuros de IA brand após adiar o Siri e, em janeiro, a Apple anunciou uma parceria plurianual com o Google.
Em um futuro próximo, os recursos de IA da Apple, incluindo a versão mais personalizada do Siri, usarão um modelo personalizado que a Apple construiu em colaboração com a equipe Gemini do Google. A Apple planeja continuar trabalhando em seus próprios modelos internos, mas, por enquanto, contará com o Gemini para muitos recursos voltados ao público.
O Siri no iOS 26.4 será mais semelhante ao Google Gemini do que o Siri hoje, embora sem recursos completos de chatbot. A Apple planeja continuar a executar alguns recursos no dispositivo e usar a computação em nuvem privada para manter a privacidade. A Apple manterá os dados pessoais no dispositivo, anonimizará as solicitações e continuará permitindo que os recursos de IA sejam desativados.
O que não vem no iOS 26.4
O Siri não funcionará como um chatbot, então a versão atualizada não apresentará memória de longo prazo ou conversas de ida e volta, e a Apple planeja usar a mesma interface baseada em voz com funcionalidade de digitação limitada.
O embaraçoso atraso da Siri na Apple
No que se tornou uma jogada infame, a Apple apostou tudo exibindo uma versão mais inteligente do Siri com tecnologia Apple Intelligence quando apresentou o iOS 18 na 2024 Worldwide Builders Convention. A Apple disse que esses recursos viriam em uma atualização para o iOS 18, mas bem quando o lançamento period esperado, a Apple admitiu que o Siri não estava pronto e seria adiado até a primavera de 2026.


Os executivos da Apple fizeram um tour de imprensa para explicar as deficiências do Siri após WWDC 2025, prometendo coisas maiores e melhores para o iOS 26 e explicando o que deu errado. Os recursos Apple Intelligence Siri que vimos na WWDC 2024 foram realmente implementados e não foram falsificados, mas o Siri não estava funcionando tão bem quanto o esperado nos bastidores e a Apple estava lidando com problemas de qualidade.
Como a Apple anunciou os novos recursos do Siri com o iPhone 16, algumas pessoas que compraram o iPhone por causa da nova funcionalidade ficaram chateadas com o atraso e processaram. A Apple conseguiu resolver o caso silenciosamente em dezembro de 2025, então a maior parte da confusão do Siri foi resolvida.
Reestruturação Interna
O passo em falso com a estreia do Siri e o fracasso da arquitetura híbrida levaram a Apple a reestruturar toda a sua equipe de IA. O chefe de IA da Apple, John Giannandrea, foi removido da equipe de liderança Siri, com o chefe do Imaginative and prescient Professional, Mike Rockwell, assumindo.
O CEO da Apple, Tim Cook dinner, não estava mais confiante na capacidade de Giannandrea de supervisionar o desenvolvimento de produtos, e Giannandrea deve se aposentar na primavera de 2026. Rockwell se reporta a Federighi, e Federighi disse aos funcionários que a nova liderança “impulsionou” o desenvolvimento do Siri. Federighi aparentemente desempenhou um papel elementary na mudança da abordagem da Apple em relação à IA e está tomando as decisões que permitirão à empresa alcançar os rivais.
A Apple tem lutado para reter funcionários de IA em meio à questão do Siri e às estratégias de recrutamento de empresas como a Meta. A Meta contratou vários engenheiros importantes de IA da Apple, oferecendo pacotes de pagamento de até US$ 200 milhões. Na reunião geral da Apple em agosto, Cook dinner e Federighi tiveram como objetivo tranquilizar os funcionários de que a IA é extremamente importante para a empresa. “Não há nenhum projeto que as pessoas estejam levando mais a sério”, disse Federighi sobre o Siri.
Cook dinner disse que a Apple “fará o investimento” para ser líder em IA.
Knowledge de lançamento do Siri iOS 26.4
A Apple prometeu que a nova versão do Siri chegará na primavera de 2026, quando esperamos o iOS 26.4. Os testes no iOS 26.4 devem começar no remaining de fevereiro ou início de março, com lançamento previsto para abril.
Compatibilidade LLM Siri
A nova versão do Siri provavelmente será executada em todos os dispositivos que suportam o Apple Intelligence, embora a Apple não tenha fornecido detalhes explicitamente. Alguns novos recursos do Siri também podem chegar a dispositivos mais antigos.
Atualização do chatbot para iOS 27
A Apple planeja atualizar o Siri ainda mais na atualização do iOS 27, transformando o Siri em um chatbot. Siri funcionará como Claude ou ChatGPT, capaz de compreender e interagir em conversas.
Detalhes sobre a interface Siri e como uma versão chatbot do Siri funcionará ainda são escassos, mas o iOS 26.4 será uma parada no caminho para uma versão do Siri capaz de realmente funcionar como produtos da Anthropic e OpenAI.













