Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- O Gemini do Google irá alimentar o Siri da Apple no backend.
- O objetivo é conduzir um Siri mais avançado e personalizado.
- No entanto, a Siri ainda precisa ser mais confiável e menos propensa a erros.
Com a pressão sobre a Apple para finalmente acertar o Siri, a empresa está recorrendo ao seu arquirrival nos negócios em busca de ajuda.
Em um declaração conjunta lançado na segunda-feira, a Apple e o Google anunciaram uma parceria plurianual na qual o Gemini do Google e a tecnologia de nuvem impulsionarão os recursos do Apple Intelligence, mais notavelmente um Siri mais avançado (e mais personalizado), com lançamento previsto para esta primavera.
No comunicado, a Apple referiu-se à IA do Google como a plataforma mais capaz para Apple Basis Fashions, que permite acessar e executar grandes modelos de linguagem (LLMs) diretamente de seu dispositivo.
Além disso: Como remover o Copilot AI do Home windows 11 hoje
“A próxima geração de modelos Apple Basis será baseada nos modelos Gemini do Google e na tecnologia de nuvem”, disseram as empresas. A ideia é utilizar os recursos avançados de IA do Gemini no backend, enquanto conta com os próprios modelos locais da Apple e o serviço Non-public Cloud Compute para garantir que suas conversas permaneçam seguras e protegidas em seu dispositivo.
Como funciona
A Siri contaria com os LLMs avançados do Google para conversas mais naturais e fluidas. Os LLMs são treinados em uma vasta quantidade de dados para aprender como lidar e processar a linguagem e soar mais humanos em suas respostas. Atrasada no jogo da IA, a Apple tem lutado para desenvolver e potencializar totalmente sua própria IA avançada e LLMs, forçando-a a confiar em ferramentas de outras empresas – principalmente o ChatGPT da OpenAI.
Com o Gemini no backend, o Siri deverá ser capaz de atuar mais como um chatbot avançado. Entre os recursos específicos disponíveis, o App Intents permitirá que o Siri trabalhe com os próprios aplicativos da Apple e de terceiros, enquanto o “conhecimento do contexto pessoal” permitirá que o Siri execute tarefas com base no conhecimento dos dados e preferências do seu dispositivo.
Além disso: Claude Cowork automatiza tarefas complexas para você agora – por sua própria conta e risco
Outra habilidade, chamada reconhecimento na tela, permitirá que o Siri “veja” e trabalhe com o que está na tela com base na sua solicitação. Mais um truque é o “World Information Solutions”, no qual o Siri funcionaria como um mecanismo de busca regular enquanto vasculha an internet para responder à sua pergunta ou solicitação.
Quando esperar o novo Siri
Relatórios sobre o novo e aprimorado assistente, conhecido como LLM Siri, começaram a aparecer no ultimate de 2024. Na época, o observador da Apple, Mark Gurman, disse que esta próxima versão já estava sendo testada internamente em iPhones, iPads e Macs como um aplicativo independente.
O objetivo period lançar o novo Siri na primavera de 2026. Até agora, esse prazo parece estar no caminho certo. Os últimos relatórios sugerem que o novo Siri será lançado em março com iOS 26.4.
Além disso: como usei o plano de $ 20 Plus do ChatGPT para corrigir um bug de pesadelo – rápido
Todos os novos recursos e habilidades na lista de tarefas do Siri parecem interessantes e potencialmente úteis. Mas a questão principal é se a nova integração do Gemini ajudará o assistente da Apple, propenso a erros e sitiado, a escapar de seu passado problemático.
Muitas vezes, a Siri fica aquém das expectativas, incapaz de responder às solicitações, entendendo mal o que o usuário diz ou fornecendo respostas incorretas. Esses problemas são especialmente irritantes quando você está no carro tentando obter instruções de direção e o Siri continua fornecendo todas as informações erradas.
Aqueles de nós que usam o Siri há anos só querem um chatbot que funcione. A Apple prometeu isso antes e não cumpriu. Com o Gemini no backend, veremos se o Siri finalmente consegue aquela melhoria tão necessária.












