Início Tecnologia A Apple apostou seu futuro de IA no Gemini. Veja como ele...

A Apple apostou seu futuro de IA no Gemini. Veja como ele pode reimaginar o iPhone para você

23
0

Um dos maiores anúncios do mundo tecnológico — e entre duas das maiores empresas tecnológicas do planeta — foi condensado numa breve declaração conjunta com menos de cem palavras. Maçã anunciado que Gemini impulsionará o renascimento do assistente Siri e a estrutura que impulsionará as experiências de software program de IA em iPhones e Macs.

“Esses modelos ajudarão a potencializar os futuros recursos do Apple Intelligence, incluindo um Siri mais personalizado que será lançado este ano”, disse a empresa. Esta é uma grande vitória para o Google, uma ótima notícia para os usuários de dispositivos Apple e uma autoadmissão de que a Apple não poderia conduzir a corrida da IA ​​​​na mesma capacidade que o Google, Meta ou OpenAI.

A escrita está na parede há algum tempo. A certa altura, a Apple estava testando os modelos Claude da Anthropic e os modelos GPT da OpenAI para alimentar o Siri. Mas, eventualmente, a empresa optou pelo Google, o que é uma validação massiva das capacidades do Gemini. Vamos analisar o que provavelmente virá a seguir para milhões de usuários do iPhone como você e eu.

Então, ah, privacidade?

Com a IA, existe um grande dilema que é difícil de ignorar. Os chatbots de IA se aprofundam em nossas vidas do que as mídias sociais jamais fizeram. Os chatbots têm acesso ao nosso e-mail, calendário, galeria, arquivos e, claro, às nossas ideias do dia a dia. Os especialistas já estão enfrentando o problema crescente de uma profunda conexão emocional entre o homem e a IA.

Mas isso não é tudo. Cada vez que invocamos um chatbot de IA, os dados são enviados ao servidor de uma empresa para processamento. Em alguns casos, ele é armazenado para treinamento de modelo ou para segurança, e você não pode optar por não usá-lo. A solução? IA no dispositivo. Por exemplo, Gemini Nano é uma abordagem no dispositivo que roda no silício native do seu telefone ou PC.

Nenhum dado sai do seu telefone. Mas é lento e não tão capaz. Para tarefas relacionadas à mídia ou outras tarefas exigentes, o processamento em nuvem é obrigatório. Então, você está pronto para isso, agora que o Google está potencializando as experiências de IA no seu iPhone e Mac, especialmente devido à sua história? Bem, a Apple já tem uma solução para isso, e está bastante claro sobre privacidade, agora que o Gemini irá potencializar as experiências de IA.

“O Apple Intelligence continuará a funcionar em dispositivos Apple e em computação em nuvem privada, ao mesmo tempo que mantém os padrões de privacidade líderes do setor da Apple”, afirma a empresa. Isso significa que seus dados e interações de IA serão roteados apenas por meio de servidores Personal Cloud Compute, que contam com silício personalizado da Apple e o sistema operacional de segurança da própria empresa.

“Acreditamos que o PCC é a arquitetura de segurança mais avançada já implantada para computação de IA em nuvem em escala”, afirma a Apple. Com o PCC, os dados são criptografados assim que saem do telefone. E uma vez concluída a tarefa atribuída, a solicitação do usuário e o materials compartilhado são excluídos dos servidores.

Nenhum dado do usuário é retido e tudo o que chega aos servidores em nuvem, nada disso é acessível à Apple. Gemini está simplesmente fornecendo inteligência para processar seus comandos de texto ou voz. Todo o trabalho a seguir é realizado com segurança nos servidores seguros da Apple, em vez de ir para o Google.

O que vem a seguir?

Se você já usou o Gemini e pediu ao Siri para realizar as mesmas tarefas (e o viu falhar), você saberá a diferença. A mais recente parceria Google-Apple está a colmatar essa lacuna. E o mais importante, está dando à Apple o materials para oferecer suas próprias experiências únicas de IA.

Em termos gerais, a estrutura subjacente do Gemini AI aprimorará a Siri e a Apple Intelligence. Como exatamente? Isso não está claro, porque a Apple não fará simplesmente um trabalho de copiar e colar. Você provavelmente não verá nenhuma marca Gemini aberta ao implementar esses recursos de IA de última geração no seu iPhone.

A Apple está apenas pegando emprestado o cérebro. O corpo e o comportamento serão o seu assunto routine da Apple.

No entanto, se você comparar o que o Gemini já pode realizar em telefones Android – e o que o Siri não consegue – você poderá ter uma ideia do progresso que está chegando ao seu iPhone, iPad e Mac. Veja, a Apple não está apenas usando a tecnologia de IA subjacente da Gemini para Apple Intelligence e Siri. É muito mais profundo.

A Apple usará o package de ferramentas de IA do Google para a próxima geração de modelos da Apple Basis. Pense nesses modelos como o ingrediente secreto que permite recursos do Apple Intelligence, como resumo, ferramentas de escrita, geração de imagens e até ações entre aplicativos.

Esses modelos, lançados em 2024, podem ser executados localmente em um dispositivo (sem necessidade de conexão com a Web) ou em servidores em nuvem da Apple. Um ano depois, a Apple lançou versões atualizadas que eram mais rápidas, mais capazes de processar mídia, tinham melhor compreensão do idioma e ofereciam suporte para mais idiomas.

A grande vantagem foi que a estrutura Basis Fashions permitiria aos desenvolvedores aproveitar esses recursos de IA no dispositivo e melhorar a experiência do usuário. Think about abrir o Spotify e, em vez de fazer o trabalho guide, você abre o Siri e dá um comando como “crie uma playlist com minhas músicas mais ouvidas este mês”.

Isso ainda não é possível em iPhones.

Outro ponto fraco é a inteligência inerente ao Siri. Cada vez que você faz uma pergunta que vai além das consultas básicas, ela será transferida para o ChatGPT. Com o Gemini em dispositivos Android, como o Google Pixel 10 Professional, as respostas são oferecidas instantaneamente e as tarefas podem ser executadas em outros aplicativos sem problemas.

Por exemplo, posso dizer ao Gêmeos para “enviar uma mensagem para Saba, perguntando o standing da aula do dia no WhatsApp”, e ele obedecerá enviando uma mensagem para minha irmã no aplicativo de mensagens. Os aplicativos e serviços do Google Workspace já estão bem integrados, permitindo aos usuários realizar tarefas no Gmail, Agenda, Drive e outros serviços com comandos de voz.

Encontrar informações sobre uma reserva de viagem na minha caixa de entrada, consultar o conteúdo de um arquivo ou simplesmente verificar a programação do calendário, o Gemini faz tudo. A Siri não chega nem perto desse nível de conveniência. E é aqui que Gemini também vem em socorro da Apple.

Um novo começo

A Apple observa claramente que o Gemini impulsionará a “próxima geração de modelos da Apple Basis”. Isso significa que o Siri será capaz de entender comandos de linguagem pure de maneira mais integrada do que seu atual estado robótico e realizar tarefas no iPhone. Há muitos benefícios que podem resultar deste transplante de cérebro de Gêmeos.

O sistema de busca common em um iPhone ou Mac será aprimorado e se tornará mais conversacional. As tarefas nos produtos Apple, como Notas, Música, Mail e muito mais, podem ser realizadas com comandos de voz ou texto, sem nunca abrir esses aplicativos. E o mais importante, também em outros aplicativos.

Com App Intents, a empresa já tem a estrutura pronta para realizar o trabalho em aplicativos de terceiros. Ainda não pegou, provavelmente porque os modelos de IA disponíveis não foram considerados inteligentes o suficiente pelos desenvolvedores. Com o Gemini potencializando as ações de IA no dispositivo, mais desenvolvedores adotarão com confiança ações conversacionais baseadas em IA em seus aplicativos.

Think about a Siri trabalhando para você em vários aplicativos, sem precisar abri-los. Em um iPhone, você já pode ter uma ideia de como funciona. Abra o aplicativo ChatGPT, ative os conectores de aplicativos e, com comandos de linguagem pure, você pode executar tarefas em dezenas de aplicativos, incluindo o Apple Music.

Mas há uma advertência. Você está vinculando outro aplicativo (by way of login) ao ChatGPT, o que significa que o OpenAI aprende mais sobre você. Quando a mesma tarefa é executada usando uma estrutura integrada no nível do sistema operacional, o risco de privacidade é teoricamente menor. Além disso, todo o fluxo de trabalho será mais integrado.

A Apple pode imitar a estratégia Gemini do Google de muitas outras maneiras. Ele simplesmente precisa implantar o Siri em seus próprios aplicativos, mas de uma maneira menos intrusiva e mais cuidadosa do que o estudo estúpido que vimos com o Copilot, o Alexa + e, sim, o próprio Gemini. A Apple é boa nessa parte e estou muito animado para ver a visão de IA da empresa se desenrolar ainda este ano.

Há muito que a Apple pode simplesmente aprender com a execução do Gemini no Android e na net por meio dos serviços do Google. E agora que tem o cérebro Gemini em mãos, pode modificá-lo e integrá-lo em seus próprios aplicativos e serviços – no estilo exclusivo da Apple.

A grande questão é: onde fica o ChatGPT, que já está no centro da Apple Intelligence? Saberemos mais nos próximos meses e, mais provavelmente, na próxima conferência de desenvolvedores da Apple, em junho. Mas, por enquanto, o futuro da Siri (e da IA ​​no {hardware} da Apple) parece mais brilhante do que nunca para um usuário comum como eu e você!

avots