Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- A IA física é a última fronteira da tecnologia.
- Ele aproveita dados do mundo actual para robôs mais autônomos.
- Seus estágios iniciais podem estar na sua cara agora.
O lançamento do ChatGPT há mais de três anos desencadeou um frenesi de IA. Embora os modelos de IA continuem a tornar-se mais capazes, para serem verdadeiramente tão úteis quanto possível para as pessoas na sua vida quotidiana, eles precisam de ter acesso às tarefas quotidianas. Isso só é possível permitindo que eles vivam fora de um chatbot na tela do seu laptop computer e, mais presentemente, no seu ambiente.
Além disso: conversei com representantes de Bluetooth na CES 2026 – e o que eles me disseram mudou minha perspectiva para sempre
Digite a última palavra da moda do setor: IA física. O termo foi amplamente divulgado na Shopper Electronics Present (CES) na semana passada, com quase todas as empresas divulgando um novo modelo ou {hardware} que pode contribuir para o avanço do espaço, incluindo a Nvidia. Durante a palestra da empresa, o CEO Jensen Huang até comparou a importância da IA física com a do lançamento do ChatGPT.
“O momento ChatGPT para a IA física chegou – quando as máquinas começam a compreender, raciocinar e agir no mundo actual”, disse ele.
O que é IA física?
A IA física pode ser geralmente definida como IA implementada em {hardware} que pode perceber o mundo ao seu redor e então raciocinar para executar ou orquestrar ações. Exemplos populares incluem veículos autônomos e robôs – mas robôs que utilizam IA para realizar tarefas já existem há décadas. Então qual é a diferença?
Além disso: o Google pode salvar a IA da Apple? Gemini para alimentar um novo Siri personalizado
De acordo com Anshuman Saxena, vice-presidente e gerente geral de direção automatizada e robótica da Qualcomm, a distinção está na capacidade do robô de raciocinar, agir e interagir com o mundo ao seu redor.
“Toda a ideia de uma cadeia de pensamentos, um raciocínio, um cérebro, que funcionará num contexto e realizará algumas ações como os humanos fariam – essa é a verdadeira definição de IA física”, disse Saxena.
Por exemplo, um robô humanóide seria capaz de dar um passo além da execução de uma tarefa como mover materiais ou embalagens conforme as instruções e, em vez disso, seria capaz de perceber seu ambiente para executar a tarefa intuitivamente.
Além disso: Rubin da Nvidia pode transformar a computação de IA como a conhecemos
Contudo, os exemplos não precisam ser tão elaborados; na verdade, de acordo com Ziad Asghar, vice-presidente sênior e gerente geral de XR, wearables e IA pessoal da Qualcomm, você já pode possuir um excelente exemplo de IA física.
“Os óculos inteligentes já são a melhor representação da IA física”, disse Asghar. “Eles são dispositivos que basicamente estão presentes e são capazes de ver o que você está vendo; eles são capazes de ouvir o que você está ouvindo, então estão no seu mundo físico.”
Uma relação de dados simbiótica
Saxena acrescenta que embora os robôs humanóides sejam úteis nos casos em que os humanos não querem realizar uma tarefa, seja porque é muito tediosa ou muito arriscada, eles não substituirão os humanos. É aí que os wearables de IA, como os óculos inteligentes, desempenham um papel importante, pois podem aumentar as capacidades humanas.
Além disso: CES 2026: Esses 7 óculos inteligentes chamaram nossa atenção – e você pode comprar este par agora
Mas, além disso, os wearables de IA podem realmente ser capazes de realimentar outros dispositivos físicos de IA, como robôs, fornecendo um conjunto de dados de alta qualidade baseado em perspectivas e exemplos da vida actual.
“Por que os LLMs são tão bons? Porque há uma tonelada de dados na web, para muitas informações contextuais e outras coisas, mas os dados físicos não existem”, disse Saxena.
O problema que ele descreve é aquele que muitas vezes dificulta o desenvolvimento da IA física. Como é demasiado arriscado treinar robôs no mundo actual, como colocar carros autónomos na estrada, as empresas devem criar simulações de dados sintéticos para treinar e testar estes modelos. Muitas empresas tentaram resolver esse problema na CES.
Além disso: sou um especialista em IA e este alfinete para anotações é o {hardware} mais convincente que experimentei na CES
A Nvidia lançou novos modelos que entendem o mundo actual ao seu redor e podem ser usados para criar dados sintéticos e simulações que emulam cenários de vida realistas. A Qualcomm oferece uma pilha física abrangente de IA que combina um novo processador Qualcomm Dragonwing IQ10 Sequence, lançado na CES, com as ferramentas necessárias para coleta e treinamento de dados de IA.
A criação de conjuntos de dados para este treinamento costuma ser um processo demorado e caro. No entanto, os robôs poderiam usar os dados dos wearables que as pessoas já usam todos os dias, que são efetivamente dados físicos de IA que são fiéis às experiências humanas.
“Pense nesses sensores, nos óculos, em tantas coisas que estão lá, que, se eu estiver com os óculos e tomar uma ação baseada em ‘Ah, vi algo aqui’, tanta informação é gerada imediatamente, o que pode ajudar os robôs também, criando hoje um novo conjunto de informações”, disse Saxena.
Além disso: experimentei as ‘ações agendadas’ do Gemini para automatizar minha IA – o potencial é enorme (mas o Google tem trabalho a fazer)
Dadas as preocupações com a privacidade que podem advir do uso diário de seus dados para treinar robôs, Saxena destacou que os dados de seus wearables devem sempre ser mantidos no mais alto nível de privacidade. Como resultado, os dados – que já deveriam ser anonimizados pela empresa de wearables – poderiam ser muito úteis no treinamento de robôs. Esse robô pode então criar mais dados, resultando em um ecossistema saudável.
“Esse compartilhamento de contexto, esse compartilhamento de IA entre aquele robô e os dispositivos vestíveis de IA que você tem ao seu redor é, eu acho, o benefício que você poderá obter”, acrescentou Asghar.












