Início Tecnologia A nova tecnologia de leitura labial da Apple é um sinal estranho...

A nova tecnologia de leitura labial da Apple é um sinal estranho de para onde estamos indo

12
0

Think about murmurar algo silenciosamente para si mesmo e seu assistente de IA saberá o que você está tentando dizer. Pode ser através dos seus óculos, fones de ouvido ou da câmera do seu telefone. A Apple acaba de comprar uma empresa, chamada Q.aique está tentando fazer exatamente isso. Isso parece estranho e ficção científica, mas para mim, como alguém que olha para óculos inteligentes e wearables há muito tempo, também parece muito acquainted.

O investimento da Apple nesta startup israelense não é nada pequeno. A aquisição custou cerca de US$ 2 bilhões, segundo o relatório original do Financial Times e agências de notícias como a Reuters. É mais do que qualquer outro movimento da Apple desde a aquisição da Beats, há uma década. Ao contrário do Beats, porém, ninguém sabe sobre Q.ai. Pelo menos, ainda não. Ainda assim, as possibilidades para novas interfaces podem ser muito fortes. Outra peça-chave está sendo adicionada ao quebra-cabeça cada vez maior das futuras interfaces tecnológicas pessoais.

Q.ai não é uma empresa com a qual conheci ou da qual recebi uma demonstração, mas um de seus fundadores, Aviad Maizels, também criou o PrimeSense, a tecnologia baseada em infravermelho que impulsionou os recursos 3D de digitalização de salas da câmera Kinect da Microsoft para o Xbox anos atrás. PrimeSense foi adquirido pela Apple em 2013. Essa tecnologia se tornou o Conjunto de câmeras TrueDepth para Face ID, e também mora em Visão Professional da Apple para rastreamento guide de perto.

A julgar pelo que foi relatado sobre suas patentes, Q.ai permite o rastreamento de pequenos movimentos faciais e expressões emocionais com sensores ópticos e pode permitir a entrada silenciosa de comandos para uma interface de IA ou o reconhecimento de outras dicas faciais sutis. O website israelense GeekTime entra em mais detalhes, dizendo que a tecnologia mediria os movimentos musculares e labiais e pode precisar estar perto de sua boca.

A CNET entrou em contato com a Apple e a Q.ai para comentar, mas nenhuma respondeu imediatamente.

Scott Stein da CNET usando fone de ouvido Vision Pro no rosto

O Imaginative and prescient Professional já pode rastrear movimentos faciais, mas não consegue converter movimentos labiais em fala.

Numi Prasarn/CNET

Parte de um novo sistema de interface para wearables e óculos?

Acabei de escrever sobre como a Apple já está mostrando sinais de avançar em direção a um ecossistema de wearables de IA conectados: alfinetes, óculos, fones de ouvido, relógios ou alguma combinação destes. Qualquer um desses wearables poderia usar o que a Q.ai está desenvolvendo. Parece que fones de ouvido e óculos são as duas áreas mais prováveis, e com relatos de que o próxima geração de AirPods terá câmeras infravermelhas a bordo, as peças parecem ainda mais prontas para serem conectadas.

Até mesmo headsets de realidade mista como o Imaginative and prescient Professional poderiam aproveitar a tecnologia da Q.ai. O Imaginative and prescient Professional já pode reconhecer expressões faciais com suas câmeras de rastreamento ocular, câmeras voltadas para baixo e sensores infravermelhos. Mas interagir com o Imaginative and prescient Professional ainda é um pouco estranho para mim. Eu uso meus olhos para olhar e minhas mãos para beliscar as coisas, mas tenho que dizer “Ei, Siri” para fazer solicitações de áudio. Prefiro que minhas interações pareçam mais naturais e sutis. Talvez esta nova aquisição possa ajudar.

Como observou a artista e pesquisadora de realidade aumentada Helen Papagiannis notas em seu boletim informativo recente“O suposto pin de IA da Apple faz sentido menos como um produto independente e mais como um nó no ecossistema da Apple, recorrendo a detecção, inteligência e contexto compartilhados entre dispositivos que trabalham em conjunto com AirPods e, eventualmente, óculos.”

Existente óculos inteligentes como o Meta e os próximos do Google dependem principalmente da voz para interação. Fazer isso silenciosamente pode ser uma enorme vantagem, mas outros aspectos além da voz também estão surgindo. Meta possui uma banda neural usada no pulso, com o objetivo ultimate de adicionar rastreamento ocular também aos óculos. Os óculos do Google também funcionarão com gestos baseados no relógio.

Também estou mais do que um pouco preocupado com a privacidade. Qualquer tecnologia que possa ler lábios e reconhecer expressões sutis pode ser usada para rastrear e ouvir sua intenção à distância. Como essa tecnologia seria usada de forma privada e confiável? Ou será que ser capaz de fazer pedidos silenciosamente seria mais privado do que os comandos de voz que uso agora?

Há mais coisas além da leitura labial?

Ainda quero interfaces que não falem nada. Baseado em eletromiografia da Meta tecnologia de banda neural aponta maneiras mais complexas pelas quais os gestos do pulso poderiam evoluir para funcionar com óculos e fones de ouvido. Outra empresa israelita, a Wearable Units, tem a sua própria banda neural, chamada Mudra, e pretende expandir as suas capacidades de entrada subtis, derivadas dos impulsos eléctricos dos neurónios motores.

A eletroencefalografia, que mede sinais cerebrais, é outra direção. Embora algumas empresas estejam explorando o EEG para interfaces cérebro-computador, ele ainda é principalmente um sistema de sensores focado em aplicações médicas e de saúde.

Conte a tecnologia da Q.ai entre as interfaces que podem fazer com que os computadores vestíveis que usamos se sintam mais conectados a nós. Isso é estranho e assustador, mas também é para onde acho que a maioria das empresas de óculos, wearables e VR/AR já está indo. Este não é um caso atípico. A mudança da Apple é outra parte da tendência.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui