Início Tecnologia CEO da ElevenLabs: Voz é a próxima interface para IA

CEO da ElevenLabs: Voz é a próxima interface para IA

5
0

O cofundador e CEO da ElevenLabs, Mati Staniszewski, diz que a voz está se tornando a próxima grande interface para IA – a forma como as pessoas interagirão cada vez mais com as máquinas à medida que os modelos vão além do texto e das telas.

Falando em Web Summit em DohaStaniszewski disse ao TechCrunch que modelos de voz como os desenvolvidos pela ElevenLabs recentemente foram além da simples imitação da fala humana – incluindo emoção e entonação – para trabalhar em conjunto com as capacidades de raciocínio de grandes modelos de linguagem. O resultado, argumentou ele, é uma mudança na forma como as pessoas interagem com a tecnologia.

Nos próximos anos, disse ele, “esperamos que todos os nossos telefones voltem aos nossos bolsos e possamos mergulhar no mundo actual que nos rodeia, com a voz como mecanismo que controla a tecnologia”.

Essa visão impulsionou o aumento de US$ 500 milhões da ElevenLabs esta semana, com uma avaliação de US$ 11 bilhões, e é cada vez mais compartilhada por toda a indústria de IA. A OpenAI e o Google fizeram da voz o foco central de seus modelos de próxima geração, enquanto a Apple parece estar construindo silenciosamente tecnologias sempre ativas e adjacentes à voz por meio de aquisições como a Q.ai. À medida que a IA se espalha para wearables, carros e outros novos hardwares, o controle está se tornando cada vez menos uma questão de tocar nas telas e mais uma questão de falar, tornando a voz um campo de batalha basic para a próxima fase do desenvolvimento da IA.

O sócio geral da Iconiq Capital, Seth Pierrepont, repetiu essa visão no palco do Net Summit, argumentando que, embora as telas continuem a ser importantes para jogos e entretenimento, os métodos de entrada tradicionais, como teclados, estão começando a parecer “desatualizados”.

E à medida que os sistemas de IA se tornam mais agentes, disse Pierrepont, a própria interação também mudará, com os modelos ganhando proteções, integrações e contexto necessários para responder com solicitações menos explícitas dos usuários.

Staniszewski apontou essa mudança de agência como uma das maiores mudanças em curso. Em vez de explicar todas as instruções, ele disse que os futuros sistemas de voz dependerão cada vez mais da memória persistente e do contexto construído ao longo do tempo, tornando as interações mais naturais e exigindo menos esforço dos usuários.

Evento Techcrunch

Boston, MA
|
23 de junho de 2026

Essa evolução, acrescentou ele, influenciará a forma como os modelos de voz serão implantados. Embora os modelos de áudio de alta qualidade tenham vivido em grande parte na nuvem, Staniszewski disse que a ElevenLabs está trabalhando em uma abordagem híbrida que combina nuvem e processamento no dispositivo – um movimento que visa oferecer suporte a novo {hardware}, incluindo fones de ouvido e outros wearables, onde a voz se torna uma companheira constante, em vez de um recurso com o qual você determine quando interagir.

A ElevenLabs já está fazendo parceria com a Meta para levar sua tecnologia de voz a produtos, incluindo Instagram e Horizon Worlds, a plataforma de realidade digital da empresa. Staniszewski disse que também estaria aberto a trabalhar com a Meta em seus óculos inteligentes Ray-Ban, à medida que as interfaces acionadas por voz se expandissem para novos formatos.

Mas à medida que a voz se torna mais persistente e incorporada no {hardware} quotidiano, abre a porta a sérias preocupações em torno da privacidade, da vigilância e da quantidade de dados pessoais que os sistemas baseados em voz irão armazenar à medida que se aproximam da vida quotidiana dos utilizadores – algo que empresas como a Google já foram acusadas de abusar.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui