Até agora, o objectivo ultimate declarado para as empresas que desenvolvem produtos de inteligência synthetic (IA) tem sido quase universalmente alcançar a inteligência synthetic geral (AGI) – uma ambição mal definida que pode ser melhor resumida como uma IA hipotética que seja capaz de igualar e superar as capacidades cognitivas dos humanos. Mas agora que basicamente apostámos toda a economia em atingir esse valor de referência e destinamos literalmente biliões de dólares a centros de dados sugadores de recursos com a intenção expressa de fornecer o poder de processamento necessário para construir a máquina-deus, a indústria está subitamente e colectivamente a recuar na promessa.
Essa virada (francamente, bastante previsível) começou no ano passado. Em agosto, o CEO da OpenAI, Sam Altman disse AGI “não é um termo muito útil”, o que também pareceu desempenhar um papel na decisão de sua empresa de falar sobre o desenvolvimento de uma IA capaz de pesquisa autônoma, em vez de mencionar AGI. Isso foi digno de nota, visto que a OpenAI period tecnicamente a única empresa com uma definição formal de AGI: um sistema de IA que pode gerar pelo menos US$ 100 bilhões em lucros, de acordo com documentos internos vazados.
Outros na indústria também começaram a jogar água fria no conceito AGI. O CEO da Salesforce, Marc Benioff, um cara tão obcecado por IA que considerou mudar o nome de sua empresa para refletir sua afinidade eterna com a tecnologia, descreveu a AGI como uma “hipnose” de advertising e disse que é “extremamente suspeito” de qualquer um que a exagere. Dario Amodei, CEO da Anthropic, disse que “sempre não gostei” o termo AGI. Recentemente, a presidente da Antrópica, Daniela Amodei disse AGI é um termo “desatualizado”. O CEO da Microsoft, Satya Nadella, chegou ao ponto de dizer ele não acha que “AGI conforme definido, pelo menos por nós em nosso contrato, será alcançado tão cedo”, e disse que qualquer conquista autodeclarada de AGI é apenas “hackeamento de referência”, o que é engraçado, considerando que a Microsoft estava essencial para a elaboração da definição de geração de dinheiro da OpenAI da AGI.
Algumas das posturas da indústria em toda esta mudança da AGI estão a ser posicionadas como investigadores que simplesmente têm objectivos ainda mais elevados em mente – como se a AGI fosse demasiado limitante para descrever verdadeiramente do que a IA na sua capacidade máxima é capaz. Mas há uma explicação mais simples para esta mudança na linguagem usada para descrever o objectivo ultimate da IA: grandes modelos de linguagem, a tecnologia na qual a maioria das grandes empresas de IA investiram quantidades infinitas de dinheiro e dados para alcançar alguma forma de inteligência geral, simplesmente não são capazes de realmente atingir esse valor de referência.
Essa é a conclusão que os críticos da indústria de IA já têm há algum tempo. Pessoas como Gary Marcus, um notável cético em IA, disse“o escalonamento puro não nos levará à AGI”. Conclusões semelhantes podem ser encontradas em pesquisas recentes, incluindo uma papel da Apple que conclui que os LLMs provavelmente não são capazes de alcançar AGI e um estudo do Laboratório de Mineração de Dados e Aprendizado de Máquina que conclui “raciocínio em cadeia de pensamento” em LLMs é “uma miragem”. Isso sugere que o AGI não é apenas uma métrica ruim porque é difícil de definir; provavelmente não é possível com esses bots idiotas.













