Dario Amodei tem algumas reflexões sobre inteligência synthetic. Na verdade, cerca de 38 páginas de pensamentos. O fundador da Anthropic, criador de Claude, publicou na segunda-feira um extenso ensaio intitulado “A adolescência da tecnologia”, no qual ele discute o que considera o imenso potencial de perigos que alcançar o desenvolvimento de uma superinteligência representaria para o mundo.
A propósito, sua empresa continuará a desenvolver IA.
Amodei, que abandona estes ensaios de vez em quando, sugere que a humanidade está prestes a entrar numa nova period. “Acredito que estamos entrando em um rito de passagem, ao mesmo tempo turbulento e inevitável, que testará quem somos como espécie.” Também poderá ser a nossa última period se as coisas correrem mal. “A humanidade está prestes a receber um poder quase inimaginável, e não está profundamente claro se os nossos sistemas sociais, políticos e tecnológicos possuem a maturidade para exercê-lo”, escreveu Amodei, afirmando mais tarde que “o autoritarismo possibilitado pela IA me aterroriza”.
Nota lateral: A Anthropic ofereceu Claude ao governo federal da administração Trump para US$ 1 por ano.
Para seu crédito, Amodei tem uma imaginação vívida que ele desenvolve ao longo do ensaio. Ele relata a época em que o movimento religioso Aum Shinrikyo liberou gás nervoso sarin no metrô de Tóquio em 1995, resultando em 14 mortes e muitos feridos. Ele então sugeriu que colocar um “gênio no bolso de todos” removeria a barreira para a realização de tal ataque, ou mesmo de ataques mais mortíferos.
“O solitário perturbado que quer matar pessoas, mas não tem disciplina ou habilidade para fazê-lo, será agora elevado ao nível de capacidade do virologista PhD, que provavelmente não terá essa motivação”, escreveu ele. “Estou preocupado que haja potencialmente um grande número dessas pessoas por aí e que, se tiverem acesso a uma maneira fácil de matar milhões de pessoas, mais cedo ou mais tarde, uma delas o fará”.
A propósito de nada, você sabia que uma das avaliações que a Anthropic publicado em seu relatório “System card” para Claude Opus 4.5 foi um teste em que o modelo foi encarregado de ajudar os virologistas a reconstruir um vírus desafiador?
Amodei está compreensivelmente impressionado com a taxa de melhoria que a IA tem visto nos últimos anos, mas alertou que se continuar a melhorar ao mesmo ritmo, então não estaremos longe de desenvolver uma superinteligência – o que pessoas como Amodei costumavam chamar de inteligência synthetic geral, mas que desde então se afastaram disso. “Se a exponencial continuar – o que não é certo, mas agora tem um histórico de uma década que a apoia – então não pode demorar mais do que alguns anos até que a IA seja melhor do que os humanos em essencialmente tudo”, escreveu ele.
O que isso significaria, exatamente? Amodei ofereceu uma analogia: “Suponhamos que literalmente um ‘país de génios’ se materializasse algures no mundo em ~2027. Think about, digamos, 50 milhões de pessoas, todas elas muito mais capazes do que qualquer vencedor do Prémio Nobel, estadista ou tecnólogo”, escreveu ele. “Suponha que você fosse o conselheiro de segurança nacional de um grande estado, responsável por avaliar e responder à situação. Think about, ainda, que porque os sistemas de IA podem operar centenas de vezes mais rápido que os humanos, este ‘país’ está operando com uma vantagem de tempo em relação a todos os outros países: para cada ação cognitiva que podemos realizar, este país pode realizar dez.”
A partir dessa estrutura, o CEO da Anthorpic disse que vale a pena considerar quais deveriam ser nossas maiores preocupações. Amodei apresentou os seus próprios – incluindo “Riscos de autonomia”, “uso indevido para destruição” e “uso indevido para tomada de poder” – e finalmente concluiu que o relatório sobre aquele país o consideraria “a mais grave ameaça à segurança nacional que enfrentámos num século, possivelmente de sempre”.
Um lembrete de que a Antrópica está construindo aquele país na analogia.
A Anthropic tem sido, mais do que qualquer outra empresa de IA, proativa na identificação de riscos associados ao desenvolvimento da IA e na defesa de um escrutínio regulatório adicional e de proteções ao consumidor (se você acredita que isso é legítimo ou uma forma de captura regulatória está nos olhos de quem vê, mas pelo menos é um bom jogo). Mas continua construindo a máquina que alerta que pode causar uma destruição iminente. Você não precisa construir a máquina da destruição! E, francamente, continuar a construí-lo mina a seriedade com que alguém deveria levar os avisos sobre ameaças existenciais.
Se houver uma preocupação actual de que a humanidade possa não estar madura o suficiente para lidar com a IA, talvez não a torne publicamente disponível para pessoas com barreiras mínimas de acesso, e então gabe-se de seus usuários ativos mensais.












