Início Tecnologia As habilidades de hacking da IA ​​​​estão se aproximando de um ‘ponto...

As habilidades de hacking da IA ​​​​estão se aproximando de um ‘ponto de inflexão’

19
0

Vlad Ionescu e Ariel Herbert-Voss, cofundadores da startup de segurança cibernética ExecutarSybilficaram momentaneamente confusos quando sua ferramenta de IA, Sybil, os alertou sobre uma fraqueza nos sistemas de um cliente em novembro passado.

Sybil usa uma combinação de diferentes modelos de IA – bem como alguns truques técnicos proprietários – para verificar os sistemas de computador em busca de problemas que os hackers possam explorar, como um servidor sem patch ou um banco de dados mal configurado.

Neste caso, Sybil sinalizou um problema com a implantação do GraphQL federado pelo cliente, uma linguagem usada para especificar como os dados são acessados ​​pela net por meio de interfaces de programação de aplicativos (APIs). O problema significava que o cliente estava expondo inadvertidamente informações confidenciais.

O que intrigou Ionescu e Herbert-Voss foi que identificar o problema exigia um conhecimento extremamente profundo de vários sistemas diferentes e de como esses sistemas interagem. A RunSybil diz que desde então encontrou o mesmo problema com outras implantações do GraphQL – antes que alguém o tornasse público “Nós vasculhamos a Web e ele não existia”, diz Herbert-Voss. “Descobrir isso foi um passo de raciocínio em termos das capacidades dos modelos – uma mudança radical.”

A situação aponta para um risco crescente. À medida que os modelos de IA continuam a ficar mais inteligentes, a sua capacidade de encontrar bugs de dia zero e outras vulnerabilidades também continua a crescer. A mesma inteligência que pode ser usada para detectar vulnerabilidades também pode ser usada para explorá-las.

Canção do amanhecercientista da computação da UC Berkeley especializado em IA e segurança, diz que avanços recentes em IA produziram modelos que são melhores para encontrar falhas. O raciocínio simulado, que envolve a divisão dos problemas em partes constituintes, e a IA agente, como pesquisar na net ou instalar e executar ferramentas de software program, ampliaram as capacidades cibernéticas dos modelos.

“As capacidades de segurança cibernética dos modelos de fronteira aumentaram drasticamente nos últimos meses”, diz ela. “Este é um ponto de inflexão.”

No ano passado, Tune co-criou um benchmark chamado CyberGym para determinar quão bem os modelos de linguagem grandes encontram vulnerabilidades em grandes projetos de software program de código aberto. CyberGym inclui 1.507 vulnerabilidades conhecidas encontradas em 188 projetos.

Em julho de 2025, Claude Sonnet 4 da Anthropic conseguiu encontrar cerca de 20% das vulnerabilidades no benchmark. Em outubro de 2025, um novo modelo, Claude Sonnet 4.5, conseguiu identificar 30 por cento. “Os agentes de IA são capazes de encontrar o dia zero e com um custo muito baixo”, diz Tune.

Tune diz que esta tendência mostra a necessidade de novas contramedidas, incluindo a ajuda da IA ​​aos especialistas em segurança cibernética. “Precisamos pensar em como realmente fazer com que a IA ajude mais no lado da defesa, e podemos explorar diferentes abordagens”, diz ela.

Uma ideia é que as empresas de IA de ponta compartilhem modelos com pesquisadores de segurança antes do lançamento, para que possam usar os modelos para encontrar bugs e proteger sistemas antes de um lançamento geral.

Outra contramedida, diz Tune, é repensar como o software program é construído. Seu laboratório mostrou que é possível usar IA para gerar código mais seguro do que o que a maioria dos programadores usa hoje. “No longo prazo, acreditamos que essa abordagem segura desde o projeto realmente ajudará os defensores”, diz Tune.

A equipe RunSybil afirma que, no curto prazo, as habilidades de codificação dos modelos de IA podem significar que os hackers ganharão vantagem. “A IA pode gerar ações em um computador e gerar código, e essas são duas coisas que os hackers fazem”, diz Herbert-Voss. “Se essas capacidades forem aceleradas, isso significa que as ações ofensivas de segurança também serão aceleradas.”


Esta é uma edição de Will Knight’s Boletim informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.

avots