O Google diz que os hackers estão abusando do Gemini para acelerar ataques cibernéticos, e isso não está limitado a spam de phishing cafona. Em um novo Relatório do Grupo de Inteligência de Ameaças do Googleafirma que grupos apoiados pelo Estado usaram o Gemini em várias fases de uma operação, desde a pesquisa inicial do alvo até o trabalho pós-compromisso.
A atividade abrange clusters ligados à China, ao Irão, à Coreia do Norte e à Rússia. O Google diz que as solicitações e resultados observados abrangeram criação de perfil, cópia de engenharia social, tradução, ajuda de codificação, teste de vulnerabilidade e depuração quando as ferramentas quebram durante uma intrusão. A ajuda rápida em tarefas rotineiras ainda pode mudar o resultado.
Ajuda de IA, o mesmo handbook de sempre
Os pesquisadores do Google enquadram o uso da IA como aceleração, não como mágica. Os invasores já executam reconhecimento, elaboram iscas, ajustam malware e perseguem erros. Gemini pode estreitar esse ciclo, especialmente quando os operadores precisam de reescritas rápidas, suporte de linguagem ou correções de código sob pressão.
O relatório descreve atividades ligadas à China, onde um operador adotou uma personalidade especializada em segurança cibernética e pressionou a Gemini a automatizar a análise de vulnerabilidades e produzir planos de testes direcionados em um cenário inventado. O Google também afirma que um ator baseado na China usou repetidamente o Gemini para depuração, pesquisa e orientação técnica ligada a invasões. Tem menos a ver com novas táticas e mais com menos redutores de velocidade.
O risco não é apenas phishing
A grande mudança é o ritmo. Se os grupos puderem interagir mais rapidamente na mira e nas ferramentas, os defensores terão menos tempo entre os primeiros sinais e o dano actual. Isso também significa menos pausas óbvias onde erros, atrasos ou trabalho handbook repetido podem aparecer nos registros.
O Google também sinaliza uma ameaça diferente que não se parece em nada com golpes clássicos: extração de modelo e destilação de conhecimento. Nesse cenário, os atores com acesso autorizado à API martelam o sistema com instruções para replicar seu desempenho e motivos e, em seguida, usam esse conhecimento para treinar outro modelo. O Google enquadra isso como um dano à propriedade comercial e intelectual, com potencial risco posterior se for ampliado, incluindo um exemplo envolvendo 100.000 prompts destinados a replicar comportamento em tarefas que não sejam em inglês.
O que você deve assistir a seguir
O Google afirma que desativou contas e infraestrutura vinculadas a abusos documentados do Gemini e adicionou defesas direcionadas aos classificadores do Gemini. Ela também afirma que continua testando e conta com grades de segurança.
Para as equipes de segurança, a conclusão prática é presumir que os ataques assistidos por IA serão mais rápidos, não necessariamente mais inteligentes. Acompanhe melhorias repentinas na qualidade da isca, iteração mais rápida de ferramentas e padrões incomuns de uso de API e, em seguida, restrinja os runbooks de resposta para que a velocidade não se torne a maior vantagem do invasor.













