A Microsoft destacou vários riscos com agentes de inteligência synthetic (IA) em seu último relatório de segurança. A visão mais interessante é sobre os “agentes duplos de IA”, que são basicamente agentes com privilégios excessivos, mas sem salvaguardas suficientes. Isso os torna vulneráveis a ataques imediatos de engenharia por parte de malfeitores e os transforma em “agentes duplos”. Com estas ferramentas a tornarem-se cada vez mais populares no espaço empresarial, o relatório de segurança cibernética destaca as lacunas de segurança que as empresas devem abordar para proteger os seus dados sensíveis.
Microsoft destaca riscos com agentes duplos de IA
A gigante da tecnologia sediada em Redmond publicado descobertas de sua telemetria e pesquisa próprias no último relatório Cyber Pulse. Este relatório centra-se no aumento da adoção de agentes de IA e nos riscos de segurança que daí decorrem. “Dados recentes da Microsoft indicam que essas equipes de agentes humanos estão crescendo e sendo amplamente adotadas globalmente”, disse a empresa em um weblog.
Somando-se a isso, o relatório afirma que mais de 80% das empresas Fortune 500 estão atualmente implantando agentes de IA construídos com ferramentas de baixo ou nenhum código. A Microsoft diz que esta é uma tendência preocupante, já que os agentes criados usando codificação vibe não terão os protocolos de segurança fundamentais necessários para um ambiente corporativo.
No relatório, a gigante da tecnologia menciona que os agentes de IA requerem proteção aumentando a observabilidade, a governança e as medidas de segurança baseadas nos princípios Zero Belief. A confiança zero é essencialmente uma estrutura de segurança baseada no princípio de “nunca confiar, sempre verificar”, assumindo que nenhum usuário ou dispositivo, dentro ou fora da rede, é confiável por padrão.
Uma tendência interessante mencionada no relatório é o conceito de agentes duplos de IA. A Microsoft afirma que os agentes de IA desenvolvidos pelas empresas hoje têm privilégios excessivos, o que representa uma ameaça à segurança. “Os malfeitores podem explorar o acesso e os privilégios dos agentes, transformando-os em ‘agentes duplos’ involuntários. Assim como os funcionários humanos, um agente com muito acesso – ou com instruções erradas – pode se tornar uma vulnerabilidade, acrescentou a postagem.
Explicando o risco, a gigante da tecnologia disse que os pesquisadores documentaram como os agentes podem ser enganados por elementos de interface enganosos, como seguir instruções prejudiciais adicionadas a conteúdo common. Outro risco descoberto pelos pesquisadores é o redirecionamento de agentes por meio de enquadramento de tarefas manipulado.
Citando uma pesquisa multinacional com mais de 1.700 profissionais de segurança de dados encomendada pela Microsoft aos Grupos de Hipóteses, o relatório afirmou que 29% dos funcionários estão usando agentes de IA para tarefas de trabalho que não são sancionadas pelas equipes de TI.
“Este é o cerne de um dilema de risco cibernético. Os agentes de IA estão trazendo novas oportunidades para o native de trabalho e estão se integrando às operações internas. Mas o comportamento arriscado de um agente pode amplificar ameaças internas e criar novos modos de falha para organizações despreparadas para gerenciá-las”, afirma o relatório.












