Início Tecnologia As empresas estão implantando agentes de IA mais rápido do que os...

As empresas estão implantando agentes de IA mais rápido do que os protocolos de segurança conseguem acompanhar, afirma a Deloitte

11
0

Nikada/E+/Getty Photos

Siga ZDNET: Adicione-nos como fonte preferencial no Google.


Principais conclusões da ZDNET

  • A adoção de agentes de IA entre as empresas está a crescer rapidamente.
  • Entretanto, o desenvolvimento de protocolos de segurança está atrasado.
  • A Deloitte recomenda a implementação de procedimentos de supervisão.

As empresas estão aumentando o uso de agentes de IA mais rapidamente do que construindo barreiras de proteção adequadas, de acordo com o último relatório State of AI within the Enterprise da Deloitte.

Publicado na quarta-feira e baseado num inquérito a mais de 3.200 líderes empresariais em 24 países, o estudo concluiu que 23% das empresas estão atualmente a utilizar agentes de IA “pelo menos moderadamente”, mas que este número deverá saltar para 74% nos próximos dois anos. Em contrapartida, a parcela de empresas que declaram não utilizá-los, atualmente de 25%, deverá diminuir para apenas 5%.

Além disso: 43% dos trabalhadores afirmam ter compartilhado informações confidenciais com a IA – incluindo dados financeiros e de clientes

No entanto, a ascensão de agentes – ferramentas de IA treinadas para executar tarefas em várias etapas com pouca supervisão humana – no native de trabalho não está sendo complementada com proteções adequadas. Apenas cerca de 21% dos entrevistados disseram à Deloitte que a sua empresa possui atualmente mecanismos robustos de segurança e supervisão para prevenir possíveis danos causados ​​por agentes.

“Dada a rápida trajetória de adoção da tecnologia, esta pode ser uma limitação significativa”, escreveu a Deloitte no seu relatório. “À medida que a IA de agência passa de projetos-piloto para implantações de produção, o estabelecimento de uma governança robusta deve ser essencial para capturar valor e, ao mesmo tempo, gerenciar riscos”.

O que poderia dar errado?

Empresas como OpenAI, Microsoft, Google, Amazon e Salesforce comercializaram agentes como ferramentas de aumento de produtividade, com a ideia central de que as empresas podem transferir para eles operações repetitivas e de baixo risco no native de trabalho, enquanto os funcionários humanos se concentram em tarefas mais importantes.

Além disso: Más vibrações: como um agente de IA codificou seu caminho para o desastre

Maior autonomia, porém, traz maiores riscos. Ao contrário dos chatbots mais limitados, que exigem avisos cuidadosos e constantes, os agentes podem interagir com diversas ferramentas digitais para, por exemplo, assinar documentos ou fazer compras em nome de organizações. Isso deixa mais espaço para erros, uma vez que os agentes podem se comportar de maneiras inesperadas – às vezes com consequências desastrosas – e ficar vulneráveis ​​a ataques imediatos de injeção.

Diminuir zoom

O novo relatório da Deloitte não é o primeiro a salientar que a adoção da IA ​​está a eclipsar a segurança.

Um estudo publicado em maio concluiu que a grande maioria (84%) dos profissionais de TI inquiridos afirmou que os seus empregadores já utilizavam agentes de IA, enquanto apenas 44% afirmaram ter políticas em vigor para common a atividade desses sistemas.

Além disso: como a OpenAI está defendendo o ChatGPT Atlas de ataques agora – e por que a segurança não é garantida

Outro estudo publicado em setembro pela organização sem fins lucrativos Nationwide Cybersecurity Alliance revelou que, embora um número crescente de pessoas use ferramentas de IA como o ChatGPT diariamente, inclusive no trabalho, a maioria delas o faz sem ter recebido qualquer tipo de treinamento de segurança de seus empregadores (ensinando-os, por exemplo, sobre os riscos de privacidade que acompanham o uso de chatbots).

E em Dezembro, a Gallup publicou os resultados de uma sondagem que mostrava que, embora a utilização de ferramentas de IA entre trabalhadores individuais tivesse aumentado desde o ano anterior, quase um quarto (23%) dos inquiridos afirmaram não saber se os seus empregadores estavam a utilizar a tecnologia a nível organizacional.

O resultado

Seria injusto para com os líderes empresariais, claro, exigir que tenham barreiras de proteção absolutamente à prova de balas em torno dos agentes de IA nesta fase muito inicial. A tecnologia evolui sempre mais rapidamente do que a nossa compreensão de como pode dar errado e, como resultado, as políticas a todos os níveis tendem a ficar atrasadas em relação à implementação.

Além disso: como essas leis estaduais de segurança de IA mudam a regulamentação nos EUA

Isso tem sido especialmente verdadeiro com a IA, uma vez que a quantidade de entusiasmo cultural e pressão económica que tem levado os desenvolvedores de tecnologia a lançar novos modelos e os líderes organizacionais a começarem a usá-los é indiscutivelmente sem precedentes.

Mas estudos iniciais, como o novo relatório State of Generative AI within the Enterprise da Deloitte, apontam para o que poderá muito bem tornar-se uma divisão perigosa entre a implantação e a segurança, à medida que as indústrias aumentam a utilização de agentes e outras poderosas ferramentas de IA.

Além disso: 96% dos profissionais de TI dizem que os agentes de IA são um risco à segurança, mas eles os estão implantando mesmo assim

Por enquanto, a supervisão deve ser a palavra de ordem: as empresas precisam de estar conscientes dos riscos associados à utilização interna de agentes e de ter políticas e procedimentos em vigor para garantir que não saem dos trilhos – e, se o fizerem, que os danos resultantes podem ser geridos.

“As organizações precisam de estabelecer limites claros para a autonomia dos agentes, definindo quais as decisões que os agentes podem tomar de forma independente e quais as que requerem aprovação humana”, recomenda a Deloitte no seu novo relatório. “Os sistemas de monitoramento em tempo actual que rastreiam o comportamento dos agentes e sinalizam anomalias são essenciais, assim como as trilhas de auditoria que capturam toda a cadeia de ações dos agentes para ajudar a garantir a responsabilização e permitir a melhoria contínua”.



avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui