Oito em cada dez colaboradores utilizam IA não autorizada no trabalho

Um relatório da UpGuard revela que existe um paradoxo na utilização de ferramentas de IA generativa não aprovada, em que a alta liderança e 40% dos colaboradores com formação em segurança usam ativamente o shadow AI

Oito em cada dez colaboradores utilizam IA não autorizada no trabalho

Um novo relatório da UpGuard, intitulado “State of Shadow AI”, revela uma utilização generalizada de ferramentas de Inteligência Artificial (IA) generativa não aprovadas, ou shadow AI, por parte dos colaboradores no local de trabalho, expondo as empresas a riscos de segurança crescentes.

Os dados demonstram que oito em cada dez colaboradores estão a utilizar ferramentas de IA não autorizadas, ignorando ativamente a governação corporativa a todos os níveis hierárquicos.

A não conformidade não se restringe às bases. O relatório aponta que as altas hierarquias são igualmente vulneráveis: 90% dos líderes de segurança relatam utilizar ferramentas de IA não aprovadas no trabalho; 68% dos líderes de segurança, incluindo os CISO, admitem incorporar IA não autorizada nos seus fluxos de trabalho diários; e a liderança de topo tem 50% mais probabilidade de utilizar ferramentas não aprovadas. Esta é uma preocupação crescente para as empresas, uma vez que os trabalhadores expõem as suas organizações a maiores riscos de segurança.

O relatório destaca um paradoxo crítico: 40% dos colaboradores que referem ter recebido formação em segurança em IA e ter uma melhor compreensão dos riscos, são também os que utilizam ferramentas não aprovadas com maior frequência.

Esta correlação sugere que os métodos tradicionais de sensibilização para a segurança não são eficazes para conter o uso não autorizado e, em vez disso, estão a permitir que os colaboradores se tornem “utilizadores avançados de IA” sem o controlo adequado.

“O shadow AI representa um desafio para a manutenção da confiança entre empregadores e empregados”, refere Greg Pollock, head of Research and Insights da UpGuard. “Os nossos dados mostram que o aumento da formação e da sensibilização para a segurança não reduz o uso crescente do shadow AI, na verdade aumenta-a. As empresas precisam de se envolver melhor com os seus colaboradores sobre a IA para canalizar essa curiosidade de forma adequada”.

A utilização generalizada do shadow AI tem implicações sérias para a segurança de dados corporativos: 70% dos colaboradores sabem que dados sensíveis estão a ser partilhados com ferramentas de IA nos seus locais de trabalho; e 23% dos CISO sabem que palavras-passe e outras credenciais estão a ser partilhadas com ferramentas de IA não aprovadas.

Além disso, o relatório indica que 27% dos colaboradores confiam mais na IA do que nos gestores ou colegas, sublinhando uma mudança cultural que impacta a tomada de decisões e a partilha de informação.

O relatório conclui que o uso não autorizado de IA no local de trabalho irá continuar a aumentar, a menos que seja implementada uma governação reforçada. Bloquear aplicações não é uma solução viável, visto que 41% dos colaboradores encontram uma forma de contornar estas restrições.

A UPGuard recomenda uma mudança estratégica de uma abordagem restritiva baseada no medo para uma abordagem de capacitação guiada. Esta nova abordagem deverá focar-se em proporcionar visibilidade sobre o uso da IA; implementar mecanismo de proteção inteligentes; e oferecer ferramentas comprovadas para tornar o caminho seguro o caminho de menor resistência.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 58 Novembro 2025

IT INSIGHT Nº 58 Novembro 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.