Um estudo recente da Gartner mostra que ataques com recurso a inteligência artificial generativa estão a expandir-se, com as empresas a enfrentarem sobretudo tentativas de manipulação através de deepfakes e exploração de aplicações
Nos últimos 12 meses, 62% das organizações foram alvo de ataques deepfake e 32% sofreram exploração de aplicações de Inteligência Artificial (IA), revelam dados de uma pesquisa internacional conduzida pela Gartner. O relatório, que analisou respostas de 302 líderes de cibersegurança da América do Norte, EMEA e Ásia-Pacífico, mostra que o impacto da Inteligência Artificial Generativa (IA generativa) no cenário de ameaças já é significativo e está em crescimento. Entre os casos relatados, 29% dos responsáveis de segurança indicaram que as suas organizações foram vítimas de ataques à infraestrutura de aplicações empresariais de IA generativa. Estas situações vão além do uso de deepfakes em engenharia social, incluindo também a manipulação de prompts em assistentes de chatbot e outros modelos multimodais. De acordo com a Gartner, este tipo de exploração procura induzir respostas enviesadas ou mesmo maliciosas, através da exploração de fragilidades na forma como os modelos interpretam pedidos. Durante o Gartner Security & Risk Management Summit, em Londres, Akif Khan, vice-presidente analista da consultora, afirmou que “à medida que a adoção acelera, os ataques que utilizam IA generativa para phishing, deepfakes e engenharia social tornaram-se comuns, enquanto outras ameaças – como ataques à infraestrutura de aplicações de IA generativa e manipulações baseadas em prompt – estão a surgir e a ganhar força”. Embora 67% dos líderes de cibersegurança considerem que os riscos emergentes exigem mudanças profundas nas abordagens atuais, a Gartner recomenda uma estratégia mais equilibrada. Em vez de apostar em alterações radicais ou investimentos isolados, a consultora defende o reforço dos controlos centrais existentes e a adoção de medidas específicas para cada nova categoria de risco. |