Gartner prevê aumento de incidentes de segurança com IA generativa

Até 2028, 25% das aplicações empresariais de IA generativa vão ter incidentes de segurança e a adoção de IA com agência aumenta exposição a novos riscos

Gartner prevê aumento de incidentes de segurança com IA generativa

A Gartner prevê que, até 2028, 25% das aplicações empresariais de Inteligência Artificial (IA) generativa venham a registar pelo menos cinco incidentes de segurança de baixa gravidade por ano, um aumento significativo face aos 9% estimados para 2025.

O crescimento está diretamente ligado à rápida adoção de soluções de IA com agência e à integração de novas tecnologias como o Model Context Protocol (MCP), que introduzem novos vetores de ataque e expõem fragilidades nas práticas de segurança ainda em maturação.

Segundo Aaron Lord, Sr. Director Analyst da Gartner, o MCP foi concebido com foco na interoperabilidade, facilidade de utilização e flexibilidade, o que pode originar falhas de segurança sem supervisão contínua. O analista antecipa ainda que, até 2029, 15% das aplicações de IA generativa empresariais podem sofrer pelo menos um incidente de segurança grave por ano, face aos 3% registados em 2025.

A Gartner alerta que o entusiasmo em torno de frameworks como o MCP deve ser acompanhado por uma abordagem rigorosa à segurança. Entre os principais riscos identificados estão a exposição de dados, vulnerabilidades em componentes de terceiros e falhas associadas à integração de múltiplos sistemas.

O desenho do MCP privilegia a rapidez de desenvolvimento e a interoperabilidade, não incluindo mecanismos de segurança por defeito. Este fator aumenta o risco em cenários onde agentes de IA acedem a dados sensíveis, processam conteúdos não confiáveis e comunicam externamente em simultâneo.

A consultora recomenda que estes casos sejam considerados de alto risco, devido ao potencial de exfiltração de dados. Para mitigar estes cenários, as equipas de engenharia devem implementar processos formais de revisão de segurança, priorizar casos de uso de menor risco e definir controlos específicos para agentes de IA.

Entre as medidas recomendadas estão a adoção de mecanismos robustos de autenticação e autorização, ajustados ao contexto de agentes autónomos, bem como a mitigação de padrões de ameaça conhecidos, como ataques de content injection, riscos na cadeia de fornecimento e escalada de privilégios.

A Gartner sublinha ainda a importância de envolver especialistas de domínio na definição de regras e limites operacionais (guardrails), garantindo que o acesso a dados e recursos é controlado desde a origem.

À medida que a complexidade das soluções de IA com agência aumenta, a gestão de acessos e a manutenção de requisitos de compliance tendem a tornar-se mais exigentes, exigindo uma abordagem estruturada e integrada entre equipas de engenharia, segurança e dados.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 60 MARÇO 2026

IT INSIGHT Nº 60 MARÇO 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.