Agentes de IA e a nova superfície de ataque: do perímetro ao comportamento

Editorial

Agentes de IA e a nova superfície de ataque: do perímetro ao comportamento

A NIS2 nasceu num mundo em que a conversa pública sobre risco gira sobretudo em torno da indisponibilidade: ransomware, DDoS, falhas de fornecedores. A própria diretiva, porém, é mais ampla e agnóstica: exige gestão de risco, controlo de acessos e segurança da cadeia de abastecimento, entre outros aspetos

E eis que, no início de 2026, os agentes de IA começam a ser usados de forma alargada, ao princípio, pelo menos, em desenvolvimento de software, e mudam o eixo da conversa. Quando uma aplicação, tenha ela a forma que tiver, deixa de ser ferramenta e passa a ser um “colega” que decide, escreve código, abre tickets, transfere ficheiros, envia emails e negocia com API, a superfície de ataque deixa de ser perímetro e passa a ser comportamento.

Os agentes introduzem brechas novas e ainda mal enquadradas na prática regulatória e operacional: identidade delegada (tokens persistentes, chaves partilhadas, service accounts sem dono), permissões acumulativas (cada integração acrescenta um caminho de exfiltração de dados), prompt injection e envenenamento de dados (o atacante persuade em vez de explorar portas), cadeias de ferramentas e plugins com dependências opacas, e atualizações de modelo que alteram decisões em produção sem controlo de alteração. Há também um problema de prova: como demonstrar, num incidente, o que o agente “viu”, que contexto recebeu, que ferramentas acionou e por que executou uma ação concreta?

Isto já não é hipotético. Há organizações a dar a agentes privilégios de escrita em repositórios, sistemas de CRM e de faturação, bases de dados e fluxos de aprovação. Um erro ou manipulação passa a ter a escala e a velocidade de um utilizador super-privilegiado, mas sem o instinto humano de cautela. E quando o agente falha, a tentação é atribuir o evento à imprevisibilidade do modelo, como se isso fosse justificação plausível, ignorando que a responsabilidade emerge da cadeia inteira: modelo base, fornecedor, integrador e entidade que delega credenciais.

É aqui que se começa a desenhar uma NIS3, ou equivalente, que torne explícitos os cuidados a ter neste novo mundo. Não por falta de regras, mas por falta de encaixe entre governação da entidade e segurança do sistema de IA. Terá de tratar agentes como infra-estruturas operacionais autónomas: inventário obrigatório (o que existe, onde atua, com que credenciais), limites de autonomia por classe de risco, segregação e rotação de credenciais, privilégio mínimo com elevação controlada, registos auditáveis que permitam reconstruir a sequência factual (inputs, contexto entregue, ferramentas invocadas e outputs), testes de segurança específicos para interação (red teaming de prompts e de cadeias de ferramentas), e deveres claros para fornecedores e integradores sobre actualizações, deriva de comportamento e vulnerabilidades conhecidas. E na notificação de incidentes, “foi o agente” não pode funcionar como biombo: tem de haver responsabilidade técnica e organizacional, distribuída com critério ao longo da cadeia.

No novo mundo dos agentes, um pedido, ainda que bem formulado, pode tornar-se a vulnerabilidade dominante. A regulação tem de acompanhar esta mudança antes que a autonomia se transforme em ataque por procuração.

Tags

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 60 MARÇO 2026

IT INSIGHT Nº 60 MARÇO 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.