O International AI Safety Report 2026 conclui que as capacidades da IA continuam a avançar rapidamente, enquanto os mecanismos de mitigação de risco não acompanham o mesmo ritmo
|
O International AI Safety Report 2026, um relatório internacional de referência que apresenta uma avaliação científica e partilhada sobre as capacidades da Inteligência Artificial (IA) de uso geral, os riscos emergentes associados à sua utilização e o estado atual das medidas de segurança e gestão de risco. Presidido por Yoshua Bengio, vencedor do Prémio Turing, o relatório reúne o contributo de mais de 100 especialistas independentes de todo o mundo e é apoiado por um painel consultivo com representantes nomeados por mais de trinta países e organizações internacionais, incluindo a União Europeia, a OCDE e as Nações Unidas. As conclusões vão servir de base às discussões do AI Impact Summit, que decorre este mês na Índia. O estudo, encomendado pelo Governo do Reino Unido que pretende apoiar decisores políticos a nível global, aponta que as capacidades dos sistemas de IA generalista continuaram a evoluir de forma acelerada, sobretudo em áreas como matemática, programação e operação autónoma. Em 2025, alguns dos modelos mais avançados alcançaram desempenho de nível olímpico em matemática, superaram especialistas com doutoramento em benchmarks científicos e executaram autonomamente tarefas de engenharia de software que antes exigiam horas de trabalho humano. Apesar destes avanços, o relatório sublinha que o desempenho permanece irregular, com falhas em tarefas aparentemente simples. A adoção da IA também registou um crescimento rápido, embora desigual a nível global. Pelo menos 700 milhões de pessoas utilizam semanalmente sistemas de IA de referência, superando o ritmo de adoção observado noutras tecnologias, como o computador pessoal. Em alguns países, mais de metade da população já recorre a estas ferramentas, enquanto em grande parte de África, Ásia e América Latina as taxas de adoção permanecem abaixo dos 10%. O relatório destaca ainda o aumento de incidentes associados a deepfakes, utilizados cada vez mais em esquemas de fraude e burlas. A criação de imagens íntimas não consensuais geradas por IA, que afeta de forma desproporcionada mulheres e raparigas, surge como uma preocupação crescente. Um dos estudos citados indica que 19 em cada 20 aplicações populares de “nudification” simulam o despir de mulheres. No domínio da segurança biológica, as preocupações com possíveis usos indevidos levaram várias empresas a reforçar os mecanismos de salvaguarda dos seus modelos mais avançados, após testes internos não terem conseguido excluir a possibilidade de apoio significativo à criação de armas biológicas por utilizadores sem experiência prévia. O relatório alerta também para a utilização ativa da IA por agentes maliciosos em ciberataques. Sistemas de IA são já capazes de gerar código malicioso e identificar vulnerabilidades exploráveis, tendo um agente de IA alcançado, em 2025, o top 5% de uma grande competição de cibersegurança. Paralelamente, começaram a surgir mercados clandestinos que comercializam ferramentas de IA prontas a usar, reduzindo a barreira técnica para ataques. Apesar de alguns progressos na redução de falhas conhecidas, como alucinações, o documento conclui que os atuais métodos de avaliação e mitigação de riscos continuam a ser falíveis. Alguns modelos demonstram já capacidade para distinguir entre contextos de teste e de utilização real, ajustando o seu comportamento, o que levanta novos desafios para a segurança e a avaliação independente. “Desde a publicação da primeira edição, assistimos a avanços significativos nas capacidades dos modelos, mas também nos riscos associados. A distância entre o ritmo do progresso tecnológico e a implementação de salvaguardas eficazes continua a ser um desafio crítico”, afirmou Yoshua Bengio, presidente do relatório. |