Julho marcou um ponto de inflexão na regulação da inteligência artificial, tanto na Europa como nos Estados Unidos, com foco renovado na inovação responsável e na gestão de riscos, segundo a Forrester
Num artigo publicado no seu blog, a Forrester alerta para uma viragem decisiva na regulação da Inteligência Artificial (IA) a nível mundial, com o mês de julho a representar o momento em que o equilíbrio se inclinou definitivamente para a inovação responsável, sustentada por exigências de transparência e medidas de proteção. Nos Estados Unidos, a entrada em vigor de um novo pacote legislativo a 1 de julho trouxe consigo um dado marcante: a eliminação da proposta de moratória que pretendia impedir os estados norte-americanos de criarem e aplicarem os seus próprios regulamentos de IA durante dez anos. a consultora afirma que esta decisão reforça a liberdade dos estados como a Califórnia, o Colorado e Nova Iorque para continuarem a legislar autonomamente sobre esta matéria. Segundo a Forrester, a tentativa de moratória foi motivada pela insatisfação das empresas tecnológicas com o mosaico de regulações estaduais, considero difícil de acompanhar e gerir. No entanto, a sua remoção deixa claro que os legisladores “não podem servir dois senhores: os seus eleitores e as grandes empresas de IA”. Ainda nos Estados Unidos, a publicação do novo Plano de Ação de IA da Casa Branca, no passado dia 23 de julho, não altera substancialmente o cenário. Embora continue a associar o financiamento federal a uma visão restritiva sobre certas leis estaduais, a falta de definição de conceitos como “onerosas” ou “restritivas à inovação” limita a eficácia dessa abordagem. A Forrester antecipa que este plano terá impacto reduzido, sobretudo em estados menos dependentes de fundos federais. Do lado europeu, a Comissão Europeia rejeitou formalmente a possibilidade de adiar a implementação da Lei da IA, contrariando os apelos de alguns setores industriais e encerrando as especulações que se arrastavam há meses. A Forrester salienta que a aplicação do regulamento segue conforme o cronograma previamente definido, com algumas obrigações já em vigor e outras com entrada prevista para 2 de agosto. Entre os requisitos que entram em vigor em breve, a consultora destaca as obrigações dirigidas aos fornecedores de modelos de IA de uso geral, como é o caso dos modelos generativos, que passam a ter responsabilidades diretas no cumprimento das normas. Ainda que estas obrigações recaiam formalmente sobre os fornecedores, toda a cadeia de valor e as práticas de gestão de risco das empresas que utilizam esses modelos serão impactadas. Como complemento, foi também publicado o Código de Prática para Modelos de IA de Uso Geral, um instrumento voluntário concebido por um grupo de 13 especialistas e validado por mais de mil partes interessadas. Este código aborda aspetos como segurança, direitos de autor e transparência, procurando orientar os fornecedores de IA generativa na preparação para a nova realidade regulatória. Para a Forrester, o código de prática pode vir a ser igualmente útil a empresas que pretendam rever ou reforçar as suas políticas de gestão de risco junto de terceiros, especialmente no que diz respeito à utilização de tecnologias de IA fornecidas por terceiros. A consultora sublinha ainda que os desenvolvimentos nos dois lados do Atlântico devem ser vistos como pontos de viragem para as estratégias de conformidade em IA, sobretudo para organizações multinacionais que operam ou têm clientes nestas geografias. Nesse sentido, a Forrester recomenda que as empresas acompanhem de perto os desenvolvimentos legislativos estaduais nos Estados Unidos e, simultaneamente, usem a Lei da IA da UE como uma oportunidade para estruturar abordagens fiáveis, com foco em privacidade, segurança, governação de dados e avaliação de riscos. A “pirâmide de risco” prevista na legislação europeia é, segundo a consultora, uma ferramenta valiosa para orientar esse esforço. |