A Microsoft reforçou o seu compromisso com uma inteligência artificial responsável, destacando avanços na governação, mitigação de riscos e conformidade regulatória, com o objetivo de promover uma adoção ética, segura e escalável da tecnologia
A Microsoft divulgou os resultados do seu segundo Responsible AI Transparency Report, destacando os mais recentes avanços na construção e implementação de sistemas de Inteligência Artificial (IA) de forma ética e segura, no apoio aos seus clientes e parceiros, e na promoção de uma cultura de aprendizagem e melhoria contínua. Com a adoção crescente da IA por empresas de todas as dimensões, aumentou também a necessidade de uma governação eficaz. Em resposta a este contexto, a Microsoft tem assistido a um interesse crescente por parte de clientes e parceiros em compreender como a empresa tem escalado o seu programa de IA responsável, recorrendo a ferramentas e práticas que operacionalizam princípios éticos de alto nível. Tal como a Microsoft, muitas organizações reconhecem que construir IA de confiança não é apenas uma boa prática, mas também uma vantagem competitiva. De acordo com um estudo da IDC sobre IA Responsável, mais de 30% dos inquiridos identificaram a falta de soluções de governação e gestão de risco como o principal entrave à adoção e escalabilidade da IA. Em contraste, mais de 75% das empresas que utilizam ferramentas de IA responsável reportaram melhorias significativas em áreas como privacidade de dados, experiência do cliente, qualidade da decisão, reputação da marca e confiança geral. Nos últimos meses, surgiram também novos esforços legislativos e regulamentares. Como descrito no relatório, continuam a ser definidas práticas eficazes que incentivam uma adoção global e segura da tecnologia. A Microsoft afirma-se empenhada em contribuir com conhecimento prático para os debates internacionais sobre a criação de normas e padrões para IA. Em 2024, a empresa intensificou os seus investimentos em ferramentas, políticas e práticas de IA responsável, de modo a acompanhar o ritmo acelerado da inovação. Reforçou os seus mecanismos de medição e mitigação de riscos, alargando-os a modalidades como imagem, áudio e vídeo, e introduziu suporte para sistemas agentes. Simultaneamente, adotou uma postura proativa face às novas regulamentações, com destaque para o AI Act da União Europeia, oferecendo aos clientes recursos que permitem inovar de forma legalmente conforme. Implementou ainda revisões prévias e práticas de “red teaming” para todos os modelos lançados no Azure OpenAI Service, suportadas por uma nova ferramenta interna de gestão de fluxos de trabalho alinhada com o seu Responsible AI Standard. A Microsoft manteve o foco em aplicações de alto impacto, sobretudo nas áreas da saúde e ciências, através da atuação da sua equipa de Sensitive Uses e Emerging Technologies. Este grupo promoveu a antecipação de riscos emergentes e contribuiu para a criação de novas políticas internas. Através da fundação do AI Frontiers Lab, a empresa reforçou também a investigação fundamental, com o objetivo de explorar os limites da capacidade, eficiência e segurança da IA. Em paralelo, aprofundou a colaboração com stakeholders globais, promovendo práticas de governação coerentes e apoiando o desenvolvimento de normas internacionais para a testagem e adoção de sistemas de IA de forma responsável. Em 2025, a Microsoft compromete-se a continuar a liderar uma adoção segura e ética da inteligência artificial, com três áreas estratégicas em foco: ferramentas de gestão de risco mais ágeis, adaptadas à rápida evolução da tecnologia, com partilha ativa de testes, medidas de mitigação e boas práticas entre equipas, promoção de uma governação eficaz em toda a cadeia de valor da IA, clarificando papéis e responsabilidades, desde os criadores de modelos até aos utilizadores finais, impulso a um ecossistema dinâmico, baseado na criação de normas partilhadas e ferramentas robustas para a medição e avaliação de riscos, com investigação contínua e disseminação dos resultados para o ecossistema global. |