“Inovar não é correr riscos; é gerir riscos com responsabilidade”

Fazila Ahmad, Global Head of Data & AI Acceleration da EDP, partilhou no palco da IT Insight Talks a sua perspetiva sobre a inovação com inteligência artificial e partilhou como é que a EDP tem vindo a inovar na área

“Inovar não é correr riscos; é gerir riscos com responsabilidade”

Qual é a diferença entre o discurso sobre Inteligência Artificial (IA) nas empresas portuguesas e a implementação real?

Diria que é bom, entusiasmante, as pessoas estão excitadas. Em termos da implementação prática, ainda não chegámos lá. Segundo um estudo recente, 87% das empresas portuguesas acham que nos próximos cinco anos a IA vai transformar o seu setor, mas há estudos que mostram que apenas 22% consegue sair das provas de conceito, dos pilotos, daquelas soluções em silo, e apenas 4% consegue trazer mesmo valor acrescentado.

Muito disto acontece porque nós não estamos a conseguir, como sociedade, trazer IA para dentro dos nossos processos; continuamos a fazer as coisas como fazíamos e não conseguimos quebrar as barreiras para trazer IA para o processo todo. Muitas vezes pensamos na IA como um hype, está na moda, e não conseguimos perceber onde é que de facto, naquilo que fazemos, a IA traz mais valor.

Na EDP montámos um centro de competências que está muito virado para apoiar os negócios a fazer isto, a tentar encontrar onde é que está o valor e como é que se traz isso para dentro dos processos.

Vou dar um exemplo, porque às vezes falamos em transformar os processos, em trazer a IA para dentro dos processos, mas o que é que isso significa na prática? Num dos exemplos que tivemos, que é uma das nossas operações de vegetação, em vez de ter soluções que me dizem como é que vou fazer o corte da vegetação e depois tenho que manualmente carregar os dados e fazer, nós montámos isto como um processo em que os dados das operações são importados automaticamente, depois temos [sistemas] LIDAR e outras tecnologias para trazer as operações do terreno, o modelo calcula e vê a proximidade da vegetação junto às linhas. Na verdade, não faz só isto; isto seria uma parte importante, mas o que é mesmo importante é dizer, a partir do modelo, as ordens de corte. Prioriza logo o que é importante fazer e as ordens de corte vão automaticamente para o tablet das pessoas que estão a fazer a operação no terreno e, depois de se cortar a vegetação, essa informação entra para o modelo para o alimentar outra vez.

Todo este processo, que não passa apenas pelo modelo analítico que calculou o crescimento da vegetação e quais são as áreas de maior risco, entra no processo das operações diárias e eu acho que isto é que faz a grande diferença.

Pode dizer-se que as empresas estão cientes de que o sucesso dos projetos de IA está fortemente dependente da qualidade dos dados, ou estes temas são ainda vistos como distintos e pouco relacionados?

Acho que essa consciência está a crescer. Acho que no início era mais “IA é sexy, dados é menos”, mas acho que agora, depois de começarem a utilizar, as pessoas estão a perceber que, de facto, não se fazem omeletes sem ovos e é mesmo preciso trabalhar os dados. Na maior parte dos projetos, os projetos falham não porque não há tecnologia, mas porque os dados não estão ainda preparados.

Na EDP temos muito essa preocupação de começar com os dados. Definimos uma arquitetura de referência, domínios de dados, responsáveis pelos domínios de dados que podem garantir que os contratos e que os dados de energia têm alguém que conhece esses dados e que sabe aferir a qualidade, se são dados bons, se não são dados bons. Toda essa dinâmica foi montada.

Às vezes pensamos que um determinado modelo seria muito interessante trazer para IA, mas se nós não tivermos dados de qualidade para alimentar, isso não vai funcionar. Uma das coisas que é importante garantir é que quando estamos a fazer aquela análise de valor, se vamos investir ou trabalhar neste modelo, e, logo à cabeça, verificar se nós temos ou não temos dados de qualidade.

Uma das coisas que fizemos e que ajudou neste processo foi que nós queríamos montar uns modelos que nos ajudassem a fazer a previsão de falhas e antes de implementar fomos perceber se tínhamos dados com qualidade suficiente e na verdade, por uma boa razão, não tínhamos; temos poucas falhas, o que é bom. O facto de ter poucas falhas não nos permitia naquela altura calcular. O que tivemos de fazer um processo de obter mais dados para depois fazer os modelos. Acho que isso é que é importante, é conseguir avaliar não só se é um tema interessante, mas perceber se temos condições para o executar, não só o valor, mas a executabilidade.

Qual é o maior gap entre a governança teórica e a prática?

Se falarmos de IA responsável, no PowerPoint toda a IA é responsável, transparente e há princípios, mas é importante passar disso para a prática, passar das palavras à ação, passar do PowerPoint para o processo em si. Aí, ainda há algumas lacunas em dizer ‘temos este princípio de transparência, mas como é que eu meto isto no dia a dia’. Alguém vai fazer um novo modelo hoje; o que é que ele tem de fazer no seu dia a dia para garantir que, quando chegar a altura de colocar aquilo em produção, de facto, esses critérios todos estão cumpridos? É esse que é o exercício que é necessário fazer.

A EDP está espalhada pelo mundo, portanto tivemos de começar por uma política, um manual, guidelines e incluir as legislações todas onde operamos – não estamos só na União Europeia, temos de juntar todo o quadro regulatório de todos os países. Isto é o enquadramento legal.

Agora, como é que vamos pôr isto na prática? Como é que quem vai desenvolver e o data scientist que vai fazer o modelo sabe o que é que tem de fazer? Primeiro, formação; vamos dar formação a toda a gente. Depois, é meter no processo de desenvolvimento do dia a dia os vários pontos de controlo para garantir que isso não passa.

Por exemplo, se fizermos um modelo que permite perceber se os técnicos no terreno estão ou não a usar os equipamentos de segurança, o técnico que está a fazer isso tem de perceber que a base de dados com que vai treinar tem de ter diversidade demográfica, de género, de raça, de tudo. Quando põe um modelo generativo no ar tem de perceber, tem de pôr ali uma label a dizer ‘atenção que estes conteúdos foram gerados por inteligência artificial’. E tudo isso já está no processo em que ele faz, não se pode esquecer. Se, por algum motivo passar, vão soar as campainhas todas, portanto, é preciso criar modelos de governo em que as pessoas que fazem são informadas, mas há uma entidade independente – temos um fórum composto por pessoas de legal, de compliance, pessoas do IT – que vão monitorizar que isto de facto está mesmo a acontecer. É importante ter estes mecanismos de controlo montados, para sair do papel.

Como equilibram inovação com a estabilidade exigida num setor crítico, como é o da energia?

Com muita responsabilidade, porque isto é tudo um equilíbrio. Inovar não é correr riscos; é gerir riscos com responsabilidade e temos várias coisas montadas para isso.

Por um lado, na inovação, temos empresas, temos parceiros estratégicos que estão a trabalhar connosco no sentido de perceber quais é que são as tendências e o que é que está a acontecer para não ficarmos para trás, mas por outro lado, somos um setor regulado e não pode haver downtime.

Temos de equilibrar com segurança. Temos uma forte equipa de cibersegurança, temos a parte das operações, da tecnologia de operações, de gestão da rede elétrica separada do IT – o IT e o OT separado –, quando montamos modelos temos sandbox para testar em ambiente controlado. No caso da vegetação que falei anteriormente, correu seis em nove meses em paralelo o manual e o automático a ter termos a confiança de que aquilo que o modelo calculava estava melhor do que aquilo que calculávamos manualmente. Estes passos todos são importantes garantir para não irmos para fora de pé.

Que conselhos deixa para outros líderes que procuram começar a sua estratégia - ou ainda estão muito no início - de IA?

São sempre muitos conselhos, mas diria que o primeiro é começar, fazer qualquer coisa, o primeiro é começar. Depois é estar preparado para fazer erros, mas não é qualquer erro, são erros inteligentes. O que é que são erros inteligentes? São erros que, primeiro, os mais inteligentes são aqueles que são feitos pelos outros, que é saber o que é que correu mal, mas erros que são coisas novas, entrar em território novo, e sobretudo erros que têm custo pequeno. Não posso fazer um erro num modelo que vai gerir a rede elétrica. Erros com pouco impacto.

O segundo seria investir nos dados antes de investir nos modelos mesmo que seja uma coisa pequena, garantir que temos dados governados, ou seja, alguém que sabe o que é que são os dados e quais são os dados com qualidade e depois em cima disso fazer modelos.

Por último, e se calhar o mais importante, é começar logo com as pessoas, envolver as pessoas logo no início. Isso significa dar formação, upskill e as pessoas perceberem, e, por outro lado, envolvê-las logo no início na cocriação, porque quem vai usar as coisas, se estiver envolvido na sua definição, a adoção é muito mais fácil.

Tags

REVISTA DIGITAL

IT INSIGHT Nº 56 Julho 2025

IT INSIGHT Nº 56 Julho 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.