A corrida à inteligência artificial expôs fragilidades em organizações que não consolidaram dados, arquitetura e governação. Sem essa base, a escala fica limitada a pilotos e iniciativas isoladas. O impacto e a maturidade tornam-se visíveis quando dados, tecnologia e responsabilidades estão integrados nos processos centrais do negócio
|
A estratégia de dados é atualmente assumida como pilar central da transformação nas organizações que investem em dados e Inteligência Artificial (IA). A aceleração da IA, particularmente nas vertentes generativa e agentes autónomos, aumentou a pressão sobre as empresas para demonstrarem impacto mensurável e capacidade de execução.
A consolidação desta agenda resulta da necessidade de traduzir investimento em dados e IA em ganhos operacionais, financeiros e estratégicos. João Anastácio, Associate Director de Data & AI da Accenture Portugal, refere que a estratégia deixa de ser conceptual quando “passa de um exercício de visão para um modelo operativo com responsabilidade clara e métricas de valor associadas”. Hervé Silva, Partner da Deloitte, observa, no entanto, um desfasamento entre ambição e prontidão operacional, indicando que “a maioria das organizações está menos preparada do que afirma”. A maturidade percebida tende a ser superior à maturidade real, sobretudo ao nível da infraestrutura de dados, qualidade, integração e governação. Não está em causa apenas a tecnologia, mas a disciplina estratégica, a capacidade de execução, a governação e a transformação estrutural das organizações. Maturidade de dadosO discurso público sugere que a maioria das organizações já consolidou as suas fundações de dados. No entanto, a realidade no terreno é mais heterogénea. Na visão de Rui Afeiteira, Chief Information Officer da BI4All, “raramente está tudo pronto”. Isto é, a informação existe, mas encontra-se fragmentada por sistemas, com definições inconsistentes, qualidade variável e pouca rastreabilidade. Também na análise de João Pinto, CSO da PDMFC, “ainda existe um caminho significativo a percorrer no que diz respeito aos dados nas empresas portuguesas”, com problemas recorrentes de dispersão, inconsistência e ausência de governação clara. A Accenture Portugal sustenta, por sua vez, que uma data strategy não se resolve com tecnologia nem com apresentações internas; exige responsabilidade clara, redefinição de funções e mudança real na forma como a organização trabalha. A chegada da IA generativa e dos agentes autónomos veio expor ainda mais estas fragilidades. Como aliás destaca a Deloitte, grande parte dos dados não estruturados, documentos, emails, imagens, ainda “está por trabalhar”, o que pode limitar a promessa de escala. Já Pedro Ruivo, responsável de uma linha de vendas na SAP e professor convidado na NOVA IMS, reforça que “os projetos que não saem efetivamente do Proof of Concept (POC) na maioria é porque não têm dados de qualidade ou processos não integrados”. Por outro lado, o sucesso depende de ter um responsável dedicado fora do IT tradicional e de implementar casos de uso escaláveis. O verdadeiro teste
A passagem de um piloto para produção constitui um indicador relevante de maturidade. De acordo com Hervé Silva, o momento decisivo ocorre quando os casos de uso são operados em produção, com uma adoção real pelas equipas e métricas claras de valor, como a produtividade, a eficiência, o crescimento ou a melhor experiência do cliente. Nas maiores empresas a operar em Portugal, cerca de 50% dos projetos com IA regenerativa e IA embebida já estão a ser utilizados em processos de gestão, enquanto os agentes ainda representam cerca de 20%, aponta Pedro Ruivo. A evolução face ao ano anterior indica aceleração, mas também evidencia diferenças significativas de maturidade entre organizações. A distinção mais evidente nas empresas que conseguem escalar está associada à existência de um responsável dedicado aos projetos de IA fora da função tradicional de IT e à adoção de uma metodologia de crescimento incremental aplicada a processos concretos, segundo Pedro Ruivo. A maturidade de dados não é um ponto de chegada. Trata-se de um caminho que se inicia quando a organização deixa de falar em dados como conceito e passa a agir através de resultados que se integram nos processos centrais das empresas. Arquitetura, integração e capacidade de escalaEscalar dados não depende de modelos sofisticados, mas da base que os sustenta. Na maioria dos casos, as organizações ficam bloqueadas neste processo, não pela criação de algoritmos, mas pela infraestrutura que precisa de funcionar todos os dias, de forma confiável e consistente.
Rui Afeiteira verifica que, na maioria dos projetos, “o maior investimento tende a estar na fundação e operação da data platform: integração, qualidade, segurança, governação, pipelines, observabilidade e disponibilidade dos dados”. O desenvolvimento de modelos pode ser relativamente rápido, mas “o custo real surge quando se quer colocar em produção, escalar e manter com fiabilidade”, reforça. Pedro Gomes Mota, Responsável de Data, Analytics & AI do Grupo Brisa, afirma que a tecnologia e a arquitetura foram assumidas como “um dos pilares fundacionais da estratégia, e não apenas como um meio para executar casos de uso isolados”. O grupo criou uma Plataforma de Dados e Inteligência desenhada para integrar Dados, Analytics, IA e Governance de forma consistente, de modo a evitar a fragmentação e soluções ad hoc. A organização sublinha que “encarar a tecnologia como plataforma e não como projeto” foi determinante para conseguir escalar. Na mesma linha, a EDP refere que “a adoção prematura de tecnologias com pouca maturidade em casos com alta amplitude de impacto, pode comprometer a capacidade de a escalar mais tarde”. A consolidação de uma arquitetura de referência robusta, com padrões de integração definidos desde o início e um modelo operativo coerente, tornou-se fundamental. A criação de Centros de Excelência e de um AI Office é prova disso ao passar a assegurar estabilização metodológica, curadoria de modelos e práticas de MLOp e Responsible AI.
A dimensão infraestrutural é particularmente exigente em contexto de maior intensidade computacional. No seguimento, João Pinto destaca a “necessidade de enorme capacidade processamento (HPC); Unidades de Processamento Gráfico (GPU), baixa latência dos ambientes cloud, armazenamento, segurança e eficiência energética”. Em determinados casos de uso estratégicos e específicos de indústria, segundo o CSO da PDMFC, a adoção de LLM dedicados implica investimento elevado, ainda que associado a um potencial retorno igualmente significativo. No que se refere à dimensão da governação tecnológica, Rui Barata Ribeiro, Senior Data & AI Sales da IBM Portugal, acrescenta que a realidade das organizações é híbrida e multicloud, considerando que “um ‘modelo único’ é mais exceção do que regra”. A recomendação passa por uniformizar a confiança e o governo dos modelos, independentemente da tecnologia subjacente, garantindo rastreabilidade, observabilidade e controlo contínuo. Por esse motivo, a BI4All sintetiza aquele que é um dos princípios operacionais mais fundamentais que é tratar “desde início o que normalmente só aparece mais tarde: produção, operação e controlo”. Governação da IAA aceleração da adoção de inteligência artificial trouxe a governação para o centro da agenda executiva. A questão deixou de estar confinada a compliance e passou a integrar a discussão sobre risco operacional, reputacional e estratégico. A governação deixou de ser um mecanismo de controlo posterior e passou a integrar o ciclo de vida dos modelos desde a conceção. A responsabilidade é partilhada entre negócio, tecnologia e funções de risco, com níveis de supervisão ajustados ao impacto potencial de cada caso de uso. A governação da IA “ganhou prioridade com o aumento do escrutínio regulatório, especialmente com o AI Act na União Europeia”, aponta João Anastácio. As organizações estão a evoluir para modelos formais e transversais, onde a responsabilidade não é exclusivamente tecnológica. O negócio gere a utilização e os resultados, a tecnologia e os dados garantem robustez e monitorização, e as áreas de risco e jurídico asseguram conformidade e enquadramento ético. Hervé Silva identifica um desfasamento entre o ritmo da tecnologia e o ritmo do controlo organizacional, referindo que “a IA avança mais rápido do que os mecanismos de controlo”. A maturidade em governance continua desigual, sobretudo quando entram em jogo agentes autónomos e modelos mais avançados. Na prática, começa a surgir um modelo federado. Segundo Hervé Silva, órgãos executivos definem as diretrizes e os limites de risco, equipas de governação de IA supervisionam os modelos, e equipas técnicas garantem a monitorização constante e a resolução de problemas. A governação deixa de ser um silo e passa a estar distribuída pelas equipas, devendo ser “embedded across teams”. Rita Calvão, sócia associada da McKinsey & Company em Portugal, reforça que organizações bem-sucedidas criam “uma governance executiva e multidisciplinar, orientada a valor de negócio, com o risco, o compliance e a parte legal a desafiar o desenho e a operação antes e depois da entrada em produção”. O controlo deve ser proporcional ao risco, com critérios definidos à partida e intensidade de supervisão ajustada ao caso de uso. A operacionalização desta governance é também descrita sob o ponto de vista tecnológico, com Rui Barata Ribeiro a destacar mecanismos de rastreabilidade granular, explicabilidade integrada e monitorização contínua que permitem acionar alertas ou bloquear automaticamente modelos quando violam limiares definidos. A plataforma permite capturar “datasets utilizados, versões de código, hiperparâmetros, pipelines de treino, responsáveis e alterações” ao longo do ciclo de vida do modelo. Rui Afeiteira sublinha a importância de integrar governação e agilidade, onde o equilíbrio se encontra quando a governação é desenhada “como acelerador e não como burocracia”. A prática passa por modelos de guardrails com self- -service, catálogos vivos ligados a decisões reais, controlo de acessos baseado em políticas e auditoria integrada em práticas de MLOp e LLMOp. Do lado das empresas utilizadoras, como a Brisa, Pedro Gomes Mota descreve a governance, segurança e ética como princípios “não negociáveis” e definidos by design. A organização distingue ambientes de experimentação de ambientes produtivos, sendo que a escala só ocorre quando os guardrails estão plenamente assegurados. Na EDP, a criação de políticas claras de Responsible AI, alinhadas com o enquadramento regulatório aplicável, permitiu avançar “com agilidade sem comprometer rigor”. A existência de mecanismos de controlo integrados na política de Responsible AI garante conformidade com os pacotes regulatórios nos diferentes países onde opera. Casos de valorEficiência, produtividade e redução de riscos começam a traduzir-se em números reais, e em muitos casos já impactam diretamente as contas. Tal como reflete Pedro Gomes Mota, “desde 2024, os dados passaram a ser encarados pelo Grupo Brisa como um ativo estratégico e um verdadeiro gerador de valor”. A organização liga cada iniciativa de dados e IA a métricas estratégicas como rentabilidade, eficiência operacional, experiência de cliente ou mitigação de risco. Os ganhos mais expressivos têm surgido no domínio da eficiência operacional, com melhorias em processos críticos. Na experiência de cliente, o Parking Buddy – modelo de previsão de estacionamento integrado na aplicação Via Verde – contribui para uma utilização mais previsível e conveniente dos serviços. Na vertente de mitigação de risco, algoritmos de deteção de incidentes suportam o Centro de Coordenação Operacional, com impacto direto na segurança rodoviária. Paralelamente, a EDP revela que “todos os projetos de dados e inteligência artificial avançam apenas quando existe um business case mensurável e validado”. A organização destaca ganhos operacionais e de produtividade, mas também refere desafios associados à rápida evolução tecnológica e à escassez de talento especializado. crescimento dos custos de cloud levou ao reforço de práticas de FinOps e iniciativas estruturadas como CloudHealth e programas de Data Efficiency, que permitiram “reduções expressivas de TOTEX e uma gestão muito mais rigorosa do consumo”. No terreno da automação e produtividade, a BI4All identifica ganhos rápidos em suporte e atendimento, backoffice e operações, manutenção e analítica assistida. O Chief Information Officer da empresa vê na redução do tempo médio de atendimento, no aumento da resolução à primeira e na melhoria na consistência do serviço, exemplos recorrentes disso. A integração da IA no fluxo de trabalho é ainda apontada como condição para que os ganhos sejam sustentáveis. A IBM observa que os casos com retorno mais imediato situam-se em “automação de tarefas intensivas em informação (como sumarização, pesquisa semântica ou extração documental), aumento da produtividade através de agentes no desenvolvimento e operações, e modernização dos serviços ao cliente”. De acordo com Rui Barata Ribeiro, estes casos combinam elevado volume transacional com impacto direto em eficiência e tempo. A leitura e classificação de documentos manuscritos atingiu “uma taxa de sucesso superior a 90%”, revela João Pinto. Existem ainda casos de uso em manutenção, investigação e fraude, transcrição e tradução de áudio e vídeo em tempo real, cibersegurança e observabilidade. Do ponto de vista financeiro, a sócia associada da McKinsey & Company em Portugal refere que “cerca de 35-40% das organizações com que trabalhamos já reportam algum impacto em EBITDA”, embora a maioria ainda não tenha conseguido capturar esse impacto à escala. O valor está concentrado em automatização de trabalho recorrente, redução de fricção operacional e melhoria da qualidade das decisões.
Pedro Ruivo acrescenta que, excluindo os custos de limpeza e harmonização de dados, “o retorno é rápido (inferior a um trimestre assim que tenha sido implementada)”, desde que o processo de gestão esteja digitalizado e já seja medido. A fragmentação de sistemas e semânticas de dados distintas tende a comprometer os resultados. Apesar destes avanços, a Deloitte alerta para iniciativas com “acesso sem adoção real”, onde ferramentas são disponibilizadas, mas não integradas nos fluxos de trabalho. Casos como este, onde os projetos são genéricos, replicáveis e desligados dos dados próprios da organização, acabam por gerar frustração e pouco retorno. O padrão observado mostra que os ganhos mais consistentes surgem onde existe volume, repetição e métricas claras de desempenho. A integração nos processos core e a medição sistemática de impacto continuam a ser determinantes para converter experimentação em valor financeiro sustentável. Onde os projetos falhamApesar dos ganhos já mensuráveis, persistem entraves estruturais que atrasam, encarecem ou inviabilizam projetos, sendo as expectativas irrealistas um dos riscos mais recorrentes. Fonte oficial da EDP reconhece que, em alguns casos, a IA não entregou o esperado e refere que “na maioria das situações, a causa esteve menos na tecnologia e mais nas expectativas irreais criadas pelo ‘buzz’ em torno da IA”. Noutros casos, a rápida evolução tecnológica tornou inviável a continuidade de abordagens iniciais, o que criou “atrasos e necessidades de recomeçar”.
Na Brisa, a principal causa de insucesso não esteve na tecnologia, mas em “necessidades de negócio mal formuladas, dados insuficientes ou expectativas desalinhadas”, revela Pedro Gomes Mota. A organização adotou uma abordagem de experimentação rápida e de baixo custo, avaliando os casos de uso numa ótica de incubação antes da escala. “Dados, processos e pessoas”, são, para Pedro Ruivo, os três bloqueios recorrentes nos projetos que não escalam. Com exceção de algumas empresas, os dados surgem como o primeiro obstáculo, frequentemente dispersos, redundantes ou inacessíveis. O segundo bloqueio está nos processos de gestão configurados com base em customizações antigas e tecnologias não compatíveis com sistemas de IA. Segundo João Pinto, a qualidade dos dados exige frequentemente “um trabalho intensivo de limpeza e padronização antes de qualquer análise”. Integrações com sistemas legacy fechados, definição pobre do caso de uso e falta de alinhamento estratégico com os objetivos de negócio surgem igualmente como causas de atraso. Rui Afeiteira acrescenta que projetos se tornam mais complexos quando “o valor e os objetivos são pouco claros” ou quando “a produção e risco são tratados tarde”. Requisitos de segurança, privacidade e integração operacional que surgem apenas no final obrigam a retrabalho significativo, segundo o Chief Information Officer da BI4All. O partner da Deloitte identifica um padrão claro nas iniciativas que não geram retorno. O mais recorrente é “acesso sem adoção real”. As ferramentas existem, mas não entram nos fluxos de trabalho nem têm métricas que obriguem a medir utilização e impacto. Outro entrave recorrente é a falta de governação estruturada. Sem responsáveis claros, critérios de sucesso definidos ou um modelo operativo consistente, as iniciativas perdem tração e acabam por ficar aquém do retorno esperado.
Neste quadro, a IBM reconhece que “a grande maioria das dificuldades associadas a governação de IA não são tecnológicas”. Rui Barata Ribeiro aponta para os desafios na qualidade dos dados, na evolução regulatória e na governação de agentes autónomos como os mais evidentes. Acrescenta ainda a importância do vendor risk management e da análise da transparência dos modelos fundacionais utilizados. O próximo passoÉ certo que “a IA tem potencial para transformar o core das organizações, nomeadamente através das arquiteturas de agentes de IA – baseadas em agentes autónomos capazes de tomar decisões e orquestrar ações entre múltiplas funções e aplicações”, no entanto, segundo a Accenture Portugal, “na maioria dos casos, essa reinvenção não deverá ocorrer no curto prazo”. O ritmo e a profundidade dessa transformação, contudo, variam consoante a maturidade das fundações e a disciplina de execução. Há um padrão transversal que indica que a transformação estrutural não ocorre por substituição do core ou pela rutura total do mesmo. Esta transformação passa pela integração progressiva da IA nos processos críticos, com reforço de governação, clarificação de responsabilidades e disciplina financeira. Como a velocidade de adoção é elevada, a capacidade de reorganização interna continua a ser o fator determinante para que essa adoção se traduza em vantagem competitiva sustentável. Para organizações que estão a dar os primeiros passos e ainda não têm maturidade de dados, a prioridade no primeiro ano passa por “construir as fundações”. O Associate Director de Data & AI na Accenture Portugal, salienta que “mais do que multiplicar iniciativas, o essencial é combinar fundações sólidas com execução focada, criando credibilidade e capacidade de escalar de forma sustentável”. Em paralelo, recomenda definir uma estratégia clara, estabelecer um modelo de governação de dados e IA eficaz, garantir uma base tecnológica coerente e implementar um número limitado de casos de uso com valor evidente e alinhados ao negócio para demonstrar impacto e criar tração interna. Hélver Silva reforça que “quando uma organização parte de um nível baixo de maturidade de dados, o risco maior não é ‘investir pouco’, é investir depressa demais, em demasiadas frentes e sem foco, o que pode gerar pilotos desconexos, dívida tecnológica e frustração”. O primeiro ano, segundo o partner da Deloitte, “deve ser encarado como ano de fundações inteligentes, onde a meta não é ‘fazer tudo’, mas sim criar condições para escalar valor nos anos seguintes: foco, disciplina, governação e um backbone de dados/tecnologia que seja adaptativo, modular e preparado para IA”. “Fechar o gap entre acesso e adoção, escolher dois ou três casos de uso com business case evidente; criar uma visão clara e um North Star para IA alinhado à estratégia; construir as fundações mínimas de dados e tecnologia; implementar governança desde o dia zero; preparar pessoas e redesenhar trabalho; escolher entre incrementalismo disciplinado ou transformação radical”, prioriza o responsável.
Rita Calvão alerta para o risco de decisões estruturais irreversíveis e defende que “o mais eficaz é experimentar e provar valor rapidamente, em ambientes mais pequenos e controláveis, e construir as fundações à medida que se escala”. Para isso, sublinha, é essencial priorizar os casos de uso com maior retorno, garantir dados “fit for purpose”, capacidade de desenvolvimento, talento de change management e ferramentas de medição de impacto. Ao longo do percurso, acrescenta, é igualmente importante consolidar um modelo operacional leve, com equipas, processos e governação capazes de gerir o backlog com cadência, responsabilização e foco em resultados. |