Governação de dados em tempos de IA: o que ainda não está na agenda

É hoje um facto incontestado que a maioria das organizações, qualquer que seja a respetiva dimensão, tem vindo a aumentar competências na criação de infraestruturas de dados

Governação de dados em tempos de IA: o que ainda não está na agenda

A parte difícil, contudo, tem, amiúde, ficado pelo caminho: ou retida em planos ou, pior, ausente deles. Hoje, o obstáculo raramente é “ter dados”. É, antes, conseguir que duas equipas diferentes usem o mesmo termo com o mesmo significado e com a mesma responsabilidade, mesmo quando o contexto muda. A empresa aprende a medir em escala, mas continua a discutir, em escala, o que está a medir.

Governação de dados começa num ponto prosaico: estabilizar significado. “Cliente ativo”, “churn”, “margem”, “receita”, “fraude” parecem substantivos; na prática, funcionam como regras de decisão. Uma alteração num evento da aplicação, uma migração de sistema ou uma campanha que mude comportamentos, e a definição deixa de apontar para a mesma realidade. A organização, porém, mantém incentivos, metas e modelos como se nada tivesse acontecido. O desvio aparece tarde, com a forma enganadora de uma “tendência” ou de uma “mudança do mercado”, e só então alguém percebe que o problema não estava na análise — estava na semântica.

Espaços organizacionais em branco

É por isso que os catálogos de dados, ainda que relevantes, por si mesmos não são a panaceia. Um catálogo ajuda a encontrar; não ajuda a concordar. Concordância exige autoridade. Não no sentido burocrático, mas no sentido operacional: alguém tem de poder dizer “a definição é esta” e impor consequências quando a definição muda. Sem essa autoridade, as definições tornam-se moedas locais: válidas num produto, inválidas noutro, e inúteis quando se tenta uma consolidação.

O que muitas organizações ainda não puseram na agenda é que governação séria é, em grande parte, gestão de mudança semântica. Definições não são peças de museu: evoluem. A pergunta não é se vão mudar, mas o que acontece quando mudam. Sem versionamento de métricas e sem um mecanismo que obrigue a declarar a quebra de comparabilidade, cada alteração técnica cria uma dívida invisível que só é cobrada meses depois, quando um executivo olha para um gráfico e tira conclusões “de negócio” a partir de um objeto que já não é o mesmo. E, quando ninguém consegue apontar o momento em que o significado derivou, a organização substitui causalidade por narrativa.

Esta fragmentação torna-se um risco sistémico com a entrada em vigor do Regulamento Governação de Dados. Ao promover a criação de espaços comuns europeus de dados e ao exigir interoperabilidade, o Regulamento expõe uma realidade simples: quem não consegue estabilizar e versionar o significado de “cliente” dentro de portas fica, na prática, incapaz de participar numa economia de partilha de dados sem transformar cada integração num exercício de risco e renegociação.

A seguir vem a fiabilidade, que persiste em ser tratada como um detalhe de infraestrutura. O problema é que fiabilidade não é um atributo moral; é uma propriedade mensurável, ligada ao uso. Um conjunto de dados “bom”, em abstrato, não existe. Existe adequação a uma decisão, com o risco correspondente. Algumas decisões morrem com latência; outras tornam-se perigosas com opacidade; outras exigem cuidado com a forma como o erro se distribui. A governação começa a sério quando estas exigências deixam de estar “na cabeça de alguém” e passam a existir como promessa explícita: com dono, limites e resposta quando falha.

Aqui, o ponto que continua fora da agenda é assumir que promessas exigem travões. Sem testes automáticos, as promessas são apenas intenção. A realidade é dinâmica: os pipelines quebram, as fontes de dados mudam, os campos passam a ser nulos, os valores duplicam, a distribuição desloca-se por razões legítimas ou por bugs, e um relatório continua a ser produzido com a mesma estética e a mesma confiança. A governação que interessa constrói um sistema nervoso: deteta problemas cedo, atribui o alerta a alguém com poder para agir e, quando necessário, impede a propagação dos erros. Em decisões críticas, a resposta correta a uma falha pode não passar por abrir mais um ticket; pode antes ser congelar um indicador, bloquear um consumo, retirar um modelo. Sem capacidade de travagem, “qualidade” é um adjetivo; com travagem, fiabilidade torna-se um contrato operacional. A linhagem de dados (data lineage) entra aqui como capacidade de reconstrução. Quando alguém pergunta por que uma métrica mudou, ou por que uma decisão foi tomada, a resposta precisa de ser reconstituível: de onde vieram os dados, que transformações sofreram, que versões existiam, que dependências foram ativadas, que modelos os consumiram. Sem noção de linhagem, a organização substitui causalidade por narrativa. E, quando o problema é grave, substitui aprendizagem por culpabilização, porque não consegue localizar o ponto de falha.

Mais uma vez, o que falta muitas vezes não é a palavra “linhagem” nos slides, mas o seu efeito prático: a capacidade de ligar uma alteração semântica a todos os consumidores relevantes, de forma verificável. Linhagem útil não serve apenas para auditoria; serve para operar mudança. Quando uma definição muda, a organização precisa de saber que relatórios deixam de ser comparáveis, que alertas ficam cegos, que features mudam de significado, que modelos passam a aprender outra coisa. Sem esta cartografia viva, a empresa reage tarde e em modo artesanal, exatamente quando o custo do erro já é alto.

Inteligência artificial como espelho convexo

A IA acelera esta necessidade por um motivo simples: transforma instabilidade em escala. Um modelo aprende padrões que dependem de definições, de rotulagens e de processos que mudam sem aviso. Quando o mundo se desloca, o modelo não faz perguntas; continua a responder. E o que era pequeno torna-se sistémico. Por isso, governação aplicada à IA exige rotinas próximas de engenharia e operação: registos e versionamento vinculativos, critérios de aprovação proporcionais ao risco, monitorização de desempenho e de deriva por segmentos relevantes, e resposta a incidentes com ações claras. “Modelo em produção” é apenas uma fotografia; o que interessa é o regime de responsabilidade enquanto ele decide.

O ponto cego, aqui, é continuar a governar “o modelo” como artefacto isolado e ignorar o produto socio-técnico que o rodeia: o que entra no contexto, o que sai, quem valida, com que evidência, com que retenção, com que acesso. Nos modelos generativos, o perfil de risco torna-se mais traiçoeiro porque o erro pode vir com boa escrita. A alucinação plausível soa a competência, não a falha. Junta-se a isso a tentação de colocar informação sensível em instruções “só para testar” e a tendência humana para delegar validação a algo que produz texto com fluência, e o resultado é previsível: incidentes que não se resolvem com uma correção, porque nascem de limites mal definidos. Governação tem de ser explícita onde dói: que usos se permitem, o que fica sujeito a validação humana, o que nunca entra no contexto, e o que fica registado de forma reconstituível.

No fim, a maturidade das organizações revela-se na capacidade de responder sob pressão: conseguir dizer o que um dado significa, quando mudou, quão fiável é para uma decisão concreta, quem responde por ele, como se deteta degradação, e como se prova a origem e o uso quando alguém pergunta. Quando essa capacidade existe, as ferramentas e os dashboards deixam de ser adereços e passam a ser alavancas: dados e IA entram no núcleo das decisões com confiança operacional. E é aí que a escala deixa de ser volume e passa a ser continuidade.

Tags

REVISTA DIGITAL

IT INSIGHT Nº 60 MARÇO 2026

IT INSIGHT Nº 60 MARÇO 2026

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.