No Web Summit, Daniel Hulme desafia a narrativa dominante sobre inteligência artificial e propõe um framework de seis pontos para implementação estratégica, da escolha de algoritmos à ética da IA, passando pelos modelos neuromórficos e a economia da abundância
|
Durante anos, as empresas foram instruídas a construir data lakes, a contratar cientistas de dados e a extrair insights para tomar melhores decisões. O problema é que “dar aos seres humanos melhores insights normalmente não leva a melhores decisões”, afirmou Daniel Hulme, Chief AI Officer na WPP e especialista em inteligência artificial, durante a sessão “Rethinking AI: How agentes will impact marketing, business and humanity” durante a edição de 2025 do Web Summit. Na sua opinião, “as empresas não têm problemas de insights”, mas têm, isso sim, “problemas de decisão”. A provocação de Hulme expõe uma falha estrutural na forma como as organizações abordam a transformação digital: aplicam tecnologias emergentes aos problemas errados. Há dez anos era machine learning, agora é Inteligência Artificial (IA) generativa, diz. “Ficamos muito entusiasmados com a tecnologia emergente e depois tentamos aplicá-la à resolução dos problemas errados”, afirma, acrescentando que “culpamos a tecnologia, mas a realidade é que os humanos não são bons a perceber quais são as tecnologias certas para resolver os problemas certos”. O custo de escolher o algoritmo erradoPara ilustrar o seu ponto, Hulme apresentou um problema aparentemente simples: um camião de entregas precisa de fazer entregas em 24 pontos de uma determinada cidade. Os humanos são razoáveis a resolver estes problemas espaciais desenhado um percurso que parece eficiente. Mas e o computador: quanto tempo demora a encontrar o caminho mais curto? “Entre milissegundos e 20 mil milhões de anos”, respondeu Hulme. O número de soluções possíveis resulta num valor tão astronómico que um computador capaz de verificar um milhão de rotas por segundo demoraria 20 mil milhões de anos a avaliar todas as opções. “Se escolher o algoritmo errado, vai literalmente demorar mais tempo do que a idade do universo para resolver este problema”, afirma Hulme. “Se escolher o algoritmo certo, demora milissegundos. Esse é o custo de oportunidade de escolher os algoritmos errados”. Este tipo de problemas (de otimização complexa) existe em todas as indústrias, sendo muitas vezes resolvidas de forma medíocre por humanos ou por algoritmos inadequados. Automação não é inteligênciaNa sua apresentação, Daniel Hulme desafia a narrativa dominante sobre o que constitui verdadeiramente a IA: se um sistema recebe dados e toma uma decisão e no dia seguinte recebe os mesmos dados e toma a mesma decisão, o que existe é automação. Hulme relembra que “fazer a mesma coisa repetidamente e esperar um resultado diferente” é “a definição de estupidez”. Assim, diz, “por definição a automação é estúpida”. Todas as empresas que hoje se autodenominam como sendo de IA não estão necessariamente a utilizar inteligência artificial no sentido mais rigoroso do termo. A definição mais popular – computadores a executarem tarefas que os humanos fazem – é, na opinião de Hulme, “de longe a definição mais fraca”. A definição mais robusta, na opinião do orador, vem dos anos 80 e é “comportamento adaptativo orientado para objetivos”, ou seja, sistemas que tomam decisões, aprendem se essas decisões foram boas ou más e adaptam-se para, no futuro, tomarem melhores decisões. “Se formos honestos e aplicarmos esta definição ao que fazemos na indústria, podemos argumentar que ninguém está a fazer IA. O que é ridículo, porque todos estamos a fazer IA”, indica. Uma framework, seis aplicaçõesEm vez de pensar em inteligência artificial através de definições ou tecnologias, Hulme propõe uma framework baseado em seis tipos de aplicações destas tecnologias que podem resolver qualquer problema em qualquer cadeia de valor em qualquer indústria. A automação de tarefas continua a ser valiosa, “apesar de ser menos sexy”. Ao utilizar algoritmos muito simples, como declarações if-then-else, macros e automação de processos robóticos, é “possível gerar uma enorme quantidade de valor ao libertar as pessoas de tarefas comuns e repetitivas”, defende. Não é necessário, no entanto, saltar imediatamente para a IA generativa ou machine learning. Depois, a geração de conteúdo democratizou a criação, mas o verdadeiro campo de batalha não é criar conteúdo genérico, mas sim criar conteúdo específico da marca com um nível de produção diferenciado. Enquanto os modelos podem gerar texto, vídeo, som e imagens, é “a última milha que é mais difícil”. A representação humana permite, pela primeira vez, construir sistemas que recriam a forma como as pessoas pensam e sentem sobre determinados temas. Historicamente, o marketing recolhia nomes, moradas, datas de nascimento e género das pessoas. “A forma como uma pessoa vive e a sua idade são um proxy para a forma como vai percecionar algo. A forma como perceciona um anúncio, uma determinada política ou um material promocional vai depender de se acabou de se apaixonar, de quanto dinheiro tem na conta, da hora do dia, de como a sua equipa de futebol jogou no fim de semana”, explica. Já o machine learning preditiva não tem valor só por fazer previsões; tem valor por explicar essas previsões. “Se mostrar um anúncio com um gato preto, posso prever os cliques, os likes e as vendas. Mas o machine learning pode dizer ‘se mudar o gato preto para um gato laranja, vai ter mais cliques, likes e vendas porque aquela pessoa gosta do Garfield’”. O machine learning consegue extrair insights dos dados de forma que os humanos não conseguem e que a IA generativa também não consegue. Outro ponto apontado por Daniel Hulme é a tomada de decisão complexa, onde a matemática se torna proibitiva para os humanos. O orador dá um exemplo: uma empresa que tenha cinco funcionários e cinco tarefas para alocar tem 120 soluções possíveis. Se tiver 15 funcionários, passa para mais de mil milhões de soluções. No entanto, as empresas não têm problemas desta dimensão; têm problemas com 500 funcionários. O número de soluções para estes problemas tem mais de mil dígitos. Por fim, o augmentation e agência é a categoria emergente. As pessoas estão hoje a utilizar inteligência artificial primeiro como terapeutas e partilham esperanças, sonhos, desejos e medos. “Em algum momento, [o utilizador] vai dar agência à sua IA, vai dar-lhe a capacidade de tomar decisões de compra por si”. E é aqui que, na opinião de Hulme, surge um desafio bastante interessante, onde “é preciso descobrir não só como fazer marketing para seres humanos, mas também como fazer marketing para IA” que “provavelmente vão ser muito mais racionais do que nós”. Ética, segurança e governanceO tema da segurança, da ética e do governance da inteligência artificial é afetado por “uma enorme quantidade de desinformação e mal-entendidos”. Quando se implementa IA em produção, Hulme defende que é preciso fazer três perguntas fundamentais. A primeira é se a intenção é apropriada. “Não acredito que exista ética de IA. Ética é o estudo do certo e do errado e a diferença entre seres humanos e IA é que a inteligência artificial não tem intenção; os seres humanos têm intenção. É a intenção que precisa de ser escrutinada de uma perspetiva ética”, defende. Já existem standards, processos e estruturas para escrutinar intenções humanas. A segunda é se os algoritmos são explicáveis. Se for possível construir algoritmos capazes de explicar como tomam decisões, “a maioria destas palavras desaparece. A única diferença real entre software e IA é que a IA é opaca em termos de como toma as suas decisões. Se conseguirmos torná-la explicável, estes problemas estão resolvidos”, diz. Por fim, o que é que acontece se a IA de uma empresa correr muito bem, que assume que é uma pergunta estranha. “A pergunta não é ‘o que é que acontece se a minha IA falhar’. Como engenheiros, quando construímos sistemas, identificamos pontos de falha e tentamos mitigá-los. Agora é preciso perguntar o que é que acontece se a minha IA superar muito o objetivo para o qual foi criado”, indica. As bandeiras vermelhas que levam à falha Para Daniel Hulme, há quatro bandeiras vermelhas nas organizações que indicam que vão falhar na implementação de IA. A primeira é que se nunca construiu e escalou software na organização, dificilmente vai fazer o mesmo com IA. “É muito, muito difícil construir software robusto e é por isso que a maioria dos PoC falha”, indica. Em segundo lugar, o responsável pela área pedir um orçamento para contratar uma equipa, porque “a realidade é que contratar, reter, atrair e desenvolver talento de IA é extremamente difícil. Se quer construir soluções de IA diferenciadas, é preciso ter talento diferenciado”. Em terceiro, 15 anos depois de ter sido instruídas a construir data lakes, as organizações “ainda estão à espera que os dados estejam organizados. Os dados nunca vão estar organizados. É preciso começar pelo problema e trabalhar para trás. Não comecem pelos dados”, defende. Por fim, focar-se em quick wins e low-hanging fruits. Para Hulme, “os quick wins w os low-hanging fruits não vão diferenciar o negócio. São coisas que os fornecedores vão resolver e os concorrentes já estão a fazer”. Assim, partilha, “é preciso focar-se em coisas que vão diferenciar o negócio e essas coisas não são nem rápidas nem fáceis”. Os diferenciadoresPor outro lado, há três pontos que diferenciam um negócio no mundo da IA: dados, talento e liderança. No caso do primeiro ponto, “são os dados que tornam a IA inteligente” e, assim, quem tem dados que contêm insights mais úteis do que os seus concorrentes, tem uma vantagem. Já no que diz respeito ao talento, é preciso talento para conseguir aproveitar os insights que vão diferenciar o negócio. No entanto, alerta, “é muito, muito difícil atrair e reter talento profundo de IA. Não são as pessoas que se dizem especialistas em IA apenas nos últimos três anos, mas sim pessoas que têm construído estas soluções nas últimas duas décadas”. Por fim, é preciso “perceber como fazer as apostas certas”, algo que cabe a um líder. “Precisa de garantir que compreende o poder transformacional destas tecnologias e que está a perseguir coisas que vão garantir que o negócio sobrevive”. A economia da abundânciaA encerrar a sua sessão, Hulme deixa uma visão provocadora: não basta ter um negócio forte e lucrativo. É preciso um propósito. “Se não têm um propósito, não vão conseguir atrair talento de IA e provavelmente não vai atrair agentes de IA. Os agentes de IA vão comprar das vossas organizações quando provarem que os vossos produtos geram o valor que os clientes querem e que a empresa está a criar algum tipo de benefício para o mundo”. Assumindo que muitos o acusam de pintar uma utopia, Daniel Hulme defende um conceito diferente: uma protopia, “um sistema que está a melhorar incrementalmente”. A promessa da IA é remover fricção da criação e disseminação de bens, alimentos, cuidados de saúde, energia, transporte e educação. “Ao remover fricção, podemos baixar os custos desses bens tanto que se tornam gratuitos, tornam-se abundantes. Isso vai libertar as pessoas economicamente para lhes permitir usar o seu tempo para ir libertar outras pessoas dessas restrições económicas. Podemos realmente criar uma protopia. Essa é a oportunidade e essa é a promessa da IA”. |