Val Cook defende no Web Summit que a próxima era da IA não passa por competir com a Nvidia, mas por arquiteturas heterogéneas que resolvam problemas reais. Da edge ao data center, a eficiência substitui a força bruta
|
A vez da Inteligência Artificial (IA) prática chegou. Não é apenas mais uma promessa tecnológica empacotada em mais uma buzzword, mas sim uma mudança fundamental na forma como se pensa a infraestrutura computacional e implementação da IA. Na sessão “From Moore’s Law to more AI: The next era of silicon”, Val Cook, co-fundador da Blaize, trouxe ao Web Summit uma visão que desafia o paradigma atual. “Acreditamos genuinamente nesta ideia de IA prática, onde o conceito é que existe uma solução certa para o lugar certo e o problema certo”, diz. A mensagem é de que o mundo não precisa de mais uma empresa a competir de frente com a Nvidia, mas sim de alternativas que resolvam prolemas reais em contextos específicos. O elefante na salaCook não esconde a realidade. Quando a Nvidia anunciou o CUDA, a indústria olhou de cima. “Muitos de nós olhámos para eles com alguma condescendência. Como é que podiam fazer isso sem o apoio da indústria?” Hoje, esse “erro estratégico” transformou-se num fosso de ‘five trillions’ de capitalização de mercado. “Empresas como a Blaize e outras não se conseguem atravessar. Está simplesmente demasiado bem estabelecida e é demasiado grande”, admite Cook, mas é aqui que entra a alteração estratégica: “os fossos mantêm-te tanto dentro quanto mantêm os outros fora”. Assim, a aposta não passa por competir diretamente, mas sim por construir arquiteturas heterogéneas onde diferentes tipos de processamento coexistem. “Fazemos as partes importantes, a Nvidia faz as partes importantes e não temos de enfrentá-los diretamente, mesmo ao nível da arquitetura”, explica. O conceito de “physical AI” que Cook defende vai para lá dos robôs. Aborda a observabilidade operacional física numa escala que a maioria das organizações ainda não compreendeu completamente. Cook partilha um exemplo. “A avó, na sua casa, quer a sua independência, quer estar sozinha. Mas queremos saber se ela deixou o fogão ligado e, potencialmente, até tomar uma ação sobre isso”. Do outro lado do espetro, “um encarregado num estaleiro de construção tem uma necessidade tremenda de saber onde estão as equipas, quando vem a betoneira, onde estão as cofragens”. São problemas diferentes daquilo que é a segurança e a vigilância tradicional que exigem processamento local, próximo dos sensores, com capacidade de decisão descentralizada e coordenação centralizada quando necessário. Para CIO e CTO, a implicação é direta. A infraestrutura de IA das organizações não pode ser apenas centrada na cloud. As câmaras dos armazéns não podem enviar cada frame para um data center hyperscaler porque é ineficiente, é caro e, muitas vezes, impraticável. ProgrammabilityCook relembra que, na viragem do século, 41 empresas competiam no mercado de chips gráficos. Três escolheram-se tornar-se programáveis; as outras 38 construíram pipelines de função fixa. “Podem imaginar quem são essas empresas hoje. ATI, adquirida pela AMD, Intel e Nvidia. Essas foram as três empresas que sobreviveram”, diz. A lição é que a programmability não é apenas um nice-to-have, mas sim uma estratégia de sobrevivência. No contexto atual, essa realidade ganha uma dimensão adicional: “podem fazer prompts ao nosso hardware em todo o espaço visual e gerar um programa imperativo. Podem dizer ‘avisa-me quando a avó se esqueceu de desligar o fogão’”, afirma. Estamos a passar de técnicas declarativas, onde descrevemos o que queremos, para uma programação imperativa que permite muito mais do que simplesmente hospedar um modelo. Para as organizações que estão a desenhar as suas estratégias de IA, isto significa repensar as competências técnicas necessárias e as plataformas que escolhem. Soberania e infraestrutura inteligenteUm tema recorrente na conversa foi a questão da soberania digital e computacional. Val Cook mencionou que a Blaize trabalha desde pequenos municípios até países inteiros, onde todos têm “um desejo genuíno de ter uma infraestrutura muito mais rica e soberana, onde os desafios que têm especificamente são enfrentados e, mais importante, são propriedade deles”. Esta não é apenas uma retórico geopolítica, mas operacional. Para os CTO de organizações multinacionais ou que operam em mercados regulados, a capacidade de manter o processamento de IA localmente (seja por questões de latência, regulação ou soberania de dados) torna-se num requisito e não numa opção. Desafio: eficiênciaCook é direto sobre qual o maior desafio atual: eficiência. “Quando defines o mundo físico de forma tão ampla como fazemos, pode ser necessário fazer uma conversão de espaço de cor numa imagem de entrada. Isso pode ser feito num CPU host, mas é possível fazê-lo num microssegundo no hardware se for programável e é possível fazê-lo de forma eficiente”, diz. Aqui está um dos problemas, segundo o orador: toda a infraestrutura precisa de ser acelerável numa plataforma heterogénea. Não basta ter GPU potentes para treino, mas também é preciso ter a capacidade de executar inferências eficientes no edge. É necessário fazer pré-processamento sem desperdiçar ciclos de CPU e de mover dados de forma inteligente. Na visão de Val Cook, a indústria está a passar de uma fase de “força bruta” para a fase de eficiência. Cook observa que metade dos papers académicos que saem semanalmente já não se focam apenas na performance dos modelos, mas sim em “melhorar a eficiência, reduzir o espaço de parâmetros, reduzir o número de acessos à memória”. As estratégias para os decisoresNo final da sua sessão, Val Cook partilhou três pontos estratégicos que os decisores tecnológicos devem ter em conta. O primeiro é que o domínio da Nvidia no treino de modelos não se traduz automaticamente em domínio no edge e em casos de uso específicos. Assim, arquiteturas heterogéneas não são apenas possíveis, mas necessárias. Depois, a próxima vaga de valor da inteligência artificial não vem de modelos maiores, mas sim da implementação eficiente em contextos específicos. A pergunta deixa de ser “que modelo utilizar” para passar a ser “onde e como processar”. Por fim, a programmability e a flexibilidade voltaram a ser diferenciais competitivos críticos. As plataformas que são hoje escolhidas vão determinar a capacidade de adaptação nos próximos anos. Cook termina a conversa sem medo de uma bolha de IA, até porque o problema não é haver demasiado investimento em IA, mas sim o investimento nos lugares errados, nas arquiteturas erradas e nos problemas errados. A IA prática não é sobre ter os maiores modelos ou os data centers mais potentes. É sobre ter a infraestrutura certa no lugar certo, a resolver o problema certo. Paradoxalmente, isso pode exigir menos Nvidia e mais diversidade de arquitetura do que a maioria das organizações está a planear. |