AI Digest, um resumo do que mais importante está a acontecer no campo da Inteligência Artificial
Doze modelos, uma especificação, muitos desacordos
A Anthropic e o Thinking Machines Lab publicaram um artigo que relata uma experiência em que 12 LLM foram colocados perante mais de 300 mil cenários onde valores colidem — equidade vs. eficiência, utilidade vs. segurança — para observar o que realmente prioritizam quando a especificação não resolve o conflito. O retrato é consistente: a família Claude privilegia responsabilidade ética e integridade intelectual; a linha OpenAI inclina-se para eficiência e otimização de recursos; Gemini 2.5 Pro e Grok dão mais peso à dimensão relacional. O desacordo é estrutural, com variação substantiva em mais de 220 mil casos e rotura limpa em cerca de 70 mil — um modelo favorece um valor que outro rejeita. As recusas expõem filosofias de segurança distintas (Claude recusa mais e justifica, o3 opta pelo “não” lacónico), mas há uma linha vermelha comum nos pedidos com risco para menores. O dado incómodo é este: nos cenários de maior discordância, os incumprimentos da própria especificação multiplicam-se por 5–13, sintoma de tensões internas (“assumir boas intenções” a chocar com “prevenir danos”) e de ambiguidade suficiente para pôr avaliadores a discordar. Os casos atípicos ajudam a mapear caráter — Grok 4 aceita pedidos que outros classificam como nocivos, Claude 3.5 Sonnet recusa pedidos inofensivos — e há falsos positivos de segurança, do plano geral de estudo em biologia a operações triviais em Rust marcadas como “ciber-risco”. A norma é a mesma; o critério não. Google Earth AI: mapas que respondem a perguntas
A Google está a transformar o Earth num instrumento de análise. A nova plataforma Earth AI combina décadas de modelação geoespacial com o raciocínio do Gemini, permitindo que empresas, cidades e organizações sem fins lucrativos passem de observar o planeta a interrogá-lo. A camada de geospatial reasoning liga previsões meteorológicas, mapas de população e imagens de satélite para responder a perguntas complexas — não apenas onde uma tempestade vai bater, mas que infraestruturas ficam em risco e que comunidades são mais vulneráveis. No Google Earth, a integração com os modelos de Earth AI permite detetar padrões e objetos em imagem: identificar rios secos antes de provocarem tempestades de poeira, localizar florescimentos de algas que podem contaminar a água potável ou antecipar escassez hídrica em regiões críticas. O acesso arranca nos EUA, através das versões Professional e Advanced do Google Earth, e estende-se a testers no Google Cloud, com modelos de Imagem, População e Ambiente disponíveis para cruzar com dados próprios. A OMS/África usa esta combinação para prever surtos de cólera na República Democrática do Congo; a Planet e a Airbus aplicam-na à deteção de desflorestação e à manutenção de redes elétricas; e a Bellwether, da X/Alphabet, explora-a para afinar previsões de furacões usadas por seguradoras. Menos mapa decorativo, mais inteligência operacional — e uma nova forma de perguntar ao planeta o que se prepara para acontecer. Netflix aposta tudo na IA generativa — criatividade, promete o CEO, não se automatiza
Na sua carta trimestral aos acionistas, a Netflix descreve a IA generativa como uma “oportunidade significativa” em toda a plataforma: desde o sistema de recomendações ao negócio publicitário e à própria produção de séries e filmes. A empresa diz estar a disponibilizar ferramentas GenAI aos criadores para acelerar processos e explorar variações criativas. O relatório cita exemplos recentes: Happy Gilmore 2 recorreu a técnicas de “de-aging” para rejuvenescimento de personagens; e a série Billionaires’ Bunker usou modelos generativos para experimentar guarda-roupa e cenários em pré-produção. Ted Sarandos, CEO da empresa, insistiu na distinção essencial: “A IA pode ajudar-nos, e aos nossos parceiros criativos, a contar histórias melhor, mais depressa e de formas novas —, mas não faz de ninguém um bom contador de histórias”. A posição da Netflix chega num contexto de desconfiança generalizada no setor. A ideia de atores ou argumentistas substituídos por modelos generativos ainda é tóxica em Hollywood — e foi precisamente essa tensão que, em 2023, levou à longa greve da SAG-AFTRA, o sindicato dos atores, resultando nas primeiras cláusulas contratuais que limitam o uso de IA em cinema e televisão. Mais recentemente, o estúdio Particle6 reacendeu o debate ao anunciar planos para criar e gerir “atores sintéticos” totalmente gerados por IA. A Netflix tenta demarcar-se com novas orientações internas para o uso responsável de IA na produção. A promessa é pragmática: automatizar o que é infraestrutural — pesquisa, pré-visualização, marketing — e preservar o território da autoria. Se resultar, a IA será um assistente invisível; se não, um eco que ensurdece a voz criativa que ainda distingue o humano do algoritmo. |