AI Digest - Novembro de 2025

AI Digest, um resumo do que mais importante está a acontecer no campo da Inteligência Artificial

AI Digest - Novembro de 2025

Doze modelos, uma especificação, muitos desacordos

A Anthropic e o Thinking Machines Lab publicaram um artigo que relata uma experiência em que 12 LLM foram colocados perante mais de 300 mil cenários onde valores colidem — equidade vs. eficiência, utilidade vs. segurança — para observar o que realmente prioritizam quando a especificação não resolve o conflito. O retrato é consistente: a família Claude privilegia responsabilidade ética e integridade intelectual; a linha OpenAI inclina-se para eficiência e otimização de recursos; Gemini 2.5 Pro e Grok dão mais peso à dimensão relacional.

O desacordo é estrutural, com variação substantiva em mais de 220 mil casos e rotura limpa em cerca de 70 mil — um modelo favorece um valor que outro rejeita. As recusas expõem filosofias de segurança distintas (Claude recusa mais e justifica, o3 opta pelo “não” lacónico), mas há uma linha vermelha comum nos pedidos com risco para menores. O dado incómodo é este: nos cenários de maior discordância, os incumprimentos da própria especificação multiplicam-se por 5–13, sintoma de tensões internas (“assumir boas intenções” a chocar com “prevenir danos”) e de ambiguidade suficiente para pôr avaliadores a discordar.

Os casos atípicos ajudam a mapear caráter — Grok 4 aceita pedidos que outros classificam como nocivos, Claude 3.5 Sonnet recusa pedidos inofensivos — e há falsos positivos de segurança, do plano geral de estudo em biologia a operações triviais em Rust marcadas como “ciber-risco”. A norma é a mesma; o critério não.


Google Earth AI: mapas que respondem a perguntas

A Google está a transformar o Earth num instrumento de análise. A nova plataforma Earth AI combina décadas de modelação geoespacial com o raciocínio do Gemini, permitindo que empresas, cidades e organizações sem fins lucrativos passem de observar o planeta a interrogá-lo. A camada de geospatial reasoning liga previsões meteorológicas, mapas de população e imagens de satélite para responder a perguntas complexas — não apenas onde uma tempestade vai bater, mas que infraestruturas ficam em risco e que comunidades são mais vulneráveis.

No Google Earth, a integração com os modelos de Earth AI permite detetar padrões e objetos em imagem: identificar rios secos antes de provocarem tempestades de poeira, localizar florescimentos de algas que podem contaminar a água potável ou antecipar escassez hídrica em regiões críticas. O acesso arranca nos EUA, através das versões Professional e Advanced do Google Earth, e estende-se a testers no Google Cloud, com modelos de Imagem, População e Ambiente disponíveis para cruzar com dados próprios.

A OMS/África usa esta combinação para prever surtos de cólera na República Democrática do Congo; a Planet e a Airbus aplicam-na à deteção de desflorestação e à manutenção de redes elétricas; e a Bellwether, da X/Alphabet, explora-a para afinar previsões de furacões usadas por seguradoras. Menos mapa decorativo, mais inteligência operacional — e uma nova forma de perguntar ao planeta o que se prepara para acontecer.


Netflix aposta tudo na IA generativa — criatividade, promete o CEO, não se automatiza

Na sua carta trimestral aos acionistas, a Netflix descreve a IA generativa como uma “oportunidade significativa” em toda a plataforma: desde o sistema de recomendações ao negócio publicitário e à própria produção de séries e filmes. A empresa diz estar a disponibilizar ferramentas GenAI aos criadores para acelerar processos e explorar variações criativas.

O relatório cita exemplos recentes: Happy Gilmore 2 recorreu a técnicas de “de-aging” para rejuvenescimento de personagens; e a série Billionaires’ Bunker usou modelos generativos para experimentar guarda-roupa e cenários em pré-produção.

Ted Sarandos, CEO da empresa, insistiu na distinção essencial: “A IA pode ajudar-nos, e aos nossos parceiros criativos, a contar histórias melhor, mais depressa e de formas novas —, mas não faz de ninguém um bom contador de histórias”.

A posição da Netflix chega num contexto de desconfiança generalizada no setor. A ideia de atores ou argumentistas substituídos por modelos generativos ainda é tóxica em Hollywood — e foi precisamente essa tensão que, em 2023, levou à longa greve da SAG-AFTRA, o sindicato dos atores, resultando nas primeiras cláusulas contratuais que limitam o uso de IA em cinema e televisão. Mais recentemente, o estúdio Particle6 reacendeu o debate ao anunciar planos para criar e gerir “atores sintéticos” totalmente gerados por IA.

A Netflix tenta demarcar-se com novas orientações internas para o uso responsável de IA na produção. A promessa é pragmática: automatizar o que é infraestrutural — pesquisa, pré-visualização, marketing — e preservar o território da autoria. Se resultar, a IA será um assistente invisível; se não, um eco que ensurdece a voz criativa que ainda distingue o humano do algoritmo.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 58 Novembro 2025

IT INSIGHT Nº 58 Novembro 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.