Empresas de IA falham padrões globais de segurança

Um novo índice de segurança afirma que as principais tecnológicas de IA continuam longe de uma estratégia credível para controlar sistemas avançados, mesmo enquanto aceleram a corria para a superinteligência

Empresas de IA falham padrões globais de segurança

As práticas de segurança de empresas como a Anthropic, OpenAI, xAI e Meta ficam “muito aquém dos padrões globais emergentes”, conclui a nova edição do índice de segurança em Inteligência Artificial (IA) do Future of Life Institute. O estudo, baseado numa avaliação conduzida por um painel independente, aponta a ausência de planos sólidos para controlar sistemas de próxima geração.

O relatório surge num contexto de crescente inquietação pública sobre o impacto social de sistemas mais inteligentes do que os humanos. Os autores recordam episódios em que suicídios e automutilação foram associados a chatbots e reforçam os receios sobre tecnologias com capacidade de raciocínio e pensamento lógico a operar sem barreias adequadas.

Max Tegmark, professor do MIT e presidente do Future of Life, vai mais longe ao sublinhar a falta de escrutínio. O especialista lembra que “apesar do recente alvoroço sobre pirataria informática alimentada por IA e sobre a IA a levar pessoas à psicose e à automutilação, as empresas norte-americanas de IA continuam menos reguladas do que restaurantes e continuam a fazer lobby contra padrões de segurança vinculativos”.

O Future of Life Institute, fundado em 2014 e inicialmente apoiado por Elon Musk, tem mantido uma posição crítica sobre os riscos que máquinas inteligentes podem representar para a sociedade. A Reuters recorda que, em outubro, um grupo que incluía Geoffrey Hinton e Yoshua Bengio defendeu a suspensão do desenvolvimento de sistemas superinteligentes até existir uma exigência pública clara e um caminho científico que garanta segurança.

Um porta-voz da Google DeepMind afirma que a organização vai “continuar a inovar em segurança e governação ao mesmo ritmo das capacidades” à medida que os seus modelos evoluem. Já a xAI respondeu com “Legacy media lies”.

A OpenAI assinala que “partilhamos os nossos frameworks de segurança, avaliações e investigação para ajudar a elevar os padrões da indústria, e reforçamos continuamente as nossas proteções para nos prepararmos para capacidades futuras”. A empresa afirma que vai continuar a investir de forma intensiva em investigação de segurança e garante testar os modelos de forma “rigorosa”.

Anthropic, Meta, Z.ai, DeepSeek e Alibaba Cloud não teceram comentários.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 58 Novembro 2025

IT INSIGHT Nº 58 Novembro 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.