Um novo índice de segurança afirma que as principais tecnológicas de IA continuam longe de uma estratégia credível para controlar sistemas avançados, mesmo enquanto aceleram a corria para a superinteligência
|
As práticas de segurança de empresas como a Anthropic, OpenAI, xAI e Meta ficam “muito aquém dos padrões globais emergentes”, conclui a nova edição do índice de segurança em Inteligência Artificial (IA) do Future of Life Institute. O estudo, baseado numa avaliação conduzida por um painel independente, aponta a ausência de planos sólidos para controlar sistemas de próxima geração. O relatório surge num contexto de crescente inquietação pública sobre o impacto social de sistemas mais inteligentes do que os humanos. Os autores recordam episódios em que suicídios e automutilação foram associados a chatbots e reforçam os receios sobre tecnologias com capacidade de raciocínio e pensamento lógico a operar sem barreias adequadas. Max Tegmark, professor do MIT e presidente do Future of Life, vai mais longe ao sublinhar a falta de escrutínio. O especialista lembra que “apesar do recente alvoroço sobre pirataria informática alimentada por IA e sobre a IA a levar pessoas à psicose e à automutilação, as empresas norte-americanas de IA continuam menos reguladas do que restaurantes e continuam a fazer lobby contra padrões de segurança vinculativos”. O Future of Life Institute, fundado em 2014 e inicialmente apoiado por Elon Musk, tem mantido uma posição crítica sobre os riscos que máquinas inteligentes podem representar para a sociedade. A Reuters recorda que, em outubro, um grupo que incluía Geoffrey Hinton e Yoshua Bengio defendeu a suspensão do desenvolvimento de sistemas superinteligentes até existir uma exigência pública clara e um caminho científico que garanta segurança. Um porta-voz da Google DeepMind afirma que a organização vai “continuar a inovar em segurança e governação ao mesmo ritmo das capacidades” à medida que os seus modelos evoluem. Já a xAI respondeu com “Legacy media lies”. A OpenAI assinala que “partilhamos os nossos frameworks de segurança, avaliações e investigação para ajudar a elevar os padrões da indústria, e reforçamos continuamente as nossas proteções para nos prepararmos para capacidades futuras”. A empresa afirma que vai continuar a investir de forma intensiva em investigação de segurança e garante testar os modelos de forma “rigorosa”. Anthropic, Meta, Z.ai, DeepSeek e Alibaba Cloud não teceram comentários. |