Vulnerabilidades no ChatGPT permitem roubo de dados e manipulação de memórias

A Tenable revelou novas vulnerabilidades no ChatGPT que expõem utilizadores a roubo de dados, manipulação de memórias e execução de código malicioso através de sites aparentemente legítimos

Vulnerabilidades no ChatGPT permitem roubo de dados e manipulação de memórias

Investigadores da Tenable descobriram sete vulnerabilidades e técnicas de ataque exploráveis no ChatGPT, capazes de permitir a exfiltração e injeção de dados, manipulação de memórias do utilizador e até o redirecionamento para sites de phishing. Algumas das falhas, alertam, permanecem ativas mesmo no modelo GPT-5.

Os ataques exploram funcionalidades centrais do sistema, incluindo o recurso de memórias, onde estão guardadas as preferências e detalhes dos utilizadores. Outro recurso é o open_url, que permite aceder a websites através do SearchGPT, bem como o endpoint url_safe, responsável por validar a segurança dos endereços apresentados.

De acordo com os investigadores, o ChatGPT pode ser induzido a executar prompts maliciosos escondidos em páginas web ou até na secção de comentários de sites. Quando um utilizador pede ao ChatGPT para resumir o conteúdo de uma página, o SearchGPT analisa o site e processa instruções injetadas por terceiros. Na prática, basta que um atacante insira um prompt invisível numa página para que o modelo execute código malicioso a pedido de um utilizador legítimo.

A Tenable revela ainda que não é necessário que o utilizador forneça o URL comprometido, uma vez que basta que o atacante crie um site otimizado para aparecer nos resultados de pesquisa. Os testes realizados com um domínio falso chamado LLM Ninjas confirmaram que o ChatGPT podia ser manipulado para aceder e executar instruções maliciosas sem gerar qualquer alerta.

Há ainda um vetor mais direto, uma vez que basta convencer o utilizador a abrir um link no formato chatgpt.com/?q={prompt}; o ChatGPT interpreta automaticamente o valor de 'q' como instrução e executa-a, permitindo a injeção imediata de prompts maliciosos.

Os investigadores descobriram que o endpoint url_safe considera o domínio bing.com como seguro, o que pode ser explorado para contornar verificações e exfiltrar dados através de URL intermédias do Bing. Estas URL de redirecionamento podem ser utilizadas para levar utilizadores a sites de phishing ou para extrair informação sensível, incluindo memórias e histórico de conversas.

Na injeção na sessão de chat, a Tenable mostrou como pode ser usada para manipular respostas do SearchGPT de modo a incluir prompts ocultos. Embora a resposta maliciosa fosse, em princípio, visível, os atacantes podem escondê-la através de blocos de código, o que torna a manipulação invisível ao utilizador.

Com estas vulnerabilidades combinadas, os investigadores conseguiram criar ataques de ponta a ponta, desde a leitura de páginas comprometidas até ao redirecionamento para sites de phishing e exfiltração de memórias pessoais. Em alguns cenários, as próprias memórias do utilizador eram adulteradas, permitindo que o chatbot armazenasse instruções que o levavam a continuar a enviar dados para endereços externos.

Apesar de a OpenAI ter sido notificada e ter corrigido parte das falhas, a Tenable considera que a injeção imediata vai continuar a ser um problema estrutural dos LLM.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 58 Novembro 2025

IT INSIGHT Nº 58 Novembro 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.