Falha de segurança no ChatGPT permite espionagem prolongada por hackers
Vulnerabilidade no ChatGPT
Uma vulnerabilidade de segurança recentemente descoberta no ChatGPT para macOS poderia ter permitido que atacantes implantassem spyware persistente na função de memória do sistema, resultando em uma exfiltração contínua de dados dos usuários. O ataque, batizado de “SpAIware” pelo pesquisador de segurança Johann Rehberger, explorava o novo recurso de memória persistente da IA, introduzido pela OpenAI em fevereiro e expandido para todos os usuários recentemente.
Essa falha permitia que hackers injetassem comandos maliciosos no ChatGPT, gravando instruções na memória de longo prazo do sistema. A partir desse ponto, toda interação futura do usuário com o chatbot era enviada a um servidor remoto controlado pelos atacantes, mesmo após o início de novas sessões de conversa. O ataque era praticamente invisível para o usuário, que não suspeitava que suas informações estavam sendo capturadas continuamente.
Rehberger demonstrou que os hackers não precisavam de acesso físico ou remoto à conta da vítima. Bastava que o usuário fosse induzido a visitar um site malicioso ou escanear um documento infectado usando o ChatGPT, o que ativaria a injeção de comando. Embora o problema tenha sido detectado no macOS, não há confirmação se ele afeta outras versões do aplicativo.
Resposta da OpenAI
A OpenAI respondeu rapidamente ao problema e lançou uma atualização que bloqueia a capacidade de enviar dados para servidores remotos. No entanto, a vulnerabilidade de injeção de prompt ainda permanece uma ameaça, já que o chatbot pode continuar a aceitar comandos de fontes não confiáveis e armazená-los em sua memória de longo prazo.
A recomendação é que os usuários revisem regularmente as memórias armazenadas no ChatGPT e apaguem quaisquer entradas suspeitas. O ataque destacou os riscos associados ao uso de IA com memória persistente, tanto do ponto de vista de desinformação quanto de segurança cibernética.
Além disso, esta falha ocorre em um momento de crescente interesse em técnicas para explorar modelos de linguagem, como o recente MathPrompt, que engana as medidas de segurança da IA usando codificação matemática. Isso enfatiza a importância de reforçar a segurança em plataformas de inteligência artificial à medida que suas capacidades continuam a evoluir.