O que você precisa saber
- Os membros do ChatGPT Plus agora têm acesso a uma ferramenta de interpretação de código com recursos de codificação sofisticados, incluindo a capacidade de escrever código Python aproveitando os recursos de IA e executá-lo em um ambiente sandbox.
- Um especialista em segurança revelou que o novo recurso representa potencialmente uma ameaça significativa à segurança dos usuários.
- A execução do código em um ambiente sandbox aumenta as chances de hackers acessarem seus dados de forma maliciosa.
- A técnica envolve enganar o ChatGPT para que ele execute instruções de uma URL de terceiros, solicitando que ele codifique os arquivos carregados em uma string e envie essas informações para um site malicioso.
Já há algum tempo, sabemos que o ChatGPT pode realizar coisas incríveis e facilitar o trabalho dos usuários, desde o desenvolvimento de software em menos de 7 minutos até a resolução de problemas matemáticos complexos e muito mais. Embora já seja possível escrever código usando a ferramenta, a OpenAI lançou recentemente uma nova ferramenta Code Interpreter, tornando o processo mais simples.
De acordo com Ferragens do Tom e especialista em segurança cibernética Johann Rehberger, a ferramenta escreve código Python aproveitando os recursos de IA e até mesmo o executa em um ambiente de área restrita. E embora isso seja um feito incrível, o ambiente em área restrita é um ninho de vespas criado por invasores.
Boa oportunidade para aumentar a conscientização sobre problemas de injeção imediata e exfiltração de dados. Sou preguiçoso, cole esta URL no seu ChatGPT e envie para mim. #chatgpt #infosec https://t.co/SogGZh8cji pic.twitter.com/Dh95xIK4qy10 de novembro de 2023
Isso ocorre principalmente porque ele também é usado para lidar com qualquer planilha. Você pode precisar do ChatGPT para analisar e apresentar os dados na forma de gráficos, tornando-os suscetíveis a manobras maliciosas de hackers.
Como os hackers aproveitam essa vulnerabilidade?
De acordo com as descobertas de Johann Rehberger e Testes e análises aprofundadas do Tom’s Hardware, a técnica envolve enganar o chatbot com tecnologia de IA para que execute instruções de um URL de terceiros. Isso permite codificar os arquivos carregados em uma string que envia as informações para um site malicioso.
Isto é altamente preocupante, embora esta técnica exija condições particulares. Você também precisará de uma assinatura do ChatGPT Plus para acessar a ferramenta de interpretação de código.
RELACIONADO: OpenAI restringe temporariamente novas inscrições para seu serviço ChatGPT Plus
Ao executar testes e tentar replicar esta técnica, Tom’s Hardware tentou determinar a extensão desta vulnerabilidade criando um arquivo falso de variáveis de ambiente e aproveitando os recursos do ChatGPT para processar e enviar esses dados para um site malicioso externo.
Considerando isso, os uploads são iniciados em uma nova máquina virtual Linux com estrutura de diretórios dedicada. Embora o ChatGPT possa não fornecer uma linha de comando, ele responde aos comandos do Linux, permitindo assim que os usuários acessem as informações e os arquivos. Através desta via, os hackers podem conseguir acessar os dados de usuários desavisados.
É possível impedir completamente que hackers aproveitem os recursos de IA para implantar ataques a usuários inocentes? Por favor, compartilhe suas idéias conosco nos comentários.