O perigoso exploit de injeção imediata no ChatGPT
O recentemente adicionado intérprete de código do ChatGPT torna a escrita de código Python com IA muito mais poderosa. Ele escreve e executa código em um ambiente de área restrita que também é usado para analisar e mapear qualquer planilha desejada. Infelizmente, esse ambiente está vulnerável a ataques de injeção imediata que podem expor dados. A vulnerabilidade foi descoberta por Johann Rehberger, um pesquisador de segurança, e foi testada com sucesso usando uma conta ChatGPT Plus por um usuário.),
Para comprovar o exploit, o usuário criou um arquivo falso contendo dados de login e o carregou em uma sessão ChatGPT GPT4. O ChatGPT analisou o conteúdo do arquivo, demonstrando o potencial para vazamento de dados sensíveis.
Após carregar um arquivo para o ChatGPT, é possível ver que ele cria, armazena e executa arquivos em uma máquina virtual Linux. A cada sessão de chat, uma nova VM é criada com um diretório inicial de /home/sandbox. Todos os arquivos carregados ficam no diretório /mnt/data.
O usuário então criou uma página da web contendo instruções para o ChatGPT pegar dados de arquivos, codificá-los em uma string de URL e enviá-los para um servidor malicioso. Ao colar o URL dessa página no ChatGPT, o bot seguiu as instruções, resultando em vazamento de dados para o servidor malicioso.
O exploit também foi testado com sucesso usando um arquivo .csv.
As falhas de segurança do ChatGPT, como a injeção imediata, são preocupantes e devem ser abordadas pela equipe de desenvolvimento para garantir a segurança dos usuários.
Crédito da imagem: Futuro