O ChatGPT conseguiu criar algumas coisas divertidas e hilárias nas mãos certas, como esta Big Mouth Billy Bass projeto. No entanto, há um lado muito mais sombrio da IA que pode ser usado para criar alguns problemas seriamente complicados para o futuro da TI. Alguns especialistas em TI descreveram recentemente o potencial perigoso do ChatGPT e sua capacidade de criar malware polimórfico que é quase impossível de detectar usando detecção e resposta de endpoint (EDR).
EDR é um tipo de técnica de segurança cibernética que pode ser implantada para capturar software malicioso. No entanto, os especialistas sugerem que esse protocolo tradicional não é páreo para o dano potencial que o ChatGPT pode criar. O código que pode sofrer mutações – é aqui que entra o termo polimórfico – pode ser muito mais difícil de detectar.
A maioria dos modelos de aprendizado de idiomas (LLMs), como o ChatGPT, são projetados com filtros para evitar a geração de conteúdo impróprio, conforme considerado por seus criadores. Isso pode variar de tópicos específicos a, neste caso, código malicioso. No entanto, não demorou muito para que os usuários encontrassem maneiras de burlar esses filtros. É essa tática que torna o ChatGPT particularmente vulnerável a indivíduos que procuram criar scripts nocivos.
Jeff Sims é engenheiro de segurança da HYAS InfoSec, uma empresa focada em segurança de TI. Em março, Sims publicou um white paper detalhando um projeto de prova de conceito que ele chama Mamba negra. Este aplicativo é um tipo de keylogger polimórfico que envia solicitações ao ChatGPT usando uma API sempre que é executado.
“Usando essas novas técnicas, um agente de ameaça pode combinar uma série de comportamentos tipicamente altamente detectáveis em uma combinação incomum e evitar a detecção explorando a incapacidade do modelo de reconhecê-lo como um padrão malicioso”, explica Sims.
Outra empresa de cibersegurança, CyberArkName, demonstrou recentemente a capacidade do ChatGPT de criar esse tipo de malware polimórfico em uma postagem de blog de Eran Shimony e Omer Tsarfati. No post, eles explicam como a injeção de código a partir de solicitações do ChatGPT permite modificar os scripts depois de ativados, evitando as técnicas mais modernas usadas para detectar comportamentos maliciosos.
No momento, temos apenas esses exemplos como prova de conceito – mas esperamos que essa conscientização leve a mais desenvolvimentos para evitar os danos que esse tipo de código mutante pode causar em um cenário do mundo real.