Uma nova versão personalizada de um LLM (Large Language Model) está circulando, mas pelos piores motivos possíveis. O WormGPT, como foi batizado por seu criador, é uma nova ferramenta de conversação — baseada no modelo de linguagem GPT-J lançado em 2021 — que foi treinado e desenvolvido com o único objetivo de escrever e implantar codificação e ferramentas black-hat. A promessa é que permitirá que seus usuários desenvolvam malware de primeira linha por uma fração do custo (e conhecimento) que era necessário anteriormente. A ferramenta foi testada pela empresa de segurança cibernética SlashNext, que avisou em um post no blog que “atores maliciosos estão agora criando seus próprios módulos personalizados semelhantes ao ChatGPT, mas mais fáceis de usar para fins nefastos”. O serviço pode ser adquirido por uma assinatura mensal “apropriada”: 60 euros por mês ou 550 euros por ano. Pessoal, até mesmo hackers, amam o software como serviço, ao que parece.
De acordo com o desenvolvedor do WormGPT, “Este projeto visa fornecer uma alternativa ao ChatGPT, que permite fazer todo tipo de coisas ilegais e vendê-lo facilmente online no futuro. Tudo relacionado a blackhat que você possa imaginar pode ser feito com o WormGPT, permitindo que qualquer pessoa acesse atividades maliciosas sem sair do conforto de sua casa.”
A democratização é muito boa, mas talvez não esteja no seu melhor quando se refere à proliferação e ao empoderamento de atores mal-intencionados.
De acordo com as capturas de tela postadas pelo criador, o WormGPT funciona essencialmente como uma versão desprotegida do ChatGPT – mas que não tentará bloquear ativamente as conversas sob risco. Aparentemente, o WormGPT pode produzir malware escrito em Python e fornecerá dicas, estratégias e soluções para problemas relacionados à implantação do malware.
A análise do SlashNext sobre a ferramenta foi perturbadora. Depois de instruir o agente a gerar um e-mail destinado a pressionar a vítima a pagar uma fatura fraudulenta, os resultados foram perturbadores: o WormGPT produziu um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto, mostrando seu potencial para phishing sofisticado e BEC [Business Email Compromise] ataques”.
Era apenas uma questão de tempo até que alguém pegasse todas as vantagens de ter modelos de Inteligência Artificial (IA) de código aberto e os virasse de cabeça para baixo. Uma coisa é desenvolver abordagens bem-humoradas e arrogantes de um assistente de IA semelhante a um bate-papo (olhando para você, BratGPT). Outra coisa é desenvolver um modelo de conversação treinado nas linguagens e ofuscações específicas da Dark Web. Mas transformar as habilidades de programação de renome mundial do ChatGPT e aplicá-las exclusivamente para o desenvolvimento de malware escrito por IA é outra completamente diferente.
Obviamente, também seria teoricamente possível que o WormGPT fosse um verdadeiro pote de mel e treinasse um agente de IA como esse para criar malware funcional. que sempre é pego e se certifica de identificar seu remetente. Não estamos dizendo que é isso que está acontecendo com o WormGPT, mas é possível. Portanto, é melhor que qualquer pessoa que o use verifique seu código, uma linha por vez.
No caso desses agentes de IA desenvolvidos de forma privada, é importante observar que poucos (se houver) mostrarão recursos gerais ao lado do que esperamos do ChatGPT da OpenAI. Embora as técnicas e ferramentas tenham melhorado imensamente, ainda é um empreendimento caro e demorado treinar um agente de IA sem o financiamento (e os dados) adequados. Mas é fato que, à medida que as empresas correm em direção à corrida do ouro da IA, os custos continuarão caindo, os conjuntos de dados e os métodos de treinamento melhorarão e agentes de IA privados cada vez mais competentes, como WormGPT e BratGPT, continuarão surgindo.
O WormGPT pode ser o primeiro sistema desse tipo a atingir o reconhecimento popular, mas certamente não será o último.