O Emerald Sleet, um grupo de hackers norte-coreano, e o Crimson Sandstorm, associado à Guarda Revolucionária Iraniana, usaram o chatbot para gerar documentos que provavelmente seriam usados para “phishing”. (Foto: 123RF)
Hackers afiliados aos governos russo, chinês, iraniano ou norte-coreano usam o ChatGPT para identificar vulnerabilidades em sistemas informáticos, preparar operações de “phishing” ou desativar software antivírus, relatam a OpenAI e a Microsoft em documentos publicados quarta-feira.
Numa mensagem publicada no seu site, a OpenAI indica que “interrompeu” a utilização de inteligência artificial (IA) generativa por parte destes intervenientes paragovernamentais, com a colaboração da Microsoft Threat Intelligence, unidade que enumera as ameaças que representam às empresas em termos de cíber segurança.
“As contas OpenAI identificadas como afiliadas a esses atores foram encerradas”, disse o criador da interface generativa de IA ChatGPT.
O Emerald Sleet, um grupo de hackers norte-coreano, e o Crimson Sandstorm, associado à Guarda Revolucionária Iraniana, usaram o chatbot para gerar documentos que provavelmente seriam usados para “phishing”, de acordo com o estudo.
“Phishing” consiste em se apresentar a um usuário da Internet sob uma identidade falsa para obter dele acesso ilegal a senhas, códigos, identificadores ou diretamente a informações e documentos não públicos.
A Crimson Sandstorm também usou modelos de linguagem (LLM), a base das interfaces generativas de IA, para entender melhor como desabilitar o software antivírus, segundo a Microsoft.
Já o grupo Charcoal Typhoon, considerado próximo das autoridades chinesas, utilizou o ChatGPT para tentar detectar vulnerabilidades em antecipação a possíveis ataques informáticos.
“O objetivo da parceria entre a Microsoft e a OpenAI é garantir o uso seguro e responsável de tecnologias alimentadas por inteligência artificial, como o ChatGPT, segundo a Microsoft.
O grupo de Redmond (estado de Washington) afirma que ajudou a fortalecer a proteção do modelo de linguagem (LLM) da OpenAI.
O relatório observa que a interface se recusou a ajudar outro grupo de hackers próximo ao governo chinês, Salmon Typhoon, a gerar código de computador para fins de hacking, “aderindo assim às regras éticas” incorporadas ao software.
“Compreender como os agentes de ameaças mais avançados usam nossos programas para fins maliciosos nos informa sobre práticas que podem se tornar mais prevalentes no futuro”, explica OpenAI.
“Não conseguiremos bloquear nenhuma tentativa mal intencionada”, alerta OpenAI. “Mas ao continuarmos a inovar, colaborar e partilhar, tornamos mais difícil que os malfeitores passem despercebidos.”