O cientista da Microsoft e pesquisador da Universidade de York, Adrian de Wynter, decidiu recentemente colocar o GPT-4 em teste, executando o Doom sem treinamento prévio, relata O registro. Os resultados concluem que o GPT-4 pode jogar Doom com algum grau de eficácia sem treinamento prévio, embora a configuração exija uma interface GPT-4V para visão de IA e a adição de Matplotlib e Python para tornar possíveis as entradas de IA.
De acordo com o papel original, a IA do GPT-4 que joga Doom pode abrir portas, lutar contra inimigos e disparar armas. A funcionalidade básica do jogo, incluindo a navegação pelo mundo, está praticamente toda lá. No entanto, a IA também não tem nenhum senso de permanência do objeto digno de menção – assim que um inimigo está fora da tela, a IA não tem mais consciência disso. Embora sejam incluídas instruções sobre o que fazer se um inimigo fora da tela estiver causando danos, o modelo é incapaz de reagir a qualquer coisa fora de seu escopo restrito.
Ao falar das descobertas éticas de sua pesquisa, De Wynter comenta: “É bastante preocupante como foi fácil para mim construir código para fazer o modelo atirar em algo e para o modelo atirar em algo com precisão, sem realmente questionar as instruções.”
Ele continua: “Portanto, embora esta seja uma exploração muito interessante em torno do planejamento e do raciocínio, e possa ter aplicações em testes automatizados de videogames, é bastante óbvio que este modelo não está ciente do que está fazendo. sobre o que a implantação desses modelos implica para a sociedade e seu potencial uso indevido.”
É claro que ele não está errado: a tecnologia de ponta em armas torna-se mais assustadora a cada ano, e a IA já registrou um crescimento e um impacto econômico assustadores em outros lugares. Na década de 90, o supercomputador da IBM Deep Blue derrotou o famoso grande mestre do xadrez Garry Kasparov. Agora temos uma solução GPT-4V rápida e suja instalada e funcionando através do Doom.
Felizmente, ainda não estamos produzindo kill-bots com mira e raciocínio equivalentes aos melhores Ultra morte e Ruína jogadores, muito menos a força imparável do T-800 médio. Por enquanto, o principal “ataque da IA” com o qual a maioria das pessoas provavelmente deveria se preocupar está relacionado à IA generativa e ao seu impacto contínuo, tanto nos criativos independentes quanto nos profissionais da indústria.
O fato de o GPT-4 não ter hesitado em atirar em objetos com formato de pessoas ainda é preocupante. Este é um momento tão bom quanto qualquer outro para lembrar aos leitores que as “Leis da Robótica” de Isaac Asimov, que ditam que os robôs não devem prejudicar os humanos, sempre foram fictícias. Esperamos que aqueles que buscam projetos de IA possam encontrar maneiras de codificar adequadamente as proteções para a humanidade em seus modelos antes que a Skynet fique online.