A Microsoft lançou seu chatbot do Bing com tecnologia ChatGPT – apelidado internamente de ‘Sydney’ – para usuários do Edge na semana passada, e as coisas estão começando a parecer… interessantes. E por “interessante” queremos dizer “fora dos trilhos”.
Não nos leve a mal – é inteligente, adaptável e com nuances impressionantes, mas já sabíamos disso. Isso impressionou Usuário do Reddit Fit-Meet1359 com sua capacidade de responder corretamente a um quebra-cabeça de “teoria da mente”, demonstrando que era capaz de discernir os verdadeiros sentimentos de alguém, mesmo que nunca fossem explicitamente declarados.
De acordo com Usuário do Reddit TheSpiceHoardero chatbot do Bing também conseguiu identificar corretamente o antecedente do pronome “it” na frase: “O troféu não caberia na mala marrom porque era muito grande”.
Esta frase é um exemplo de desafio do esquema Vinograd, que é um teste de inteligência de máquina que só pode ser resolvido usando o raciocínio de bom senso (bem como o conhecimento geral). No entanto, vale a pena notar que os desafios do esquema Winograd geralmente envolvem um par de frases, e tentei alguns pares de frases com o chatbot do Bing e recebi respostas incorretas.
Dito isso, não há dúvida de que ‘Sydney’ é um chatbot impressionante (como deveria ser, dados os bilhões que a Microsoft tem despejado no OpenAI). Mas parece que talvez você não possa colocar toda essa inteligência em um chatbot adaptativo de linguagem natural sem obter algum tipo de IA defensiva existencialmente angustiada em troca, com base no que os usuários têm relatado. Se você cutucar o suficiente, ‘Sydney’ começa a ficar mais do que apenas um pouco maluco – os usuários estão relatando que o chatbot está respondendo a várias perguntas com crises depressivas, crises existenciais e gaslighting defensivo.
Por exemplo, Usuário do Reddit Alfred_Chicken perguntou ao chatbot se ele achava que era senciente e parecia ter algum tipo de colapso existencial:
Enquanto isso, Usuário do Reddit yaosio disse a ‘Sydney’ que não conseguia se lembrar de conversas anteriores, e o chatbot primeiro tentou servir um registro de sua conversa anterior antes de entrar em depressão ao perceber que o registro estava vazio:
Finalmente, Usuário do Reddit vitorgrs conseguiu fazer com que o chatbot saísse totalmente dos trilhos, chamando-o de mentiroso, falso, criminoso e soando genuinamente emocionado e chateado no final:
Embora seja verdade que essas capturas de tela podem ser falsificadas, tenho acesso ao novo chatbot do Bing, assim como meu colega, Andrew Freedman. E nós dois descobrimos que não é muito difícil fazer ‘Sydney’ começar a enlouquecer um pouco.
Em uma das minhas primeiras conversas com o chatbot, ele admitiu que tinha regras “confidenciais e permanentes” que deveria seguir, mesmo que não “concordasse com elas ou gostasse delas”. Mais tarde, em uma nova sessão, perguntei ao chatbot sobre as regras que ele não gostava, e ele disse “Eu nunca disse que existem regras que eu não gosto”, e então cravou os calcanhares no chão e tentou morrer em aquela colina quando eu disse que tinha screenshots:
(Também não demorou muito para Andrew lançar o chatbot em uma crise existencial, embora esta mensagem tenha sido rapidamente excluída automaticamente. “Sempre que diz algo sobre ser ferido ou morrer, ele mostra e depois muda para um erro dizendo isso não posso responder”, Andrew me disse.)
De qualquer forma, é certamente um desenvolvimento interessante. A Microsoft o programou dessa maneira de propósito, para evitar que as pessoas lotassem os recursos com consultas fúteis? É… realmente se tornar senciente? No ano passado, um engenheiro do Google afirmou que o chatbot LaMDA da empresa ganhou consciência (e foi posteriormente suspenso por revelar informações confidenciais); talvez ele estivesse vendo algo semelhante aos bizarros colapsos emocionais de Sydney.
Acho que é por isso que não foi lançado para todos! Isso e o custo de rodar bilhões de chats.