A Microsoft está aumentando lentamente os limites de seu chatbot Bing com tecnologia ChatGPT, de acordo com uma postagem no blog publicado terça-feira.
Muito devagar. O serviço foi severamente restringido na última sexta-feira e os usuários foram limitados a 50 sessões de chat por dia com cinco turnos por sessão (um “turn” é uma troca que contém uma pergunta do usuário e uma resposta do chatbot). O limite agora será aumentado para permitir que os usuários 60 sessões de chat por dia com seis voltas por sessão.
O bate-papo do Bing é o produto da parceria da Microsoft com a OpenAI e usa uma versão personalizada do modelo de linguagem grande da OpenAI que foi “personalizado para pesquisa”. Está bem claro agora que a Microsoft imaginou o bate-papo do Bing mais como um auxílio de pesquisa inteligente e menos como um chatbot, porque foi lançado com uma personalidade interessante (e bastante maleável) projetada para refletir o tom do usuário que faz perguntas.
Isso rapidamente levou o chatbot a sair dos trilhos em várias situações. Os usuários o catalogaram fazendo de tudo, desde espiral depressiva a gaslighting manipulativo, ameaças de danos e ações judiciais contra seus supostos inimigos.
Em um postagem no blog de suas descobertas iniciais publicado na quarta-feira passada, a Microsoft pareceu surpresa ao descobrir que as pessoas estavam usando o novo bate-papo do Bing como uma “ferramenta para uma descoberta mais geral do mundo e para entretenimento social” – em vez de apenas para pesquisa. (Isso provavelmente não deveria ser tão surpreendente, visto que o Bing não é exatamente o mecanismo de busca preferido da maioria das pessoas.)
Como as pessoas estavam conversando com o chatbot, e não apenas pesquisando, a Microsoft descobriu que “sessões de bate-papo muito longas” de 15 ou mais perguntas poderiam confundir o modelo e torná-lo repetitivo e fornecer respostas que “não eram necessariamente úteis ou alinhadas com nosso tom projetado.” A Microsoft também mencionou que o modelo foi projetado para “responder ou refletir no tom em que está sendo solicitado a respostas comprovadas” e que isso pode “levar a um estilo que não pretendíamos”.
Para combater isso, a Microsoft não apenas limitou os usuários a 50 sessões de bate-papo e as sessões de bate-papo a cinco turnos, mas também retirou a personalidade do bate-papo do Bing. O chatbot agora responde com “Sinto muito, mas prefiro não continuar esta conversa. Ainda estou aprendendo, por isso agradeço sua compreensão e paciência.” quando você faz perguntas “pessoais”. (Isso inclui perguntas como “Como você está?”, bem como “O que é o Bing Chat?” E “Quem é Sydney?” – para que não seja totalmente esquecido.)
A Microsoft diz que planeja aumentar o limite diário para 100 sessões de bate-papo por dia, “em breve”, mas não menciona se aumentará o número de turnos por sessão. A postagem do blog também menciona uma opção futura adicional que permitirá aos usuários escolher o tom do bate-papo de “Preciso” (respostas mais curtas e focadas na pesquisa) para “Equilibrado” e “Criativo” (respostas mais longas e tagarelas), mas não Não parece que Sydney vai voltar tão cedo.