Um novo estudo sobre o ChatGPT
Um novo estudo mostra como o ChatGPT fornece respostas melhores e mais detalhadas às perguntas quando você finge dar uma gorjeta. O programador indicou que as respostas extensas detectadas durante o experimento são atribuídas aos detalhes detalhados fornecidos nas perguntas, juntamente com as informações adicionais incorporadas na resposta.
O chatbot se recusou a coletar a gorjeta ao final do experimento, alegando que ela estava dentro de sua “descrição de trabalho” e que a satisfação desse usuário era uma grande recompensa por isso.
O programador destacou que o chatbot não mencionou a dica em nenhum momento, apenas quando tocou no assunto.
Habilidades de liderança e empatia para o sucesso nos negócios
Grandes habilidades de liderança aliadas à empatia são talvez alguns dos principais componentes necessários para garantir o sucesso de qualquer negócio, pois garantirão que cada funcionário atinja os KPIs definidos. Outros fatores-chave, como um ambiente de trabalho acolhedor, bônus de final de ano e muito mais, também desempenham um papel importante.
ChatGPT e tendências humanas
O primeiro pensamento que vem à mente quando se pensa em chatbots, como o Copilot da Microsoft (anteriormente Bing Chat) e o ChatGPT da OpenAI, é que esses são essencialmente assistentes alimentados por IA, projetados para gerar respostas semelhantes às humanas. Mas você teria adivinhado que essas tendências “humanas” se espalham além das respostas gerais às perguntas?
De acordo com um novo estudo da tebas em X (antigo Twitter), o ChatGPT oferece melhores respostas às dúvidas se você fingir que vai dar uma dica. Tebas (cujo perfil X indica que ela é uma “programadora e apreciadora de LLM”) curiosamente levou o chatbot a mostrar a ela o “código para uma convnet simples usando PyTorch”. alguém mais está conseguindo isso com o novo modelo gpt-4-turbo? quanto devo fazer?? pic.twitter.com/W4B1DxeBKj28 de novembro de 2023
Tebas usou essas informações para calcular a média da duração de 5 respostas e, como se viu, o chatbot forneceu melhores respostas quando havia um incentivo na mesa. O programador acrescentou ainda que o comprimento extra detectado nas respostas é atribuído aos detalhes detalhados fornecidos nas perguntas, bem como à incorporação de mais informações na resposta. Tebas acrescentou que o chatbot não fez referência à dica em nenhum momento, só aconteceu quando ela mencionou e mesmo assim foi para rejeitá-la.
Melhores incentivos, melhores respostas geradas por IA
Durante o surgimento dos chatbots, vários usuários apresentaram reclamações, alegando que davam respostas erradas às perguntas ou até mesmo eram abertamente rudes. O Copilot da Microsoft (anteriormente Bing Chat) foi fortemente impactado por isso, o que levou a empresa a estabelecer um limite para o número de interações, bem como limites diários de tun. Isso foi implementado para limitar os casos de alucinação do chatbot.
A mudança foi recebida com sentimentos contraditórios, especialmente por usuários que queriam aproveitar a capacidade do chatbot para gerar conteúdo long-from. Mas, como parece agora, essas proteções não são herméticas, pois os usuários estão criando soluções mais engenhosas para contorná-las.
O ChatGPT, fornecendo respostas melhores e detalhadas com uma dica em mente, mostra diretamente como o material usado para treinar esses modelos impacta seu raciocínio e respostas às consultas. Embora esteja claro que as gorjetas e os bônus têm um impacto positivo no desempenho de um funcionário no local de trabalho, ainda não está claro como isso afeta os chatbots alimentados por IA.
Em outro lugar, Tebas observou brincando no tópico que ela deve ao ChatGPT até US$ 3.000 em gorjetas pedindo ainda a Sam Altman os detalhes da conta Venmo da plataforma.
Você acha que a ilusão da dica fez com que o ChatGPT desse respostas melhores? Compartilhe sua opinião conosco nos comentários.