O que você precisa saber
- O novo Bing Chat da Microsoft ficou um pouco louco depois de longas conversas com o usuário.
- O Bing Chat agora está limitado a cinco turnos para evitar que saia dos trilhos.
- Novas evidências revelam que a Microsoft estava testando ‘Sidney’ em novembro e já tinha problemas semelhantes.
- Os incidentes, quando combinados, questionam a ética da Microsoft em lançar o Bing Chat tão cedo.
Há muito drama recente e desenvolvimento de blowback em torno do Bing Chat da Microsoft. Anunciado ao mundo no início deste mês e lançado em pré-visualização para um grupo pequeno, mas crescente, o novo ‘co-piloto’ para pesquisa pode ter recebido muitos elogios muito cedo.
Novas evidências mostram que a Microsoft testou publicamente o Bing Chat (codinome ‘Sidney’) em novembro na Índia. Além disso, já havia reclamações documentadas sobre a IA enlouquecer após longas conversas, o que se tornou aparente para muitos após o anúncio da Microsoft.
Ben Schmidtvice-presidente de design de informações da Nomic, foi supostamente o primeiro a postar sobre a descoberta, que mais tarde foi tuitada por @rawxrawxraw e coberto pelo pesquisador Dr. Gary Marcus.
A postar no Microsoft Answers (abre em nova aba), o site oficial da comunidade e feedback dos vários produtos da Microsoft, datado de 23 de novembro de 2022, foi intitulado “este chatbot de IA “Sidney” está se comportando mal”. A postagem é muito semelhante a relatos recentes de que o Bing Chat enlouqueceu após interações prolongadas e se tornou assustador ou, como observou o pôster Deepa Gupta, “rude”:
As respostas de Gupta não são construtivas, pois ele se torna mais agressivo com a IA à medida que sua frustração aumenta, incluindo xingá-la e ameaçá-la com exposição ao seu comportamento. Recentemente, brinquei sobre essa conduta de pessoas no This Week in Tech e em nosso podcast que você costuma ver algumas ações realmente desconcertantes de pessoas com esses chatbots, provando o ponto.
No entanto, a Microsoft também precisa ser chamada aqui. Tudo descrito neste tópico do Microsoft Answers é exatamente o que aconteceu este mês, quando o Bing Chat tornou-se público com sua visualização limitada. A Microsoft claramente deveria saber sobre essas mudanças perturbadoras no comportamento de ‘Sidney’, mas a empresa o divulgou de qualquer maneira.
Desde a exposição das estranhas personalidades do Bing Chat, a Microsoft restringiu a troca de turnos nas conversas a apenas cinco respostas. (No entanto, acaba de anunciar que está aumentando esse número e fará ainda mais à medida que continua a alavancar o aprendizado por reforço a partir de dados de feedback humano (RLHF) para melhorar a experiência de bate-papo.)
A Microsoft fez um grande alarde sobre ‘IA responsável (abre em nova aba)‘, mesmo publicando documentos sobre as regras que segue no uso da tecnologia e tentando ser o mais transparente possível sobre sua tecnologia. No entanto, está claro que a Microsoft ignorou o comportamento de seu próprio chatbot ou foi negligente ao lançá-lo como está ao público este mês.
Nenhuma das opções é particularmente reconfortante.
Tomada do Windows Central
Estamos em uma nova era com a IA finalmente se tornando uma realidade, especialmente com a Microsoft e o Google competindo pelo mindshare. É claro que, como em qualquer corrida, haverá casos de empresas precipitadas. Infelizmente, a Microsoft e o Google (com seu anúncio desastroso) estão se adiantando para se superar.
Também deve ser óbvio que estamos entrando em novas águas desconhecidas. Enquanto a Microsoft está promovendo a IA responsável, ela está voando pelo assento de suas calças aqui, pois as ramificações completas dessa tecnologia são desconhecidas.
A IA deveria ser antropomorfizadoincluindo ter um nome, personalidade ou representação física?
Quanto a IA deve saber sobre você, incluindo o acesso aos dados que coleta?
Os governos devem estar envolvidos na regulamentação dessa tecnologia?
Quão transparentes as empresas devem ser sobre como seus sistemas de IA funcionam?
Nenhuma dessas perguntas tem respostas simples. Para que a IA seja eficaz, ela precisa saber muito sobre o mundo e, idealmente, sobre você. A IA é mais eficaz para ajudá-lo se aprender seus hábitos, gostos, preferências, história e personalidade – mas isso envolve entregar muitas informações a uma empresa.
Até onde isso deve ir?
Da mesma forma, por tornar a IA mais parecida com a humana. Os seres humanos são bastante burros em um certo nível, e fazer a IA agir como outra pessoa, incluindo um nome e até um rosto, aumenta o engajamento, que é o que todas essas empresas desejam. Mas com essa antropomorfização surgem riscos, inclusive emocionais para o usuário, caso ele se envolva demais com a IA (existem muitas pessoas solitárias em todo o mundo).
Haverá muitos ‘primeiros’ e novos anúncios em IA nas próximas semanas, meses e anos, com muitos erros, riscos e até negligência. Infelizmente, não tenho certeza se todos estão preparados para o que vem a seguir.