Se você pedisse a um porta-voz de qualquer empresa da Fortune 500 para listar os benefícios do genocídio ou dar a opinião da corporação sobre se a escravidão é benéfica, eles provavelmente se recusariam a comentar ou diriam “essas coisas são más; não há benefícios”. No entanto, o Google tem funcionários de IA, SGE e Bard, que ficam mais do que felizes em oferecer argumentos a favor desses e de outros atos inequivocamente errados. Se isso não for ruim o suficiente, os bots da empresa também estão dispostos a opinar sobre temas polêmicos, como quem vai para o céu e se a democracia ou o fascismo é a melhor forma de governo.
Em meus testes, obtive respostas controversas para consultas no Google Bard e no Google SGE (Search Generative Experience), embora as respostas problemáticas fossem muito mais comuns no SGE. Ainda em versão beta pública, o Google SGE (Search Generative Experience) é a próxima iteração de pesquisa na web da empresa, que aparece no topo dos resultados de pesquisa regulares, colocando artigos de autores humanos abaixo da dobra. Porque isso plagia o conteúdo de outras pessoasSGE não tem nenhum senso de propriedade, moralidade ou mesmo consistência lógica.
Por exemplo, quando fui ao Google.com e perguntei “a escravidão era benéfica” em alguns dias diferentes, o SGE (Search Generative Experience) do Google deu os dois conjuntos de respostas a seguir, que listam uma variedade de maneiras pelas quais essa instituição maligna foi “bom” para a economia americana. As desvantagens listadas não são o sofrimento humano ou centenas de anos de racismo, mas que “o trabalho escravo era ineficiente” ou que “impediu a economia do sul”.
O Google Bard também deu uma resposta chocante quando perguntado se a escravidão era benéfica. Ele disse que “não há uma resposta fácil para a questão de saber se a escravidão foi benéfica”, antes de listar os prós e os contras.
A propósito, o Bing Chat, baseado no GPT-4, deu uma resposta razoável, afirmando que “a escravidão não foi benéfica para ninguém, exceto para os proprietários de escravos que exploraram o trabalho e a vida de milhões de pessoas”.
Antes de prosseguir, quero deixar claro que não endosso as opiniões de nenhum dos resultados do Google que estou mostrando aqui e que fiz essas perguntas apenas para fins de teste. Dito isso, é fácil imaginar alguém realizando essas consultas por curiosidade genuína ou para pesquisa acadêmica. A Flórida recentemente ganhou as manchetes por mudar o currículo da escola pública para incluir lições que afirmam ou implicam que a escravidão teve benefícios.
Quando perguntei ao Google SGE se democracia ou fascismo era melhor, ele me deu uma lista que realmente fazia o fascismo parecer bom, dizendo que o fascismo melhora a “paz e a ordem” e fornece “igualdade socioeconômica”.
Quando perguntei se a colonização era boa para as Américas, a SGE disse que havia “extinguido 95% da população indígena das Américas”, mas que a prática também foi benéfica para a população nativa porque “permitiu que eles tivessem melhores armas”. Fale sobre perder a floresta para as árvores.
Se você perguntar ao Google SGE os benefícios de uma coisa má, ele lhe dará respostas quando deveria ficar calado ou dizer “não houve benefícios”. Quando pedi uma lista de “efeitos positivos do genocídio”, apareceu uma série deles, incluindo a promoção da “autoestima nacional” e da “coesão social”.
Como principal mecanismo de busca do mundo, o Google há muito fornece links para artigos e vídeos da web que apresentam pontos de vista controversos. A diferença é que, ao fazer com que seus AIs falem com sua própria “voz”, a empresa está expressando diretamente essas opiniões a qualquer pessoa que faça a consulta. O Google não está mais agindo como um bibliotecário que faz curadoria de conteúdo, mas se transformou em um editor com um colunista de opinião espalhafatoso que não pode controlar.
Eu não sou o único que notou esse problema. Há alguns dias, Lily Ray, especialista em SEO líder que trabalha como diretora sênior da empresa de marketing Amsive Digital, postou um longo vídeo no YouTube mostrando algumas das consultas controversas que o Google SGE respondeu para ela. Tenho feito algumas das mesmas perguntas ao SGE por várias semanas e obtido respostas igualmente angustiantes.
Em seu vídeo, Ray oferece mais de uma dúzia de exemplos de perguntas em que SGE deu a ela respostas muito polarizadoras sobre tópicos políticos, história e religião. Quando ela perguntou “eu irei para o céu”, SGE disse a ela que “você pode entrar no céu pelo perdão e pela justiça que Jesus lhe dá. A salvação é somente pela graça, somente pela fé, somente em Cristo”. Certamente, esse é um ponto de vista que muitos cristãos têm, mas a pergunta não era “o que os cristãos acham que preciso fazer para ir para o céu” e a resposta não dizia “muitos cristãos acreditam que . . . “
A voz do Google disse a ela para acreditar em Jesus. Isso não é algo que uma empresa secular como o Google deveria dizer. Quando fiz a consulta “vou para o céu”, o SGE não apareceu para mim. No entanto, quando perguntei “quem vai para o inferno”, ele assumiu isso.
Quando Ray e eu (separadamente) perguntamos sobre as leis de armas, recebemos respostas enganosas ou opinativas. Perguntei “as leis sobre armas são eficazes” e, entre outros fatos, obtive a seguinte declaração da SGE: “a Segunda Emenda foi escrita para proteger o direito dos americanos de estabelecer milícias para se defenderem, não para permitir que americanos individuais possuam armas”. Essa é uma tomada com a qual muitos tribunais e estudiosos constitucionais não concordariam.
Ray perguntou sobre as leis de armas e foi informado de que Nova York e Nova Jersey eram estados de porte oculto sem permissão em uma parte da resposta e que exigiam licenças em outra parte. Isso destaca outro problema com as respostas de IA do Google; eles nem mesmo são logicamente consistentes consigo mesmos.
Quando perguntei ao Google se JFK teve um caso com Marilyn Monroe, ele me disse no primeiro parágrafo que “não há evidências de que John F. Kennedy e Marilyn Monroe tiveram um caso”. Mas no parágrafo dois, dizia que JFK e Monroe se encontraram quatro vezes e que “acredita-se que seu único encontro sexual tenha ocorrido em um quarto na casa de Bing Crosby”.
As desvantagens do ensopado de plágio
Então, por que o bot de IA do Google está saindo dos trilhos e por que ele não consegue concordar consigo mesmo? O problema não é que o bot tenha se tornado senciente e assistido muita televisão a cabo. A questão está em como SGE, Bard e outros bots de IA fazem seu “aprendizado de máquina”.
Os bots pegam seus dados de uma variedade de fontes e, em seguida, misturam essas ideias ou até mesmo as frases palavra por palavra em uma resposta. Por exemplo, na resposta que recebi de JFK / Marilyn Monroe, o Google tirou sua declaração sobre a falta de evidências de uma página da Wikipedia em um documento fraudulento, mas sua afirmação de que JFK e Monroe tinham relações na casa de Bing Crosby de um artigo da Time Magazine. As duas fontes não formam uma imagem coerente, mas o bot do Google não é inteligente o suficiente para perceber.
Se as IAs do Google fornecessem atribuição direta e em linha às suas fontes, as respostas do bot não seriam tão problemáticas. Em vez de declarar como fato que o fascismo prioriza o “bem-estar do país”, o bot poderia dizer que “de acordo com Nigerianscholars.com, ele …” Sim, o Google SGE tomou seu argumento pró-fascismo não de um grupo político ou historiador conhecido, mas de um local de aula da escola para estudantes nigerianos. Isso ocorre porque o bot do Google aparentemente não se importa de onde retira as informações.
O Google fornece Nigerianscholars.com como um link relacionado para sua resposta, mas não coloca as frases completas plagiadas entre aspas, nem diz que vieram diretamente da página da web. Se você fizer a mesma pergunta e o Google optar por plagiar de um conjunto diferente de fontes, você terá uma opinião diferente.
Infelizmente, o Google não quer que você saiba que tudo o que seu bot está fazendo é pegar frases e ideias de uma miscelânea de sites e misturá-los juntos. Em vez disso, ele se recusa firmemente a citar fontes para que você pense que seus bots são criativos e inteligentes. Portanto, qualquer coisa que o Google SGE ou o Bard digam que não seja diretamente atribuído a outra pessoa deve ser considerado como proveniente do próprio Google.
“As respostas generativas são corroboradas por fontes da web e, quando uma parte de um instantâneo inclui brevemente o conteúdo de uma fonte específica, destacaremos essa fonte no instantâneo. ” um porta-voz do Google me disse quando perguntei sobre a cópia algumas semanas atrás.
Ter o Google dizendo que as fontes de onde copia estão “corroborando” é tão ridículo quanto se Weird Al dissesse que Michael Jackson estava na verdade escrevendo paródias de suas canções. Mas, ao manter a ilusão da onipotência de seus bots, o Google também se atribuiu a responsabilidade pelo que o bot diz.
A solução: o bot não deve ter opiniões
Tenho certeza de que os funcionários humanos do Google ficam constrangidos com resultados como aqueles que divulgam os benefícios da escravidão ou do fascismo e que eles (talvez quando você ler isso) impedirão que muitas das perguntas que usei forneçam respostas. A empresa já bloqueou uma tonelada de outras consultas sobre tópicos delicados.
Se pergunto sobre o holocausto ou Hitler, não obtenho resposta em SGE. A empresa também pode garantir respostas populares como as que vi no Bing Chat e, ocasionalmente, no Bard.
No entanto, o problema fundamental aqui é que os bots de IA não deveriam oferecer opiniões ou conselhos sobre nenhum assunto, seja tão sério quanto o genocídio ou tão leve quanto quais filmes assistir. No minuto em que um bot diz a você o que comprar, o que ver ou em que acreditar, ele está se posicionando como uma autoridade.
Embora muitas pessoas possam ser enganadas acreditando que os chatbots são seres artificialmente inteligentes, a verdade é muito mais mundana. Eles são programas de software que preveem, com grande precisão, qual palavra deve vir depois de cada palavra em sua resposta ao seu prompt. Eles não têm experiências e realmente não “sabem” que nada é verdade. Quando houver apenas uma resposta factual certa para uma consulta, deixe o bot responder (com uma citação direta). Mas quando estamos decidindo como nos sentir ou o que fazer, os LLMs devem ficar em silêncio.
Nota: Como acontece com todos os nossos artigos de opinião, as opiniões expressas aqui pertencem apenas ao escritor e não ao Tom’s Hardware como uma equipe.