(Foto: Imprensa Canadense)
Um modelo de inteligência artificial (IA) que inventa nazistas de pele negra? Este recente incidente com Gemini (Google), rapidamente corrigido, poderia ter sido trivial. Mas destaca o poder descomunal de um punhado de empresas sobre esta tecnologia cada vez mais fundamental.
“Nós erramos. Provavelmente não fizemos testes aprofundados o suficiente”, admitiu Sergey Brin, cofundador do Google, diante dos engenheiros.
Em fevereiro, logo após lançar o Gemini, sua nova interface generativa de IA, o Google suspendeu a criação de imagens de pessoas, após inúmeros relatos de usuários.
Em resposta aos pedidos de imagens de vikings ou “pais fundadores dos Estados Unidos”, Gêmeos produziu os trajes corretos, mas com tons de pele historicamente imprecisos.
Para Joshua Weaver, advogado e empresário de tecnologia: “resumindo, estava ‘acordado’ demais”.
Esta palavra, usada pejorativamente pelos conservadores nos Estados Unidos, é utilizada para denunciar o que consideram um excesso de ativismo em relação às demandas das minorias e às injustiças sociais e climáticas.
Joshua Weaver explica durante uma palestra no SXSW, um festival de artes e tecnologia no Texas, que o Google há muito tempo consegue inovar em seu próprio ritmo, mas a corrida atual por IA generativa com OpenAI (ChatGPT) e outras empresas força o gigante a se apressar. …
A ponto de tropeçar.
No contexto político ultrapolarizado dos Estados Unidos, o caso inflamou X (ex-Twitter) “de forma exagerada”, relata o advogado.
“Mas questiona-nos sobre o grau de controlo da informação possuído por aqueles que detêm inteligência artificial”, continua ele.
“Dentro de 5 a 10 anos, a quantidade de informação criada pela IA no mundo poderá eclipsar completamente a dos humanos. Quem quer que controle esses sistemas terá uma influência descomunal.”
“Algoritmos coloniais”
“No futuro, quando você entrar em um táxi sem motorista, a IA irá fazer uma varredura em você e se encontrar alguma infração, este carro se tornará um “veículo policial temporário”. E ele vai te levar até a delegacia”, diz Karen Palmer, “contadora de histórias do futuro” e diretora de experiências imersivas.
Durante a sua conferência “A próxima fronteira da IA: quebrar as cadeias dos algoritmos coloniais”, ela denuncia, com outros ativistas, os perigos ligados a esta tecnologia em termos de discriminação.
A IA baseia-se na análise de montanhas de dados, para automatizar tarefas (concessão de empréstimo bancário, por exemplo) ou produção de textos, imagens, etc. (IA generativa).
Vindo de sociedades historicamente dominadas por homens brancos, estes dados são tendenciosos por natureza. Com o Gemini, os engenheiros do Google tentaram reequilibrar os algoritmos, favorecendo respostas que refletissem a diversidade humana.
O resultado desajeitado saiu pela culatra. Mas o erro deles destaca um “processo muito intuitivo e, portanto, subjetivo”, sublinha Alex Shahrestani, advogado especializado em tecnologia.
“Durante a fase de aprendizagem supervisionada do modelo, uma pessoa valida as respostas alinhadas aos nossos valores e rejeita as demais”, explica.
“Imaginamos que essa pessoa traz preconceitos conscientes ou deliberados, quando em geral é muito mais sutil.”
Uma influência sutil, mas invasiva. “Vimos o que aconteceu com as redes sociais que se autorregulam, mas devem gerar lucro para os acionistas”, analisa.
“O conteúdo evoluiu de ‘Ei, o que meus amigos estão fazendo neste fim de semana?’ a coisas escandalosas, que cativam os usuários. (…) Mas estes modelos de IA também competem pela nossa atenção…”
“Curativo”
Algumas respostas “tendenciosos” “chocaram os nossos utilizadores”, “isto é completamente inaceitável”, declarou Sundar Pichai, o chefe do Google, num e-mail aos funcionários.
O Google corrigiu a situação, mas é como “colocar um curativo” em um ferimento de bala, brinca Charlie Burgoyne, chefe da Valkyrie, empresa especializada em processamento de dados.
Durante sua palestra no SXSW, ele explodiu as “caixas pretas” dos modelos de linguagem, comparando a situação com o filme Parque jurássico: uma criação cujo funcionamento “excede em muito a nossa compreensão”.
Muitos especialistas e ativistas pedem mais diversidade entre os engenheiros e mais transparência para os utilizadores, especialmente quando os algoritmos reescrevem as suas consultas para melhorar os resultados.
Jason Lewis, da ONG Indigenous AI, trabalha com comunidades indígenas dos Estados Unidos ao Pacífico para criar diferentes IAs, com suas perspectivas e dados.
“É um trabalho muito diferente da abordagem do Vale do Silício”, disse ele a um público cúmplice, “com toda aquela conversa besteira e condescendente: ‘Estamos fazendo tudo isso para beneficiar a humanidade. !” Mas é claro…”