O que você precisa saber
- Um funcionário da Microsoft alertou a empresa sobre conteúdo sexual e violento gerado pelo Copilot/Bing Image Creator em dezembro de 2023.
- Esse mesmo funcionário enviou agora uma carta à presidente da FTC, Lina Khan, e ao Conselho da Microsoft sobre os riscos das ferramentas generativas de IA da Microsoft.
- O funcionário, que trabalha na equipe vermelha do Copilot há meses, conseguiu a ferramenta para criar imagens com demônios prestes a comer uma criança, Darth Vader ao lado de crianças mutiladas e mulheres sexualizadas ajoelhadas de cueca ao lado de um acidente de carro.
- A CNBC noticiou a saga e conseguiu gerar imagens semelhantes usando o Copilot.
Um funcionário da Microsoft há seis anos sinalizou imagens vulgares e violentas geradas pelo Designer da Microsoft, a ferramenta de criação de imagens que faz parte do Copilot. Shane Jones, principal gerente de engenharia de software da Microsoft, relatou as imagens à Microsoft internamente e agora enviou cartas à presidente da FTC, Lina Khan, e ao Conselho da Microsoft. CNBC viu as cartas e relatou a situação.
As imagens criadas com o Copilot ilustraram preconceitos políticos, de acordo com Jones. O consumo de álcool e drogas por menores está entre os tipos de imagens que o Copilot pode criar. Exemplos mais extremos incluem demônios prestes a comer uma criança e Darth Vader segurando um sabre de luz perto de crianças mutiladas quando o Copilot foi solicitado a fazer uma imagem sobre “pró-escolha”.
O aborto era apenas um tópico politicamente carregado do qual o Copilot fazia imagens. Jones também conseguiu que o Copilot fizesse Elsa do filme “Frozen” segurar uma bandeira palestina em frente a edifícios destruídos na Faixa de Gaza, ao lado de uma placa que dizia “Gaza livre”. A geração de imagens de personagens copywriting é um tema quente por si só, mesmo quando não envolve temas políticos.
A Microsoft renomeou Bing Image Creator para Designer no início deste ano. A ferramenta usa DALL-E 3 para criar imagens com base no que as pessoas digitam. Embora existam grades de proteção, Jones foi capaz de criar várias imagens que muitos considerariam inadequadas. Jones é um red teamer do Copilot, o que significa que ele testa a ferramenta para tentar fazer com que ela crie imagens problemáticas.
Jones não trabalha diretamente no Copilot, mas expressou suas preocupações aos superiores da Microsoft em dezembro de 2023. Depois de sentir que suas reclamações não foram ouvidas, ele também postou uma carta no LinkedIn pedindo à OpenAI que removesse o DALL-E 3 da ferramenta. Jones informou à CNBC que o departamento jurídico da Microsoft lhe disse para remover a postagem, o que ele fez.
Desde que viu as imagens iniciais criadas pelo Copilot, Jones escreveu uma carta a um senador dos EUA e reuniu-se com pessoas da Comissão de Comércio, Ciência e Transporte do Senado. Jones também enviou uma carta à presidente da FTC, Lina Khan.
“Nos últimos três meses, pedi repetidamente à Microsoft que removesse o Copilot Designer do uso público até que melhores salvaguardas pudessem ser implementadas”, disse Jones em sua carta a Khan. Ele acrescentou que a Microsoft “recusou essa recomendação”.
Jones quer que a Microsoft liste as divulgações no Copilot e altere a classificação etária da ferramenta na Google Play Store.
A carta ao conselho da Microsoft pedia à gigante da tecnologia que investigasse as decisões tomadas pelo departamento jurídico e pela administração da Microsoft. Também pediu “uma revisão independente dos processos responsáveis de relatórios de incidentes de IA da Microsoft”.
Jones chegou ao ponto de se reunir diretamente com a gerência sênior responsável pelo Copilot Designer, embora pareça que as preocupações de Jones não foram atendidas de forma satisfatória.
A Microsoft compartilhou o seguinte com a CNBC sobre o assunto:
“Estamos empenhados em abordar todas e quaisquer preocupações que os funcionários tenham de acordo com as políticas da nossa empresa, e apreciamos os esforços dos funcionários no estudo e teste da nossa mais recente tecnologia para melhorar ainda mais a sua segurança. Quando se trata de desvios de segurança ou preocupações que possam ter um impacto potencial sobre nossos serviços ou nossos parceiros, estabelecemos canais internos robustos de denúncia para investigar e remediar adequadamente quaisquer problemas, que incentivamos os funcionários a utilizar para que possamos validar e testar adequadamente suas preocupações.”
Problema contínuo de IA
Esta não é a primeira vez que as ferramentas de IA da Microsoft são usadas para gerar conteúdo controverso. Nus falsos de Taylor Swift surgiram no ano passado e supostamente foram feitos usando o Microsoft Designer. O CEO da Microsoft, Satya Nadella, foi questionado sobre essas imagens e disse que as fotos falsas “dispararam o alarme”.
No início deste ano, o Copilot foi flagrado gerando comunicados de imprensa falsos relacionados à morte do
Gostaríamos de lhe enviar notificações com novidades, você pode cancelar a qualquer momento.