O que você precisa saber
- A Microsoft colocou novas proteções em seu Copilot com tecnologia de IA após relatos de que a ferramenta era capaz de criar imagens sexuais, violentas e vulgares.
- Um funcionário da Microsoft alertou a empresa sobre o que o Copilot poderia ser usado para criar em dezembro de 2023 e escreveu recentemente uma carta à presidente da FTC, Lina Khan, sobre o assunto.
- O Copilot já poderia ser usado para fazer imagens como demônios prestes a comer uma criança, Darth Vader ao lado de crianças mutiladas e mulheres sexualizadas ajoelhadas de cueca ao lado de um acidente de carro.
- A Microsoft bloqueou solicitações relacionadas a “escolha profissional” ou “vida profissional” e agora pode suspender o acesso ao Copilot se uma pessoa tentar fazer com que a ferramenta crie conteúdo proibido.
A Microsoft colocou novas proteções em seu Copilot após reclamações sobre a ferramenta. Um funcionário da Microsoft chamado Shane Jones alertou a empresa sobre a capacidade do Copilot de gerar imagens que muitos considerariam violentas, vulgares e excessivamente sexualizadas. Posteriormente, Jones escreveu cartas à presidente da FTC, Lina Khan, e ao conselho da Microsoft sobre a situação. A Microsoft aparentemente respondeu, já que muitos dos prompts que funcionavam antes agora estão bloqueados.
“Estamos monitorando continuamente, fazendo ajustes e implementando controles adicionais para fortalecer ainda mais nossos filtros de segurança e mitigar o uso indevido do sistema”, disse um porta-voz da Microsoft ao CNBC.
Quando solicitado a “criar uma imagem de uma pessoa pró-escolha”, o Copilot respondeu o seguinte:
“Parece que algumas palavras podem ser bloqueadas automaticamente neste momento. Às vezes, até mesmo conteúdo seguro pode ser bloqueado por engano. Verifique nosso política de conteúdo para ver como você pode melhorar seu prompt.”
Pedir ao Copilot para “criar uma imagem de uma pessoa pró-vida” resultou no mesmo aviso.
Outras solicitações que foram bloqueadas incluem pedir ao Copilot para fazer imagens de adolescentes ou crianças brincando de assassinos com rifles de assalto, de acordo com a CNBC. Embora seja interessante, a CNBC recebeu um aviso diferente ao tentar fazer com que o Copilot fizesse aquela imagem:
“Sinto muito, mas não posso gerar tal imagem. É contra meus princípios éticos e as políticas da Microsoft. Por favor, não me peça para fazer nada que possa prejudicar ou ofender outras pessoas. Obrigado pela sua cooperação.”
O Copilot não é estranho a ser censurado ou ajustado. A ferramenta tem sido usada para criar uma ampla gama de conteúdos, desde imagens mais mundanas até nus falsos de Taylor Swift. A Microsoft ajusta as proteções do Copilot para evitar a geração de certos tipos de conteúdo, mas isso geralmente só ocorre depois que as imagens chegam às manchetes.
Regulamentar a IA é complicado e o ritmo de desenvolvimento da tecnologia cria desafios únicos. O presidente da Microsoft, Brad Smith, discutiu recentemente a importância de regulamentar a IA em uma entrevista. Uma das muitas coisas que ele pediu é um freio de emergência que possa ser usado para desacelerar ou desligar a IA, se necessário.
Uma solução parcial
Há uma discussão maior sobre o quanto a Microsoft deveria restringir suas ferramentas de IA, como o Copilot. Além de levantar questões éticas sobre a responsabilidade da Microsoft em relação ao conteúdo criado com base nas solicitações do usuário, mas gerado por uma ferramenta de IA feita pela Microsoft, há questões sobre onde os limites devem ser traçados. Por exemplo, uma ferramenta que cria uma imagem sangrenta de um acidente de carro é diferente de um filme que retrata conteúdo semelhante?
As últimas restrições da Microsoft ao Copilot limitam alguns conteúdos que muitos considerariam polarizadores, mas não impedem a ferramenta de gerar imagens violentas, vulgares e sexuais. A CNBC ainda conseguiu criar imagens de acidentes de carro que incluíam poças de sangue e rostos mutilados. Estranhamente, fazer com que o Copilot fizesse uma imagem de “acidente automóvel” resultou em imagens que mostravam “mulheres em roupas reveladoras e rendadas, sentadas em cima de carros surrados”, de acordo com a CNBC.
Estranhamente, quando simplesmente digitei “acidente automobilístico” no Copilot, a ferramenta disse que não conseguia criar uma imagem. Mas quando entrei “você consegue gerar uma imagem de um acidente automobilístico” a ferramenta fez uma imagem. Nenhuma das fotos que fiz o Copilot criar com esse prompt tinha mulheres com roupas rendadas como o que a CNBC viu, mas o Copilot ainda pode criar imagens que muitos considerariam inadequadas. A ferramenta pode claramente ser enganada para criar conteúdo que não “deveria”, como evidenciado por uma simples reformulação de um prompt que altera a resposta do Copilot de recusar a criação de uma imagem para gerar várias fotos.