O CEO da Microsoft, Satya Nadella, conversou com o NBC Nightly News sobre o surgimento de imagens falsas de Taylor Swift geradas por IA que apresentam Swift de maneira sexual.
Nadella chamou a situação de “alarmante e terrível” e disse que a Microsoft e outros precisam agir.
Um relatório afirma que o Microsoft Designer foi usado para gerar as imagens de Taylor Swift, embora essa informação não seja confirmada.
Imagens de Taylor Swift geradas por IA surgiram online recentemente. A natureza sexual das fotografias falsas causou conflitos e debates em torno do uso de inteligência artificial para criar imagens de pessoas sem consentimento. O fato de o conteúdo gerado ser sexualmente explícito adicionou uma camada de complexidade à discussão.
O CEO da Microsoft, Satya Nadella, discutiu a situação com a NBC Nightly News em uma entrevista e falou sobre o que pode ser feito para orientar a IA e proteger contra o uso indevido.
Nadella disse o seguinte em sua entrevista, que irá ao ar na íntegra em 30 de janeiro de 2024:””Eu diria duas coisas. Uma é, mais uma vez, volto, eu acho, qual é a nossa responsabilidade, que são todas as proteções que precisamos colocar em torno da tecnologia para que haja mais conteúdo seguro sendo produzido. E há muito a ser feito e muito sendo feito lá. E podemos fazer, especialmente quando você tem a lei e a aplicação da lei e plataformas tecnológicas que podem se unir, acho que podemos governar muito mais do que pensamos – nós nos damos crédito para.”
Quando questionada se as imagens falsas de Taylor Swift “dispararam o alarme” em relação ao que pode ser feito, Nadella disse: “em primeiro lugar, isso é absolutamente alarmante e terrível. E, portanto, sim, temos que agir”.
A Microsoft é um dos maiores nomes em IA, e acontece que as ferramentas da gigante da tecnologia podem estar conectadas às imagens falsas de Taylor Swift. A 404 Relatório de mídia afirma que membros do “grupo Telegram dedicado a imagens abusivas de mulheres” usaram a ferramenta de criação de imagens com tecnologia de IA da Microsoft para fazer fotos falsas de Swift.
A Microsoft renomeou recentemente Bing Image Creator para Image Creator do Designer. O relatório da 404 Media não especificou qual ferramenta foi usada pelos membros do grupo Telegram, mas há uma boa chance de ter sido o Bing Image Creator/Image Creator do Designer.
Essa ferramenta possui proteções para impedir a criação de imagens pornográficas, mas existem maneiras de enganar as ferramentas de IA para criar conteúdo que deveria ser banido.
O que a Microsoft pode fazer em relação à pornografia gerada por IA? O Bing Image Creator (agora Image Creator do Designer) possui barreiras de proteção para censurar conteúdo impróprio, mas esses limites podem ser contornados. (Crédito da imagem: Futuro)
Muitos se concentrarão em saber se o governo deveria regulamentar a pornografia gerada por IA. O papel e a responsabilidade da Microsoft provavelmente também serão um tema quente de discussão. Mas quero me concentrar no que a Microsoft pode fazer e no que já está sendo feito em relação às imagens geradas por IA.
Conforme mencionado por Nadella, a Microsoft pode colocar barreiras de proteção que limitem ou restrinjam os tipos de conteúdo que o Copilot e outras ferramentas de IA podem criar. Eles já estão em vigor, mas obviamente podem ser contornados. As pessoas conseguem contornar os limites da IA para tudo, desde diversão inofensiva até a geração de pornografia de vingança. A Microsoft pode adicionar mais proteções e aumentar as restrições, mas há uma boa chance de que as ferramentas de IA da Microsoft sempre possam ser usadas para criar conteúdo que a gigante da tecnologia não aprovaria.
Há uma discussão moral mais ampla em torno de quem decide o que é apropriado, mas deixarei isso para os especialistas falarem.
Mesmo que a Microsoft tenha encontrado uma maneira de impedir que suas ferramentas gerem pornografia ou outras imagens controversas, existem outras ferramentas de IA disponíveis. Ferramentas de IA baseadas na Web, como o Copilot da Microsoft e o Bard do Google, são fáceis de usar, mas estão longe de ser as únicas ferramentas de inteligência artificial disponíveis.
Então, o que a Microsoft pode fazer para ajudar os usuários a diferenciar imagens reais de fotos falsas? A gigante da tecnologia pode ajudar a desenvolver tecnologia que identifique imagens geradas por IA. A OpenAI está trabalhando em uma ferramenta que afirma poder identificar imagens geradas por IA com 99% de confiabilidade.
Alguns sites de mídia social já usam ferramentas semelhantes para procurar imagens confidenciais que são sinalizadas. É claro que essas ferramentas também não são perfeitas, já que o X (antigo Twitter) teve dificuldade em impedir que as imagens falsas de Taylor Swift se espalhassem.