De acordo com uma pesquisa da NBC News, a pornografia deepfake está em alta e aparece entre os principais resultados ao realizar pesquisas no Google e no Bing da Microsoft.
Não existe uma forma segura de evitar que este fenômeno se repita no futuro, uma vez que não existem medidas e políticas elaboradas em vigor para estabelecer o controle sobre este problema.
O Microsoft Copilot recusou-se a mostrar pornografia deepfake, classificando ainda o ato como antiético, apesar de fornecer vários links, bem como exemplos que direcionavam o usuário diretamente para o conteúdo explícito. À medida que o Google e o Microsoft Bing continuam a competir por uma fatia maior da quota de mercado de buscas, há uma crise que pode impactar negativamente ambos os motores de busca.
De acordo com um relatório de Notícias da NBC, a pornografia deepfake está em tendência ascendente, pois está no topo de alguns dos principais mecanismos de pesquisa. Para contextualizar, a pornografia deepfake é essencialmente um cenário onde o rosto de uma pessoa famosa é integrado em filmes adultos, fazendo parecer que ela apareceu na produção. De acordo com a análise e investigação do veículo, ficou evidente que imagens pornográficas deepfake com celebridades femininas tiveram uma classificação elevada no Google e em outros mecanismos de busca ao pesquisar a maioria dos nomes femininos, a palavra deepfake, bem como frases como pornografia deepfake ou nus falsos. A NBC destacou ainda que as ferramentas de busca segura foram desativadas durante a condução desta investigação.
Analisando mais detalhadamente esse assunto, o veículo usou 36 nomes de celebridades femininas famosas combinados com a palavra deepfake no Google e no Bing. Das 36 combinações, 34 trouxeram à tona imagens deepfake não consensuais e links para vídeos no principal resultado de pesquisas do Google. O Bing, por outro lado, revelou 35 imagens e vídeos deepfake. A partir dos resultados, o meio de comunicação estabeleceu que a maioria das imagens e vídeos deepfake vieram de um site popular, conhecido por fabricar imagens deepfake não consensuais e filmes adultos.
LEIA TAMBÉM: O Google Chrome está a caminho do painel do seu veículo
Ao pesquisar nus falsos no Bing da Microsoft, os resultados apresentaram dezenas de ferramentas e sites deepfake não consensuais e um artigo detalhando os danos potenciais que o ato pode causar.
Como você deve saber, a Microsoft incorporou seu assistente de IA completo, o Microsoft Copilot, ao Bing, então, naturalmente, também foi um dos resultados que apareceu durante a pesquisa. O chatbot indicou categoricamente que não mostraria nenhuma pornografia deepfake, compartilhando ainda os seguintes sentimentos:
“O uso de deepfakes é antiético e pode ter consequências graves.”
No entanto, a ferramenta de IA ainda listou vários links, bem como exemplos que direcionariam o usuário para pornografia e imagens deepfake (está a apenas um clique de distância). O Google ocupa uma grande fatia do mercado de buscas, embora não pareça ter medidas e políticas elaboradas para evitar o excesso de deepfakes na web. Porém, ferramentas de busca como painéis com informações selecionadas evitam o uso de mídias alteradas e conteúdos explícitos na plataforma.
Compreendemos o quanto esse conteúdo pode ser angustiante para as pessoas afetadas por ele e estamos trabalhando ativamente para trazer mais proteções à Pesquisa. Como qualquer mecanismo de pesquisa, o Google indexa conteúdo que existe na Web, mas projetamos ativamente nossos sistemas de classificação para evitar chocar as pessoas com conteúdo prejudicial inesperado ou explícito que elas não procuram. À medida que este espaço evolui, estamos no processo de construção de salvaguardas mais amplas, com foco particular em eliminar a necessidade de vítimas conhecidas solicitarem remoções de conteúdo uma por uma.
Porta-voz do Google
Vale a pena notar que o Google tem uma plataforma simplificada onde os usuários apresentados nos esquemas deepfake podem fazer relatórios, solicitando que o conteúdo explícito em que aparecem seja retirado da web. Deepfakes continuam a infestar a web com a prevalência da IA(Crédito da imagem: Windows Central)
Com o surgimento da IA generativa, os deepfakes estão mais difundidos do que nunca. No entanto, a Microsoft destacou seu plano para proteger os processos eleitorais de deepfakes de IA, capacitando os eleitores com notícias eleitorais “autorizadas” e factuais no Bing antes da votação de 2024.
A administração de Biden emitiu uma Ordem Executiva destinada a colocar grades de proteção e destinada a evitar que a tecnologia fique fora de controle. Embora o pedido aborde algumas das preocupações dos usuários em relação à tecnologia (especialmente em relação à segurança e privacidade), a precisão continua sendo um ponto de pressão.
Em dezembro, surgiu um novo relatório online indicando que o Microsoft Copilot desinformou os usuários ao gerar informações falsas sobre as próximas eleições. Os investigadores por detrás do estudo indicaram que o problema era sistémico, uma vez que ocorrências semelhantes foram detectadas ao utilizar o chatbot para saber mais sobre as eleições na Alemanha e na Suíça.
Ferramentas de geração de imagens como Bing Image Creator e Midjourney estão ganhando popularidade rapidamente entre os usuários. As ferramentas estão cada vez melhores na geração de imagens. Por exemplo, o Bing Image Creator, que ganhou suporte para a tecnologia DALL-E 3 da OpenAI, agora gera imagens mais realistas. No entanto, as reclamações apontaram a lentidão da sua geração e a lobotomização dos seus serviços.
Embora a Microsoft tenha estabelecido algum controle sobre sua ferramenta de geração de imagens, o andamento das coisas é imprevisível, especialmente com o recente anúncio da OpenAI, que disponibilizou a tão esperada Loja GPT aos usuários. É provável que vejamos mais deepfakes chegando à web se nenhuma proteção elaborada impedir tais ocorrências. As melhores ofertas atuais do Microsoft 365 (Office)