O que você precisa saber
- Ao aparecer em uma entrevista no segmento Nightly News Exclusive da NBC, apresentado por Lester Holt, o CEO da Microsoft, Satya Nadella, apontou que há tecnologia suficiente para proteger as próximas eleições presidenciais dos EUA contra deepfakes e desinformação de IA.
- Isso inclui marca d’água, detecção de deepfakes e IDs de conteúdo.
- A Microsoft também planeja capacitar os eleitores com informações confiáveis e factuais sobre as eleições iminentes por meio de seu mecanismo de busca, o Bing.
Embora os casos de utilização de IA generativa no nosso dia-a-dia possam variar, a maioria dos utilizadores está mais inclinada a aproveitar as suas capacidades em vários campos, incluindo medicina, educação e como ferramenta de produtividade no trabalho. Considerando que alguns usuários indicaram abertamente que não usarão a tecnologia, citando ainda suas preocupações centradas na segurança e na falta de grades de proteção.
Ainda assim, a tecnologia tem um grande impacto nas informações com as quais os usuários interagem enquanto vasculham a web. Nos últimos meses, houve uma quantidade ridícula de relatórios girando em torno de conteúdo gerado por IA juntamente com deepfakes. Com as eleições nos EUA à porta, informações enganosas poderão orientar os eleitores na direcção errada, o que, por sua vez, poderá ter consequências terríveis a longo prazo.
A administração de Biden emitiu uma Ordem Executiva no ano passado para abordar algumas destas preocupações e, embora seja um passo na direção certa, algumas questões parecem persistir. O CEO da Microsoft, Satya Nadella, recentemente conversou com Lester Holt no segmento Nightly News Exclusive da NBC para falar sobre as medidas em vigor para evitar que a IA seja usada para espalhar informações erradas sobre as próximas eleições presidenciais de 2024.
A entrevista começa com Holt perguntando a Satya Nadella, da Microsoft, quais medidas estão em vigor para proteger e proteger as eleições iminentes contra deepfakes e desinformação. Embora esta seja a primeira vez que uma eleição está prestes a acontecer com a IA espalhada por todas as esferas do mundo, o CEO destacou que esta não é a primeira vez que a Microsoft está lidando com desinformação, campanhas de propaganda de adversários e muito mais.
Satya Nadella indicou com segurança que existem medidas elaboradas para proteger as eleições contra esses problemas, incluindo marcas d’água, detecção de deepfakes e IDs de conteúdo. Ele acrescentou ainda que existe tecnologia suficiente para combater a desinformação e a desinformação provocadas pela IA.
A Microsoft está fazendo o suficiente para evitar que a desinformação e os deepfakes de IA tenham um impacto negativo no processo eleitoral?
No ano passado, um relatório citou casos em que se descobriu que o Microsoft Copilot (anteriormente Bing Chat) enganou usuários e eleitores, fornecendo-lhes informações falsas sobre as próximas eleições. Os investigadores indicaram que o problema era sistémico, uma vez que o chatbot alimentado por IA também fornecia aos utilizadores informações enganosas quando tentavam obter informações sobre o processo eleitoral na Alemanha e na Suíça. Isso não é totalmente uma surpresa, já que vários relatórios citam que os chatbots com tecnologia de IA diminuíram em precisão e estão ficando mais burros.
A Microsoft já destacou seu plano para proteger a integridade das eleições iminentes contra deepfakes de IA. Ela planeja capacitar os eleitores com notícias eleitorais confiáveis e factuais no Bing antes da votação. A participação de mercado do Bing continua estagnada, apesar do investimento multibilionário da Microsoft em IA, o que tornou extremamente difícil quebrar o domínio do Google na categoria.
Google e Bing têm sido criticados por apresentar pornografia deepfake entre seus principais resultados, e o problema parece piorar com imagens virais da estrela pop Taylor Swift surgindo recentemente nas redes sociais. Satya Nadella, da Microsoft, destacou que o conteúdo explícito gerado por meio de IA é alarmante e terrível.
Embora não confirmado, acredita-se que os deepfakes do ícone pop foram gerados usando o Microsoft Designer. No entanto, uma nova atualização foi enviada regulando como os usuários interagem com a ferramenta, incluindo o bloqueio de prompts de geração de imagens baseadas em nudez. Isso se soma à recém-imposta Lei Disrupt Explicit Forged Images and Non-Consensual Edits (DEFIANCE), que foi projetada para regular e prevenir tais ocorrências.