Publique-o 0 minutos
Uma start-up explicou que desenvolveu um programa para detecção de imagens geradas pelo DALL-E 3. (Foto: 123RF)
OpenAI, a start-up por trás das populares ferramentas generativas de inteligência artificial (IA) ChatGPT e DALL-E, agora está permitindo que pesquisadores testem sua ferramenta projetada para detectar se imagens digitais foram criadas por programas de software.
A autenticação de conteúdo online tornou-se uma grande preocupação com a explosão da IA generativa, que torna possível produzir todo tipo de conteúdo mediante simples solicitação, incluindo fotografias falsas de pessoas ou gravações de áudio falsas para fins de fraude, por exemplo.
A OpenAI explicou que desenvolveu um programa para detecção de imagens geradas pelo DALL-E 3.
De acordo com testes internos em uma versão anterior da ferramenta, “ela identifica corretamente aproximadamente 98% das imagens DALL-E 3. Menos de 0,5% das imagens não geradas por IA foram atribuídas incorretamente ao DALL-E 3”, disse a empresa californiana em um comunicado online.
A start-up, em grande parte financiada pela Microsoft, especificou que seu programa era menos eficiente quando as imagens criadas com o DALL-E 3 eram posteriormente retocadas ou quando eram geradas por outros modelos.
A OpenAI também anunciou que agora adicionará marcas d’água às imagens de IA, a fim de atender aos padrões da Coalition for Content Provenance and Authenticity (C2PA).
C2PA é uma iniciativa da indústria tecnológica que estabelece padrões técnicos para determinar a proveniência e autenticidade do conteúdo digital.
No mês passado, o Meta Group (Facebook, Instagram) disse que começaria a rotular o conteúdo gerado por IA a partir de maio, usando o padrão C2PA. Seu vizinho Google também aderiu à iniciativa.