O que você precisa saber:
- Geradores de IA como ChatGPT e Midjourney estão sendo usados para produzir livros e avaliações falsas que estão inundando a vitrine da Amazon.
- O ChatGPT está listado como co-autor de centenas de livros, mas muitos outros livros são escritos por fantasmas pelo software e não divulgados.
- A IA é treinada em conjuntos de dados artísticos e escritos que podem ser obtidos sem o consentimento do criador original, gerando preocupações sobre plágio e violação de direitos autorais.
Para muitos criativos, tornar-se um autor publicado pode parecer um sonho. A internet revolucionou amplamente a forma como os escritores podem colocar seus trabalhos nas mãos de leitores ansiosos, mas mesmo com os avanços da tecnologia, a tarefa de publicar um romance em um livro tangível que as pessoas possam comprar não foi tarefa fácil. Isso foi até o Programa Kindle Direct da Amazon dar aos autores um novo caminho para a autopublicação. O sistema KDP da Amazon permite que qualquer pessoa publique um livro com muito pouca sobrecarga. Qualquer coisa, desde um livro de colorir até um longo livro de fantasia, pode ser publicado via Amazon KDP. Essa baixa barreira de entrada levou a um problema único para a Amazon, pois O conteúdo gerado por IA começou a efetivamente inundar o mercado.
Centenas de livros que listam equivalentes de IA, como Bing Chat, ChatGPT ou MidJourney como coautores ou ilustradores, chegaram ao mercado da Amazon. Embora listar a IA como co-criadora seja uma possibilidade, atualmente não há nenhum requisito na política de conteúdo da Amazon que determine que a IA deve ser listada quando for usada para gerar um livro. As diretrizes de conteúdo afirmam que a Amazon não aceitará conteúdo disponível gratuitamente na Web, a menos que seja fornecido pelo proprietário dos direitos autorais, mas não há mais detalhes sobre como isso pode ser aplicado em um cenário em que um livro gerado por IA o conteúdo é listado.
Geradores de IA, como ChatGPT e Midjourney, dependem muito da coleta de conjuntos de dados existentes de arte e obras escritas para produzir respostas aos prompts inseridos pelos usuários. Não faltam discussões públicas entre criativos e usuários de IA sobre se os trabalhos gerados são de fato plagiados ou, de outra forma, violações das leis de propriedade intelectual e direitos autorais. Apesar de suas diretrizes de conteúdo proibirem estritamente o plágio, a Amazon aparentemente se posicionou a favor do conteúdo gerado por IA, permitindo que os vendedores escondam se seus livros são ou não escritos por humanos ou IA.
Os vendedores individuais de conteúdo escrito e ilustrado por IA também não são os únicos a se beneficiar dessa falta de transparência, já que várias editoras também adotaram as vendas de livros de IA na vitrine da Amazon. As vendas desses livros são reforçadas por uma enxurrada de críticas falsas de 5 estrelas que são geradas de forma semelhante com a ajuda da IA.
Apesar de não ter uma cláusula transparente sobre livros produzidos por IA em sua política de conteúdo, a Amazon removeu no passado o conteúdo escrito por IA. Chris Cowell, um desenvolvedor de software que conversou com The Washington Post, detalhou ter escrito um livro de instruções sobre um tópico técnico de nicho apenas para descobrir um livro na Amazon com exatamente o mesmo título. Esse livro foi gerado inteiramente por IA e atribuído a um autor aparentemente falso. Toda a experiência deixou Cowell hesitante em continuar escrevendo, não apenas por medo de perder vendas, mas porque ele estava ciente de que quaisquer escritos futuros poderiam ser inevitavelmente usados para treinar ainda mais a IA para produzir mais conteúdo e competição de baixa qualidade.
A Amazon removeu a listagem de imitadores na situação de Cowell, mas um campo minado cada vez maior de livros escritos por IA continua a sobrecarregar o serviço. Há preocupações de que, com o tempo, o conteúdo desses livros seja filtrado de volta pela IA como amostras de treinamento que serão usadas para produzir mais livros escritos por IA com revisões escritas por IA que correm o risco de distorcer ainda mais os algoritmos.