Recentemente, o New York Times entrou com um processo judicial contra a Microsoft e a OpenAI devido ao uso de conteúdo do NYT no Copilot e ChatGPT. O NYT está buscando bilhões de dólares em danos legais e reais por usarem “milhões” de artigos do NYT sem permissão ou pagamento, citando-os diretamente ou imitando-os de perto.
O The New York Times afirma que os réus estão tentando aproveitar o investimento massivo do jornalismo do NYT para construir produtos substitutos sem permissão ou pagamento, utilizando o Bing Chat da Microsoft e o ChatGPT da OpenAI.
A empresa forneceu exemplos de cópias do conteúdo do Times pela OpenAI em seu processo, o que sugere que a esmagadora maioria dos “dados de treinamento” de IA são trabalhos de outras pessoas, e seu uso sem permissão poderia constituir violação de direitos autorais.
O uso não autorizado de dados de treinamento para fins lucrativos pode satisfazer a definição de violação de direitos autorais, e as provas apresentadas pelo NYT fortalecem o caso. A empresa espera que este precedente ajude a reduzir a violação de direitos autorais no espaço generativo da IA.
Embora a questão da exploração de escritores, artistas e outros trabalhadores pela IA ainda seja pouco litigada, existem maneiras de combater o problema fora do tribunal. Alguns artistas estão usando uma ferramenta chamada “Beladona” para envenenar modelos de treinamento de IA que destroem seu trabalho sem permissão.
Além disso, um tribunal federal decidiu recentemente que a arte da IA não é protegida por direitos autorais, com base na ideia de que apenas os humanos têm legitimidade sob a Lei de Direitos Autorais.
É importante lembrar que a IA generativa depende do treinamento por seres humanos reais, e o uso não autorizado de dados de treinamento pode resultar em consequências legais significativas, como o caso do processo movido pelo The New York Times contra a Microsoft e a OpenAI.