O ChatGPT está na moda hoje em dia. O chatbot da OpenAI atingiu 100 milhões de usuários em janeiro e essa contagem só parece aumentar. A Microsoft está trabalhando para integrar IA em todos os seus produtos, e vazamentos recentes sugerem que o ChatGPT está a caminho do Bing.
Mas, como acontece com muitas inovações, o ChatGPT levanta algumas questões éticas. Um autor gerou polêmica quando usou IA para criar um livro infantil. Os alunos usaram inteligência artificial para trapacear na lição de casa, levando a possíveis proibições da tecnologia. O músico Nick Cave se manifestou contra o uso do ChatGPT para imitar seu estilo lírico.
As situações acima e muitas outras suscitam a pergunta: “onde o ChatGPT e o AI devem ser banidos?” É correto um artista usar IA para criar uma pintura? Os músicos devem ser capazes de gerar letras usando o ChatGPT? Os veículos jornalísticos podem escrever artigos com IA sem problemas? Gostaríamos de saber seus pensamentos.
Observe que você pode selecionar mais de uma resposta.
Central do Windows
Onde as pessoas traçam a linha quando se trata de IA dependerá de seu histórico, trabalho e poder e eficiência da inteligência artificial em questão.
A IA é uma ferramenta entre os criadores há anos. Quando edito fotos para meu time de futebol americano, geralmente uso IA para remover planos de fundo e aprimorar imagens Muitas ferramentas dependem de IA de alguma forma. Pessoalmente, eu traço a linha onde a criatividade é retirada das mãos do criador. Quando um artista usa uma ferramenta para substituir um céu, ele ainda tem uma contribuição criativa em cada etapa do processo. Digitar algumas frases em um chatbot não é a mesma coisa, pelo menos para mim.
Dito isso, acho que as pessoas devem poder usar as ferramentas que quiserem, desde que divulguem o que usaram. Eu acho que está tudo bem se um músico usar o autotune para soar bem e o ChatGPT para escrever suas letras, desde que eles não saiam por aí alegando que todo o trabalho é deles.