O que você precisa saber
- A FTC está investigando o ChatGPT.
- A comissão busca entender se a OpenAI violou alguma lei de proteção ao consumidor.
- A OpenAI recebeu uma carta de demanda de 20 páginas destacando as preocupações da comissão sobre suas práticas de segurança de dados.
- É provável que a Microsoft seja afetada se o OpenAI for encontrado errado.
A Federal Trade Commission (FTC) esteve nas manchetes por um minuto quente por alguns motivos. Como você sabe, a agência esteve no campo de batalha com a Microsoft em uma tentativa de bloquear a aquisição da Activision Blizzard, citando ainda que isso colocaria seus concorrentes em desvantagem.
Mas ao que parece, a saga Microsoft Xbox x FTC pode estar chegando ao fim em breve. A comissão retirou recentemente seu julgamento interno contra a aquisição pendente da Activision Blizzard pela Microsoft.
Enquanto esperamos para ver o que vem a seguir, a FTC mudou de marcha e agora está analisando o ChatGPT da OpenAI. A comissão já iniciou uma investigação para determinar se o chatbot com inteligência artificial violou a lei de proteção ao consumidor. (via The Motlety Tool)
A comissão emitiu uma carta de demanda de 20 páginas destacando suas preocupações com as práticas de segurança de dados da OpenAI. Há também uma preocupação crescente com o impacto do ChatGPT na reputação de seus usuários.
A OpenAI será obrigada a fornecer à comissão um relato detalhado das reclamações apresentadas pelos usuários sempre que o chatbot fornecer a eles “informações falsas”, manchando sua reputação. Em desenvolvimentos recentes, um estudo conduzido por Standford destacou que o ChatGPT está ficando mais burro com o tempo.
No início deste ano, a Microsoft estendeu sua parceria com a OpenAI fazendo um investimento de bilhões de dólares, tornando-se assim o maior investidor da empresa. Desde então, a Microsoft integrou a IA na maioria de seus produtos e serviços.
Com isso em mente, se a investigação da FTC sobre a OpenAI encontrar alguma discrepância, a Microsoft também será afetada indiretamente.
Análise
O mandato da FTC é garantir que os melhores interesses dos consumidores sejam protegidos de práticas maliciosas. No passado, organizações como Meta, Zoom, Twitter e outras pagaram multas pesadas depois de serem consideradas erradas em questões relacionadas à privacidade.
As empresas por trás dessas ferramentas dependem fortemente de dados privados e públicos para treinar seus modelos de IA. E embora seja possível treiná-los usando seus próprios dados, chatbots como ChatGPT e Bing Chat exigem um conjunto de dados mais amplo, pois as pessoas os usam por vários motivos, incluindo a resolução de problemas complexos de matemática, pesquisa e muito mais.
Até recentemente, o ChatGPT dependia do modelo GPT-3.5, o que era um grande revés, pois a ferramenta só podia acessar informações até setembro de 2021. No entanto, a OpenAI lançou recentemente um novo recurso, Navegar com Bing, para usuários de iOS para aprimorar a experiência de pesquisa, embora você precise ter uma assinatura do ChatGPT Plus para acessá-lo.
O sucesso de um chatbot é determinado por sua precisão e, como você sabe, GPT-3.5 e GPT-4 são atualizados usando feedback e dados do usuário. É impossível determinar exatamente como isso é feito, os chatbots nem sempre são precisos. No passado, vários relatórios foram feitos sobre alucinações do Bing Chat e até mesmo respostas erradas.
Como tal, muitas organizações levantaram abertamente preocupações sobre esses chatbots e como eles funcionam. A Microsoft e a OpenAI indicaram que implementaram medidas de segurança elaboradas para garantir que suas entradas não saiam do controle. Ainda assim, as organizações estão relutantes em relação à tecnologia e indicaram categoricamente que são contra chatbots usando seus dados, especialmente sem seu conhecimento.
Sua relutância está principalmente centrada em questões de segurança e direitos autorais. O ChatGPT tem acesso a vastos recursos dos usuários, e o efeito seria bastante significativo se fosse comprometido por invasores. Em junho, um relatório de uma empresa de segurança cibernética revelou que mais de 100.000 credenciais do ChatGPT foram acessadas por hackers e vendidas na dark web. Eles conseguiram acessar as credenciais por meio de malware para roubo de informações.
A comissão também analisará como a OpenAI armazena os dados do consumidor, as medidas de segurança que a empresa usa para proteger os dados do consumidor e danos à reputação e, finalmente, os ataques que afetaram esse chatbot no passado.
Evidentemente, há uma necessidade de regras e regulamentos que serão usados para governar como os desenvolvimentos de IA são feitos. No início deste ano, os principais players do setor assinaram uma carta solicitando uma suspensão de seis meses no desenvolvimento de novas entradas. Isso é para fornecer aos legisladores tempo suficiente para acompanhar os desenvolvimentos recentes no setor. O CEO da Microsoft, Satya Nadella, comentou sobre o assunto no mês passado durante uma entrevista e indicou que:
“Dito isso, neste ponto, em vez de apenas dizer pare, eu diria que devemos acelerar o trabalho que precisa ser feito para criar esses alinhamentos. Não lançamos Sydney com GPT-4 no primeiro dia em que o vi, porque tivemos muito trabalho para construir um cinto de segurança. Mas também sabíamos que não poderíamos fazer todo o alinhamento no laboratório. Para alinhar um modelo de IA com o mundo, você precisa alinhá-lo no mundo e não em alguma simulação.”
Se a investigação da FTC revelar atos ilícitos da OpenAI. Isso pode afetar negativamente a Microsoft. Embora a FTC não possa fazer novas leis, ela pode fazer recomendações ao governo dos EUA que moderem o desenvolvimento de modelos de IA. E se mais restrições forem implementadas para limitar o número de recursos que o chatbot pode acessar, o chatbot da Microsoft, Bing Chat, será bastante impactado, pois limitará sua precisão.
Será interessante ver o que a FTC descobrirá durante sua investigação e os próximos passos a seguir. Manteremos você informado quando soubermos mais sobre essa história em desenvolvimento.