Em cúpula na Casa Branca nesta sexta-feirasete das principais empresas de IA do mundo prometeram melhorar as barreiras de segurança em torno de seus produtos de IA. Depois de meses de consultas e pedidos de comentárioso acordo entre a Casa Branca e as empresas investidas em IA Amazon, Anthropic, Meta, Microsoft, Google, Inflection e OpenAI procura abordar as preocupações do governo em relação aos riscos e perigos dos sistemas de IA.
Uma das medidas acordadas é o aumento do financiamento para pesquisas sobre discriminação, como uma forma de combater os vieses algorítmicos que atualmente são inerentes às redes de IA.
As empresas também concordaram em fazer investimentos adicionais em segurança cibernética. Se você já desenvolveu um projeto ou codificou algo em uma ferramenta como o ChatGPT, sabe o quão abrangentes são as informações contidas no seu chat AI. E já houve credenciais suficientes de usuários do ChatGPT vazadas online – sem culpa da OpenAI, lembre-se – que é o que o aumento do investimento em segurança cibernética visa combater.
Também foi prometida a implementação de marcas d’água no conteúdo gerado por IA – um problema que tem estado particularmente quente nas impressoras ultimamente, por vários motivos.
Há o ângulo dos direitos autorais, que já viu vários processos lançados em empresas de IA generativa: marca d’água em conteúdo gerado por IA seria uma maneira de amenizar o medo de dados emergentes gerados por humanos (aqueles que são produzidos automaticamente apenas ao representar nossas vidas) sendo cada vez mais diluídos em um mar de conteúdo gerado por IA em rápida melhoria.
Há também o ângulo do impacto sistêmico: quais empregos serão afetados pela IA? Sim, há necessidade suficiente no mundo para eventualmente absorver trabalhadores para outras indústrias menos impactadas, mas essa transição tem custos humanos, econômicos e de prazo. Se muita coisa mudar, muito rápido, toda a economia e o sistema de trabalho podem ser quebrados.
É claro que marcar dados gerados por IA (ou dados sintéticos, como tem sido mais recentemente e frequentemente chamados) também é do interesse das empresas de IA. Eles não querem que seus AIs enlouqueçam eventualmente devido a conjuntos de dados sintéticos, conjuntos de dados envenenados, nem pela incapacidade de discernir dados sintéticos dos dados emergentes mais seguros, mas muito mais caros.
E se os problemas no treinamento recursivo de IAs permanecerem muito difíceis de resolver por muito tempo, agora que a IA está fora da garrafa, os desenvolvedores de IA podem em breve ficar sem bons conjuntos de dados com os quais continuar treinando suas redes.
Todas as promessas foram voluntárias, possivelmente em uma demonstração de boa vontade por parte das corporações que mais investiram em IA. Mas há um bônus adicional: um movimento como esse também tira um pouco da vantagem do “podemos controlar a IA no ritmo em que estamos indo atualmente?” debate. Se os próprios desenvolvedores de IA estiverem dispostos a aumentar voluntariamente a segurança de seus sistemas, então talvez esta também seja uma área na qual eles também serão bons guardiões (embora sua milhagem possa variar).
Parte do problema com essa abordagem é que são apenas sete empresas: e as centenas de outras empresas que desenvolvem produtos de IA? Aqueles que já são menores e estão em desvantagem em relação a gigantes como OpenAI e Microsoft podem ser confiáveis? Porque essas são as empresas que têm mais a ganhar ao trazer à força o produto de que dependem seus meios de subsistência ao ar livre despreparado. Definitivamente não seria a primeira vez que um produto foi levado às pressas para a monetização.
Os compromissos exigiram validação interna e externa e verificação de que estão sendo ativamente perseguidos (mas sempre há descuidos, falhas de comunicação, documentos perdidos e brechas).
A questão aqui é que a IA apresenta um risco fundamental em nível de extinção, e há um lado dessa vantagem que definitivamente não queremos estar.