O que você precisa saber
- O governo Biden começou a examinar se são necessárias verificações de inteligência artificial.
- Há preocupações crescentes de que a IA possa estar implicada em discriminação ou espalhar informações prejudiciais.
- O Departamento de Comércio divulgou na terça-feira um pedido público formal de comentários sobre se novos modelos de IA potencialmente arriscados devem passar por um processo de certificação antes de serem lançados.
O governo dos EUA, que, como a maioria das instituições proeminentes, está atrasado em relação à tecnologia, está finalmente aceitando a ideia de que talvez a IA precise de algumas regulamentações antes que coisas ruins aconteçam.
Anunciado hoje, o Departamento de Comércio dos EUA está solicitando formalmente comentários públicos sobre se “novos modelos de IA potencialmente arriscados” devem passar por um processo de certificação antes de serem lançados. O Departamento de Comércio chama isso de “medidas de responsabilidade”.
O ChatGPT da OpenAI foi lançado no final do ano passado, mas rapidamente se tornou um sucesso na Internet, com um milhão de usuários em janeiro de 2023, e é um dos aplicativos de consumo de crescimento mais rápido de todos os tempos. Apenas um mês depois, a Microsoft revelou seu Bing Chat Co-Pilot, que utiliza a tecnologia ChatGPT junto com a sua própria para reforçar seu mecanismo de busca e conhecimento. Desde então, a Microsoft está lançando AI em seus aplicativos Start e Bing, Microsoft Edge (desktop e móvel), web, SwiftKey e Skype, e tem planos adicionais para Office, Teams e Windows.
O ChatGPT-5, considerado outra grande evolução do sistema, está previsto para o final de 2023.
O Wall Street Journal, que relatou pela primeira vez as notícias de hoje do Departamento de Comércio, observou que os comentários do público seriam aceitos pelos próximos 60 dias. Esses comentários ajudarão a comunicar conselhos aos formuladores de políticas, aconselhando o presidente (em vez de escrever ou aplicar os próprios regulamentos).
O presidente Biden discutiu a IA com um conselho consultivo de cientistas na semana passada. Esse conselho foi criado há quase um ano pelo Departamento de Comércio dos Estados Unidos e é conhecido como Comitê Consultivo Nacional de IA (NAIAC). Tem 27 membros, incluindo Microsoft e Google.
A Microsoft e a OpenAI têm sido bastante abertas sobre a necessidade de regulamentação, com a primeira delineando suas IA responsável (abre em nova aba) mandato onde a transparência e a segurança são imperativas. No entanto, um relatório recente afirmou que a Microsoft demitiu uma das equipes responsáveis por orientar outros grupos da Microsoft sobre IA. A OpenAI também acolheu a regulamentação observando“A regulamentação é necessária para garantir que tais práticas sejam adotadas, e nos envolvemos ativamente com os governos sobre a melhor forma que tal regulamentação poderia assumir.”
Recentemente, a Itália baniu o ChatGPT por questões de dados, e a Alemanha também estava considerando ações semelhantes.
Tomada do Windows Central
Embora o governo dos EUA não apenas seja tipicamente lento para reagir a novas tecnologias, ele também tende a errar (parcialmente devido ao forte lobby de empresas com interesses investidos). Dito isto, este passo na regulamentação oficial é necessário antes que a IA, que está avançando rapidamente, fique muito à frente de todos.
Recentemente, pessoas como Elon Musk e outros assinaram um documento pedindo uma pausa de seis meses no desenvolvimento da IA. Honestamente, aquela carta foi a coisa mais idiota que eu já li. Eu entendo o espírito por trás disso, pois concordo que a IA precisa ser controlada, mas a ideia de que empresas com fins lucrativos irão “pausar” a IA é absurda. Não é assim que o capitalismo funciona, e não é como se a China, a Rússia ou outros países aceitassem tal medida. (Há também a ironia do cara que implementou a “condução totalmente autônoma” em carros sem regulamentação governamental, resultando em mortes reais de pessoas que pedem cautela por causa dos riscos da IA).
Claro, o que é necessário, a longo prazo, é que a ONU também se envolva. Todos os países precisam chegar a alguns acordos sobre sistemas, regulamentos e controle de IA e implementar medidas para evitar problemas significativos e reagir aos que inevitavelmente surgirão nos próximos anos. Por exemplo, deveria haver um acordo geral para não vincular IA a armas de destruição em massa pelo que considero razões óbvias. Da mesma forma, sistemas críticos podem causar caos em um país se forem desligados ou “assumidos”, como o problema contínuo com ameaças aos sistemas de computadores da rede elétrica dos EUA.
Sem cooperação e consenso globais, tentar limitar a IA país a país será problemático. Você não pode colocar esse gênio de volta em uma garrafa.