O que você precisa saber
O CEO da Microsoft, Satya Nadella, e Sam Altman, da OpenAI, recentemente conversaram com o editor-chefe do The Economist para falar sobre o futuro da IA, o que vem por aí para o ChatGPT e muito mais.
Sam Altman destacou que mede o sucesso do ChatGPT com base na porcentagem de trabalho humano que ele é capaz de realizar, destacando ainda mais sua diversão com a alta adoção da tecnologia como ferramenta de produtividade no local de trabalho.
A OpenAI ainda está trabalhando para alcançar a superinteligência AGI, com Altman apontando que as especulações de que isso causa mais danos do que benefícios podem não acontecer. Altman destacou que não existe um grande botão vermelho para pressionar quando tudo fica fora de controle; em vez disso, são as pequenas e significativas decisões tomadas ao longo do caminho ao tomar essas decisões que mitigam esses riscos.
Como o fiasco da OpenAI, onde o conselho de administração decidiu destituir Sam Altman da empresa e mais tarde recontratá-lo como CEO dentro de uma semana, ficou bem atrás de nós, muitas pessoas se perguntam o que vem por aí para a Microsoft e a OpenAI no que diz respeito à IA generativa. preocupado. Bem, a resposta mais próxima que você provavelmente obterá sobre isso é uma entrevista recente em que o editor-chefe do The Economist, Zanny Minton Beddoes, conversou com Sam Altman da OpenAI e com o CEO da Microsoft, Satya Nadella, para falar sobre o futuro da IA, direção para o avanço do ChatGPT, potenciais e perigos da superinteligência AGI e, finalmente, regulamentação da tecnologia.
Como será 2024 para o ChatGPT?
A sessão começa com o editor-chefe (EIC) do The Economist perguntando a Sam Altman o que o futuro reserva para o ChatGPT. Altman respondeu brincando, destacando como marcos significativos, como o lançamento do modelo GPT-4 LLM e avanços sutis que poderiam levar à superinteligência, levam os usuários preocupados ao limite.
Ele acrescentou que os usuários tendem a acreditar que esses marcos levarão a uma mudança dinâmica da noite para o dia, citando a perda de empregos e muito mais. Curiosamente, esse interesse na tecnologia e nos desenvolvimentos que a cercam dura pouco (“surto de duas semanas”), com a maioria dos usuários mudando seu foco para criticar os avanços, como o GPT-4, e citando problemas de desempenho, como velocidades lentas, declínio na precisão e muito mais.
Sam Altman e Bill Gates da OpenAI falam sobre GPT-5, superinteligência AGI e recursos de vídeo chegando ao ChatGPT em uma ampla entrevista
Satya Nadella, da Microsoft, define IA generativa como uma tecnologia inovadora cuja difusão ocorreu quase instantaneamente em todo o mundo, acrescentando valor significativo em vários setores, incluindo educação e medicina. O CEO citou que as pessoas agora têm acesso gratuito a “melhores conselhos de saúde e um tutor mais personalizado” através de chatbots com tecnologia de IA, como Microsoft Copilot e ChatGPT.
Sam Altman revelou que mede o sucesso dos modelos LLM avaliando e medindo a percentagem de tarefas humanas que podem realizar. Ele acrescentou que é bastante satisfatório ver a taxa de adoção da tecnologia como “uma companheira para o trabalho do conhecimento” em massa em toda a organização e como ela está sendo integrada ao fluxo de trabalho como uma ferramenta de produtividade.
Sam Altman citou que a OpenAI ainda está trabalhando para alcançar a superinteligência AGI, embora não tenha indicado se a empresa estava adotando uma trajetória radical ou incremental enquanto a perseguia. A descoberta poderia potencialmente ultrapassar as habilidades cognitivas dos humanos, uma vez que está muito à frente dos já impressionantes chatbots como o Microsoft Copilot. Altman acredita que eles serão capazes de atingir o benchmark de superinteligência e, se a história servir de referência, os usuários terão um “surto de duas semanas” sobre isso, e então as coisas voltarão ao normal.
Regulamentação da IA generativa
Zanny Minton Beddoes, do The Economist, destacou que os utilizadores estão alarmados e preocupados com a existência de tecnologia que substitui o conhecimento humano, uma vez que poderia causar muitos danos se não fossem implementadas barreiras de protecção e medidas elaboradas para estabelecer controlo sobre ela.
Altman citou os relatos contemporâneos de revoluções tecnológicas, indicando ainda que as previsões dos especialistas estavam erradas na maioria dos relatos. Ele indicou que este também poderia ser o caso das especulações que giram em torno da superinteligência AGI e que poderia causar mais danos do que benefícios.
À medida que avançamos para atingir este valor de referência, reguladores como o governo dos EUA, sob a administração de Biden, já dispararam a sua primeira bala para estabelecer o controlo sobre a tecnologia, emitindo uma ordem executiva que aborda algumas preocupações em torno da segurança e privacidade da IA.
Além disso, também impede os esforços dos fabricantes de chips, impedindo-os de enviar GPUs para a China por questões de segurança, o que alimentou a rivalidade de longa data entre os EUA e a China, a tal ponto que a Microsoft está a debater se deve manter a sua IA baseada em Pequim. laboratório de pesquisa. O governo dos EUA indicou anteriormente que as regras de exportação impostas que proíbem os fabricantes de chips de enviar GPUs para a China não existem para prejudicar a economia da China, mas para abordar a possível exploração da tecnologia para uso militar.
Concluindo a entrevista, perguntaram a Altman se ele desligaria os avanços da IA e da superinteligência se sentisse um perigo potencial pairando no ar. Ele disse que nenhum “grande botão vermelho mágico” pode ser pressionado para explodir o data center em tal ocorrência, que a maioria das pessoas presume que exista. Ele acrescentou que isto se resume às decisões pouco, mas significativas, tomadas durante a realização destes avanços, onde são postas em prática medidas elaboradas para estabelecer o controlo sobre até que ponto esta tecnologia pode ser levada pelos utilizadores, mitigando, em última análise, tais riscos. A OpenAI pode já estar a caminho de atingir o benchmark de superinteligência depois que os funcionários da empresa escreveram uma carta ao conselho de administração destacando um potencial avanço no espaço. O avanço poderá fazer com que a empresa atinja o benchmark dentro de uma década.
Você acha que há regulamentação suficiente para garantir que os avanços tecnológicos da IA não saiam do controle? Compartilhe sua opinião conosco nos comentários.