O que você precisa saber
- A Apple está desenvolvendo um novo LLM que deverá rodar no dispositivo.
- Isso significa que ele detectará grandes velocidades de desempenho e manterá a privacidade do usuário, ao contrário de seus rivais como Copilot e ChatGPT, que dependem fortemente de uma conexão com a Internet e da nuvem.
- A fabricante do iPhone provavelmente licenciará o software Gemini AI do Google para lidar com tarefas complexas como geração de texto, que requer uma conexão com a Internet, evitando, em última análise, problemas de violação de direitos autorais.
Faltam apenas alguns meses para a conferência anual de desenvolvedores da Apple, WWDC 2024. E embora esperemos que o fabricante do iPhone anuncie sua nova linha de telefones junto com os anúncios habituais, há rumores de que a empresa fará sua estreia no cenário de IA generativa com um LLM no dispositivo.
O investimento multibilionário da Microsoft em IA e a parceria alargada com a OpenAI colocaram a empresa numa posição benéfica – a empresa mais valiosa do mundo, com mais de 3 biliões de dólares em capitalização de mercado. Analistas de mercado afirmam que a Microsoft continuará potencialmente a manter esta posição à frente da Apple durante os próximos cinco anos e além, com alguns indicando que está à beira de alcançar o seu “momento iPhone” com IA.
Na verdade, potencialmente daremos uma olhada antecipada no que os anúncios centrados em IA da Apple podem implicar, especificamente em relação ao LLM da empresa, que será lançado em breve, e que supostamente superará o GPT-4 da OpenAI. De acordo com Mark Gurman da Bloomberg (geralmente uma fonte confiável para todos os assuntos da Apple), a Apple está desenvolvendo seu LLM que supostamente será executado no dispositivo para afirmar a privacidade dos consumidores e, ao mesmo tempo, prometer excelente desempenho.
Um LLM baseado no dispositivo significa essencialmente que dependerá do processador do iPhone e não da nuvem. Mas o que isso significa? O modelo detectará melhor desempenho. No passado, testemunhamos a frustração que os usuários ávidos do ChatGPT da OpenAI ou do Copilot AI da Microsoft passaram durante os horários de pico. Por exemplo, quando a Microsoft lançou a tecnologia DALL-E do Designer (anteriormente Bing Image Creator) para o Image Creator, as velocidades de geração de imagens eram dolorosamente lentas. Alguns usuários indicaram que tiveram que esperar até uma hora para gerar uma única imagem. Até mesmo os assinantes do Microsoft Copilot Pro enfrentam problemas semelhantes, apesar do prometido acesso rápido aos serviços durante os horários de pico.
Embora o LLM da Apple tenha um ótimo desempenho, ele pode não compartilhar o mesmo escopo de conhecimento, consistente com seus rivais. No entanto, Gurman indicou que entrar em contato com o Google e outras IA ajudaria a preencher as lacunas de conhecimento que faltam. Isso se alinha perfeitamente com um relatório anterior que sugeria que o Google e a Apple estão supostamente no meio de um mega acordo que poderia levar o Gemini a ser usado como assistente de IA padrão no iPhone.
Ainda assim, o LLM da Apple aborda a maioria das preocupações expressadas pelos usuários sobre IA generativa – privacidade e tempos de resposta mais rápidos. Também será interessante ver como o modelo concorre com o ChatGPT, que atualmente detém uma grande porcentagem do mercado móvel, apesar do Copilot ser fornecido com acesso gratuito à tecnologia de geração de imagens DALL-E e GPT-4.
A Apple joga pelo seguro com material protegido por direitos autorais
(Crédito da imagem: Windows Central)
Um modelo de IA executado no dispositivo significa que os usuários podem aproveitar seus recursos sem ter uma conexão com a Internet. No entanto, suas capacidades serão um pouco limitadas à análise básica de texto. A Apple pode licenciar o software Gemini AI do Google para lidar com tarefas complexas como geração de texto, que requer conexão com a Internet.
Com o mercado de PCs mudando em direção à tendência de PCs com IA, a Intel, trabalhando em estreita colaboração com a Microsoft, indicou que o Copilot AI deverá começar a ser executado localmente no Windows em breve, potencialmente resolvendo alguns dos problemas que afetam o serviço.
De acordo com Fonte do AppleInsider com conhecimento próximo dos ambientes de teste de IA da Apple, “não há restrições para impedir que alguém use material protegido por direitos autorais na entrada para ambientes de teste no dispositivo”.
Não está claro quais medidas a Apple tem para evitar que seu LLM encontre problemas de violação de direitos autorais. Microsoft e OpenAI estão em tribunal disputando ações judiciais sobre o mesmo. Embora os relatórios indiquem que o LLM da Apple superará o modelo GPT-4 da OpenAI, Sam Altman já indicou que isso é “uma droga” em meio a rumores de que a OpenAI está se preparando para revelar um novo modelo que é “realmente bom, materialmente melhor”. Além disso, Altman admitiu que é “impossível” criar ferramentas semelhantes ao ChatGPT sem usar material protegido por direitos autorais.