Raramente as coisas são exatamente o que parecem, e o mundo da computação quântica se presta melhor do que a maioria a essa descrição. Descrito como uma mudança fundamental em nossas capacidades de processamento, o desenvolvimento da computação quântica acelerou incrivelmente nos últimos anos. Ainda de acordo com um trabalho de pesquisa publicado no jornal da Association for Computing Machinerya computação quântica relevante (aquela que geralmente é chamada de rodar em círculos até mesmo nos computadores clássicos mais poderosos) ainda requer descobertas inovadoras em várias áreas antes de poder destronar uma mera placa gráfica.
O elemento mais surpreendente do papel é a conclusão de que vários aplicativos permanecerão mais adequados para a computação clássica (em vez da computação quântica) por mais tempo do que se pensava anteriormente. Os pesquisadores dizem que isso é verdade mesmo para sistemas quânticos executados em mais de um milhão de qubits físicos, cujo desempenho a equipe simulou como parte de sua pesquisa.
Considerando como o sistema de ponta de hoje, o Osprey da IBM, ainda “apenas” empacota em 433 qubits (com um lançamento de sistema de 4.158 qubits prometido pela IBM para 2025), a escala de tempo em direção a um milhão de qubits se estende mais à frente do que o esperado.
O problema, dizem os pesquisadores, não está nas próprias aplicações ou cargas de trabalho – descoberta de drogas, ciências de materiais, programação e problemas de otimização em geral ainda estão na mira da computação quântica. O problema é com os próprios sistemas de computação quântica – suas arquiteturas e sua incapacidade atual e futura de receber as quantidades flagrantes de dados que alguns desses aplicativos exigem antes mesmo de encontrar uma solução. É um problema simples de E/S, não muito diferente daquele que todos conhecíamos antes dos SSDs NVMe se tornarem a norma, quando os HDDs estrangulam CPUs e GPUs a torto e a direito: os dados só podem ser alimentados tão rapidamente.
No entanto, quantos dados são enviados, com que rapidez chegam ao seu destino e quanto tempo leva para processar são todos elementos da mesma equação. Nesse caso, a equação é para vantagem quântica – o momento em que os computadores quânticos oferecem desempenho além de qualquer coisa possível para sistemas clássicos. E parece que em cargas de trabalho que exigem o processamento de grandes conjuntos de dados, os computadores quânticos terão que assistir enquanto GPUs como o A100 da Nvidia são executados – provavelmente por muito, muito tempo.
A computação quântica pode ter que resolver grandes problemas de computação em pequenos dados, enquanto a clássica terá a tarefa nada invejável de processar os problemas de “big data” – uma abordagem híbrida da computação quântica que vem ganhando terreno nos últimos anos.
De acordo com uma postagem no blog (abre em nova aba) por Matthias Troyer, da Microsoft, um dos pesquisadores envolvidos no estudo, isso significa que cargas de trabalho como design de drogas e dobramento de proteínas, bem como previsão do tempo e do clima seriam mais adequadas para sistemas clássicos afinal, enquanto química e ciência de materiais se encaixam perfeitamente o projeto de lei para a filosofia “grande computação, pequenos dados”.
Embora isso possa parecer um fracasso de balde de gelo para as esperanças da computação quântica, Troyer foi rápido em enfatizar que esse não é o caso: “Se os computadores quânticos beneficiassem apenas a química e a ciência dos materiais, isso seria suficiente. Muitos problemas enfrentados pelo mundo de hoje se resumem a problemas de química e ciência dos materiais”, disse ele. “Veículos elétricos melhores e mais eficientes dependem da descoberta de melhores químicas de bateria. Drogas contra o câncer mais eficazes e direcionadas dependem da bioquímica computacional”.
Mas há outro elemento na tese dos pesquisadores, mais difícil de ignorar: parece que os algoritmos de computação quântica atuais seriam insuficientes, por si só, para garantir o resultado desejado de “vantagem quântica”. Em vez da complexidade de engenharia de sistemas de um computador quântico, aqui está um problema de desempenho simples: os algoritmos quânticos em geral simplesmente não fornecem aceleração suficiente. O algoritmo de Grover, por exemplo, oferece uma aceleração quadrática em relação aos algoritmos clássicos; mas de acordo com os pesquisadores, isso não é suficiente.
“Essas considerações ajudam a separar o hype da praticidade na busca por aplicações quânticas e podem orientar o desenvolvimento algorítmico”, diz o artigo. “Nossa análise mostra que é necessário que a comunidade se concentre em velocidades superquadráticas, idealmente acelerações exponenciais, e é preciso considerar cuidadosamente os gargalos de E/S”.
Então, sim, ainda é um longo caminho até a computação quântica. No entanto, as IBMs e Microsofts do mundo continuarão constantemente suas pesquisas para habilitá-lo. Muitos dos problemas enfrentados pela computação quântica hoje são os mesmos que enfrentamos no desenvolvimento de hardware clássico – as CPUs, GPUs e arquiteturas de hoje tiveram um início muito anterior e mais impactante. Mas eles ainda tiveram que passar pelas mesmas iterações de design e desempenho que a computação quântica eventualmente fará, dentro de seu próprio e admirável novo prazo. O fato de o artigo ter sido escrito por cientistas da Microsoft, Amazon Web Services (AWS) e do Scalable Parallel Computing Laboratory em Zurique – todas as partes com interesses investidos no desenvolvimento e sucesso da computação quântica – apenas torna esse objetivo ainda mais provável.