Os testes de benchmarking, liderados por uma equipe no Jülich Research Center na Alemanha, compararam 19 QPUs diferentes de cinco fornecedores-incluindo IBM, Quantinuum, IONQ, Rigetti e IQM-para determinar quais chips eram mais estáveis e confiáveis para computação de alto desempenho (HPC).
Esses sistemas quânticos foram testados em diferentes “larguras” (o número total de qubits ) assim como diferentes “profundidades” para portões de 2 quits. Os portões são operações que agem em dois enredado Qubits simultaneamente, e a profundidade mede o comprimento de um circuito – em outras palavras, sua complexidade e tempo de execução.
O QPUS da IBM mostrou a maior força em termos de profundidade, enquanto o Quantinuum teve o melhor desempenho na categoria de largura (onde um número maior de qubits foi testado). O QPUS da IBM também mostrou uma melhora significativa no desempenho entre as iterações, particularmente entre o anterior Águia e gerações mais recentes de chips de garça .
Esses resultados, descritos em um estudo enviado em 10 de fevereiro para a pré -impressão arxiv O banco de dados, sugere que as melhorias de desempenho podem ser atribuídas não apenas a hardware melhor e mais eficiente, mas também melhorias no firmware e a integração de portões fracionários – portões personalizados disponíveis no Heron podem reduzir a complexidade de um circuito.
No entanto, a versão mais recente do Chip Heron, apelidada de IBM Marrakesh, não demonstrou melhorias esperadas de desempenho, apesar de ter metade dos erros por portão em camadas (EPLG) em comparação com o QPU anterior da gigante da computação, IBM Fez.
Além da computação clássica
As empresas menores também obtiveram ganhos relativamente grandes. É importante ressaltar que um chip quantinuum passou no benchmark a uma largura de 56 qubits. Isso é significativo porque representa a capacidade de um sistema de computação quântica de superar os computadores clássicos existentes em contextos específicos.
Relacionado: A China alcança a reivindicação de supremacia quântica com o novo Chip 1 Quadrilhão vezes mais rápido que os supercomputadores mais poderosos
“No caso de Quantinuum H2-1, os experimentos de 50 e 56 qubits já estão acima das capacidades de simulação exata em sistemas de HPC e os resultados ainda são significativos”, escreveram os pesquisadores em seu estudo de pré-impressão.
Especificamente, o chip quantinuum H2-1 produziu resultados em 56 qubits, executando três camadas do algoritmo de otimização aproximada da rampa linear (LR-QAOA)-um algoritmo de benchmarking-envolvendo 4.620 gates de dois quits.
“Até onde sabemos, esta é a maior implementação da QAOA para resolver um problema de otimização combinatória do FC em hardware quântico real que é certificado para dar um melhor resultado sobre adivinhação aleatória”, disseram os cientistas no estudo.
A FEZ da IBM gerenciou problemas na profundidade mais alta dos sistemas testados. Em um teste que incluiu um problema de 100 quitões usando até 10.000 camadas de LR-qaoa (quase um milhão de portões de dois quits), a FEZ manteve algumas informações coerentes até quase a marca de 300 camadas. O QPU com menor desempenho nos testes foi o ANKAA-2 de Rigetti.
A equipe desenvolveu a referência para medir o potencial de um QPU para executar aplicações práticas. Com isso em mente, eles procuraram criar um teste com um conjunto claro e consistente de regras. Esse teste tinha que ser fácil de executar, a plataforma agnóstica (para que pudesse funcionar a gama mais ampla possível de sistemas quânticos) e fornecer métricas significativas associadas ao desempenho.
O benchmark deles é construído em torno de um teste chamado Problema Maxcut. Ele apresenta um gráfico com vários vértices (nós) e bordas (conexões), então pede ao sistema que divida os nós em dois conjuntos, para que o número de arestas entre os dois subconjuntos seja máximo.
Isso é útil como uma referência porque é computacionalmente muito difícil e a dificuldade pode ser ampliada aumentando o tamanho do gráfico, disseram os cientistas no artigo.
Foi considerado que um sistema falhou no teste quando os resultados atingiram um estado totalmente misto – quando eram indistinguíveis da de um amostrador aleatório.
Como o benchmark depende de um protocolo de teste relativamente simples e escalável e pode produzir resultados significativos com um pequeno conjunto de amostras, é razoavelmente barato executar, acrescentou os cientistas da computação.
O novo benchmark não deixa de ter suas falhas. O desempenho depende, por exemplo, dos parâmetros de cronograma fixo, o que significa que os parâmetros são definidos com antecedência e não são ajustados dinamicamente durante o cálculo, o que significa que eles não podem ser otimizados. Os cientistas sugeriram que, juntamente com seu próprio teste, “diferentes parâmetros de referência candidatos para capturar aspectos essenciais do desempenho devem ser propostos, e o melhor deles com o conjunto mais explícito de regras e utilidade permanecerá”.
Deixe um comentário