En apportant de petits ajustements à la fréquence à laquelle les qubits fonctionnent, il est possible d’éviter ces problèmes. Cela peut être fait lorsque la puce Heron est calibrée avant son ouverture pour une utilisation générale.

Par ailleurs, l’entreprise a réécrit le logiciel qui contrôle le système pendant les opérations. « Après avoir appris de la communauté, vu comment gérer des circuits plus grands, [we were able to] « C’est presque mieux de définir ce que cela devrait être et de réécrire toute la pile dans ce sens », a déclaré Gambetta. Le résultat est une accélération spectaculaire. « Quelque chose qui a pris 122 heures maintenant est réduit à quelques heures », a-t-il déclaré à Ars.

Puisque les gens paient pour du temps sur ce matériel, c’est désormais une bonne chose pour les clients. Cependant, cela pourrait également s’avérer payant à long terme, car certaines erreurs peuvent survenir de manière aléatoire. Ainsi, moins de temps consacré à un calcul peut signifier moins d’erreurs.

Des calculs plus approfondis

Malgré toutes ces améliorations, des erreurs restent probables lors de tout calcul important. Tout en continuant à travailler au développement de qubits corrigés des erreurs, IBM se concentre sur ce qu’il appelle l’atténuation des erreurs, qu’il a détaillé pour la première fois l’année dernière. Comme nous l’avons décrit alors :

« Les chercheurs se sont tournés vers une méthode dans laquelle ils ont intentionnellement amplifié puis mesuré le bruit du processeur à différents niveaux. Ces mesures sont utilisées pour estimer une fonction qui produit un résultat similaire aux mesures réelles. Cette fonction peut ensuite mettre son bruit à zéro pour produire une estimation de ce que le processeur ferait sans aucun bruit. »

Le problème ici est que l’utilisation de la fonction est difficile sur le plan informatique, et la difficulté augmente avec le nombre de qubits. Ainsi, même s’il est toujours plus facile d’effectuer des calculs d’atténuation des erreurs que de simuler le comportement de l’ordinateur quantique sur le même matériel, il existe toujours le risque que cela devienne insoluble sur le plan informatique. Mais IBM a également pris le temps d’optimiser cela également. « Ils ont des améliorations algorithmiques et la méthode qui utilise des méthodes tensorielles 1731585935 utilise le GPU », a déclaré Gambetta à Ars. « Je pense donc que c’est une combinaison des deux. »