Ulysse Réglade
👤 SpeakerAppearances Over Time
Podcast Appearances
Et après, tu vois, dans ton algorithme, ça voudrait dire que tu auras une étape où tu vas faire les opérations, une étape où tu vas corriger les erreurs, une étape où tu vas faire les opérations.
À la fin, la machine que tu as, elle corrige autant les erreurs qu'elle fait des calculs.
Les deux seront l'un après l'autre.
En fait, à la fin, si tu as trois zéros, mais que tu as deux zéros qui se transforment en un, là, ça ne marche plus.
Même ton vote de majorité, il va inverser le zéro, le dernier qui restait, qui était bon, il va le mettre en un et tu auras ajouté une erreur avec ta correction.
En fait, c'est ce qu'on appelle le seuil de la correction d'erreur.
C'est hyper important.
C'est le fait que ta correction d'erreur, elle marche, mais si de base, tes qubits sont assez bons.
Dans les CD, si tu rayes un CD, comme il y a de la correction d'erreur, c'est pareil.
Tu vas avoir le film intact quand même.
Par contre, c'est Google qui a fait un calcul plus rapidement sur un ordinateur quantique.
Ils ont estimé qu'il aurait fallu 10 000 ans sur un ordinateur classique.
Mais en tout cas, ils ont appelé ça la suprématie quantique.
Mais le calcul était choisi spécifiquement, c'était le seul calcul à peu près qu'ils pouvaient faire, qui marchait, et ce n'est pas du tout un calcul utile.
Et pour faire vraiment un calcul utile, le problème aujourd'hui, c'est vraiment que, comme il y a beaucoup de bruit,
Il y a beaucoup d'erreurs, il faut beaucoup de renondances.
Et donc à la fin, des chercheurs toujours de chez Google ont estimé que pour faire tourner l'algorithme de Shor, il faudrait 20 millions de qubits.
Et pour donner un ordre de grandeur, le record aujourd'hui, Google en a 70, IBM en a 400 à peu près.
Il y a une entreprise qui a annoncé qu'ils en avaient 1000.
On est très très loin du compte.