Im Juni 2021 wurde im baden-württembergischen Ehningen der leistungsstärkste Quantencomputer Deutschlands eingeweiht, ein “Aushängeschild des Technologiestandorts Deutschland” laut Bundeskanzlerin Angela Merkel (CDU). Auch Bundesforschungsministerin Karliczek (CDU) bezeichnete Quantentechnologien kürzlich als “entscheidende Schlüsseltechnologien der Zukunft”, zu deren Erforschung ihr Haus zusammen mit dem Bundeswirtschaftsministerium zukünftig zwei Milliarden Euro zur Verfügung stellen wird. Doch was versprechen sich Expert*innen genau von Quantencomputern, wer sind die wichtigsten Akteur*innen in deren Entwicklung und wie funktionieren sie eigentlich? In diesem Post nimmt Algoright Quantencomputing genauer unter die Lupe.

Was ist ein Quantencomputer? – Ein wenig Theorie

Ein Quantencomputer ist eine Rechenmaschine, die Information nicht wie ein klassischer Computer mithilfe von Bits codiert und verarbeitet, sondern anhand von sogenannten Quantenbits (kurz: Qubits). Während ein klassisches Bit eine Informationseinheit darstellt, die die Werte 0 oder 1 annehmen kann und die innerhalb eines Computers durch elektrische Signale realisiert wird (vereinfacht: 1 = Strom an, 0 = Strom aus), liegt die Information  eines Qubits in Form eines quantenmechanischen Zustandes vor. Dieser quantenmechanische Zustand kann nun im Gegensatz zum klassischen Bit eine sogenannte Überlagerung der Grundzustände |0\rangle oder |1\rangle beschreiben, was sich mathematisch durch eine gewichtete Summe a_0 |0\rangle + a_1 |1 \rangle der Grundzustände ausdrücken lässt. Die Parameter a_0 und a_1, die die Gewichtung der Grundzustände beschreiben, sind dabei sogenannte komplexe Zahlen, die der zusätzlichen Randbedingung |a_0|^2+|a_1|^2 = 1 genügen. Möchte man den Quantenzustand eines Qubits nun auslesen, so besagt die bornsche Regel der Quantenmechanik, dass man mit der Wahrscheinlichkeit |a_0|^2 den Grundzustand |0\rangle und mit der Wahrscheinlichkeit  |a_1|^2 den Grundzustand |1\rangle  beobachtet. Bei einer Messung liest man also dieselbe Menge an Information aus wie bei einem klassischen Bit, nämlich entweder 0 oder 1 (bzw. in Quantenschreibweise |0\rangle oder |1\rangle). Der fundamentale Unterschied besteht jedoch darin, dass man das Resultat der Messung eines Qubit nicht mit Sicherheit, sondern nur mit einer gewissen Wahrscheinlichkeit vorhersagen kann. 

Werden beim gewöhnlichen Computer mehrere Bits zu größeren Informationseinheiten wie Bytes (=8 Bit) und Kilobytes zusammengesetzt, so baut man auch mehrere Qubits zu größeren Einheiten zusammen, den sogenannten Quantenregistern. Während ein Byte eine von 2^8 möglichen Kombinationen aus Nullen und Einsen codieren kann, ist ein Quantenregister aus 8 Qubits unseren früheren Beobachtungen entsprechend dazu in der Lage, eine Überlagerung aller 2^8 Kombinationen zu codieren, von denen jede mit einer gewissen Wahrscheinlichkeit gemessen wird. An dieser Stelle stellt sich der Leser*in möglicherweise die berechtigte Frage, inwiefern ein Quantencomputer denn nun einen Vorteil gegenüber einem klassischen Computer bietet, wo man doch bei gleicher Größe nur dieselbe Menge an Information auslesen kann. Der entscheidende Unterschied besteht allerdings darin, dass  mit einem Quantenregister Berechnungen mit allen möglichen vorliegenden Kombinationen gleichzeitig ausgeführt werden können, solange eine Messung noch nicht erfolgt ist. Da jedoch am Ende der Berechnung nur ein Ergebnis ausgegeben werden kann, hängt die Antwort auf die Frage, ob ein Quantencomputer ein gegebenes Problem (theoretisch) schneller lösen kann als ein klassischer Computer, davon ab, ob ein geeigneter Quantenalgorithmus zur Verfügung steht. Dieser Quantenalgorithmus muss dafür sorgen, dass die korrekte Lösung des Problems mit höherer Wahrscheinlichkeit gemessen wird als inkorrekte Lösungsvorschläge. Durch vielfache Wiederholung der Berechnung kann man die korrekte Lösung als den Lösungsvorschlag identifizieren, der am öftesten ausgegeben wird.

Quantencomputer ungleich Supercomputer 

Aufgrund des Kollapses des Quantenzustandes bei der Messung ist es daher falsch, einen Quantencomputer als ultraschnellen Supercomputer darzustellen, der beliebige Rechnungen gleichzeitig, statt wie ein klassischen Computer nacheinander, ausführen kann. Die Geschwindigkeitsvorteile eines Quantencomputers sind vielmehr zweckgerichtet und können nur bei Problemstellungen erzielt werden, für die ein passender Quantenalgorithmus vorliegt. Das wohl berühmteste Beispiel eines solchen Quantenalgorithmus ist der 1994 von Peter Shor entwickelte und nach ihm benannte Shor-Algorithmus zur Faktorisierung natürlicher Zahlen. Mithilfe des Shor-Algorithmus kann ein Quantencomputer eine große Zahl bedeutend schneller in ihre Grundbestandteile, die sogenannten Primfaktoren, zerlegen als dies für einen klassischen Computer gleicher Größe mit den besten bekannten klassischen Algorithmen zur Zeit der Fall ist. Der Shor-Algorithmus ist deswegen von besonderer Relevanz, da ein Großteil der heutzutage eingesetzten Verschlüsselungstechnologie auf der Tatsache beruht, dass große Zahlen durch einen Computer eben nicht schnell in Einzelteile zerlegt werden können. Sollte ein genügend großer Quantencomputer Realität werden, so würde dies eine komplette Umwälzung der Verschlüsselungstechnologie nach sich ziehen: viele der heutigen Verschlüsselungsverfahren wären nicht länger sicher. Deshalb wird bereits heute in der Postquantenkryptographie sehr aktiv an der Entwicklung neuer Verschlüsselungstechniken geforscht, die auch vor der Entschlüsselung durch Quantencomputer sicher sind.

Welche Anwendungen erhofft man sich?

 Bereits heute werden sogenannte Quantentechnologien der ersten Generation, auf denen unter anderem Mikrochips, das Breitbandinternet und Laser basieren, ausgiebig genutzt. An sich sind marktreife Quantentechnologien also keinesfalls etwas gänzlich neues.

Potentielle Anwendungen des Quantencomputings als Quantentechnologie zweiter Generation sehen Expert*innen vor allem auf dem Gebiet der Quantensimulation, also bei der Simulation von Strukturen wie Atomen oder Molekülen, die selbst den Gesetzen der Quantenphysik gehorchen. Solche Simulationen sind in vielen Wissenschaften wie der Biologie oder in der Physik wichtig. Eine industrielle Nutzung erhofft man sich insbesondere bei der Suche nach neuen Medikamenten und Chemikalien sowie in den Materialwissenschaften. Auch in der Finanzwirtschaft, dem maschinellen Lernen und der Meteorologie werden mögliche Anwendungen erforscht. Allerdings ist hier weitaus weniger deutlich, inwiefern Quantencomputer signifikante Verbesserungen gegenüber klassischen Computern erbringen könnten. 

Back to reality – die praktische Umsetzung

Bisher haben wir uns vor allem mit der Theorie des Quantencomputings und seinen potentiellen Anwendungen auseinander gesetzt. Viele Herausforderungen des Quantencomputings liegen allerdings in der Praxis und der Frage, wie man Qubits am sinnvollsten physisch realisiert. Ein besonders großes Problem ist dabei, dass ein Quantenzustand nicht nur durch gewollte Messungen, sondern auch durch Interaktionen der Qubits mit ihrer Umgebung kollabieren kann. Quantenregister müssen dementsprechend in einem Vakuum sehr gut von dieser abgeschirmt werden. Zusätzlich benötigt man geeignete Korrekturmechanismen (die sogenannte Quantenfehlerkorrektur), um den Verlust von Information durch den Kollaps von Quantenzuständen zu vermeiden. Für die Ausführung der Quantenfehlerkorrektur sind allerdings zahlreiche zusätzliche Qubits vonnöten. Außerdem erfordern die meisten Arten physischer Qubits eine Betriebstemperatur nahe dem absoluten Nullpunkt (-273°C), und damit anspruchsvolle und teure Kühltechnologie. Trotz all dieser Anforderungen sind bei der praktischen Realisierung von Quantencomputern in den letzten Jahren große Fortschritte erzielt worden. Der in Ehningen von IBM und der Fraunhofer Gesellschaft betriebene Quantencomputer verfügt über eine Rechenleistung von 27 Qubits und gilt damit als der leistungsstärkste im industriellen Betrieb in Europa. Generell liegt die maximale Rechenleistung, die durch Prototypen verschiedener Entwickler wie IBM, Google oder Honeywell erreicht wird, aktuell (Juli 2021) zwischen 50 und 75 Qubits. Zu erwähnen ist außerdem das kanadische Unternehmen D-Wave, welches beeindruckende 5600 Qubits realisiert, allerdings in einem Quantencomputer, dessen Funktionalität von der Hardwarearchitektur vorgegeben ist und der damit nicht frei programmiert werden kann. Damit ist der Vergleich mit den frei programmierbaren Prototypen der Konkurrenz also nicht ganz treffend. Obwohl Quantencomputer, die die Grenze von 50 Qubits überschreiten einige speziell dazu ersonnene Aufgaben deutlich schneller als die leistungsstärksten klassischen Supercomputer lösen können, gehen Expert*innen davon aus, dass Quantenregister mit über einer Million Qubits nötig sein werden, um einen praktischen Nutzen aus der Technologie ziehen zu können. 

(Don’t) believe the hype?

Trotz der beeindruckenden Fortschritte die Forschungsabteilungen in Unternehmen, Universitäten und Forschungseinrichtungen auf dem Gebiet des Quantencomputings erzielt haben, stellt sich also die Frage, ob eine Qubitzahl im Millionenbereich in naher oder mittelfristiger Zukunft realistisch erreicht werden kann. Wie bei solcher Grundlagenforschung üblich, kann darauf heute niemand eine definitive Antwort geben. Zur praktischen Umsetzung physischer Qubits gibt es allerdings eine Vielzahl konkurrierender Ansätze von supraleitenden Qubits wie IBM sie nutzt, über Ionenfallen bis hin zu spekulativeren Techniken wie dem topologischen Quantencomputing, welche alle mit eigenen Vor- und Nachteilen einhergehen. Eine tolle Übersicht (in englischer Sprache) über die verschiedenen Qubittypen und welche Anbieter welchen Ansatz verfolgen, findet man auf dem Blog von Sabine Hossenfelder. Ob eine der zur Zeit untersuchten Techniken die bestehenden Skalierbarkeitsprobleme lösen und Quantencomputer praktisch rentabel machen wird, oder ob Quantencomputing den Weg der Kernfusion als ewig vielversprechende Technologie gehen wird, werden nur weitere Jahre der Forschung zeigen können.