Vereinfacht ausgedrückt bezeichnet „Quantencomputing“ die Anwendung von Quantenmechanik (auch bekannt als „Quantenphysik“) – die Beschreibung von Dingen auf atomarer und subatomarer Ebene – mit dem Ziel, die Rechenleistung und -geschwindigkeit von Computern drastisch zu erhöhen.
Warum ist Quantencomputing wichtig?
Für Berechnungen, für die ein normaler Computer buchstäblich Millionen von Jahren bräuchte, braucht ein Quantencomputer nur ein paar Sekunden. Der Hauptnutzen von Quantencomputing liegt also in der Beschleunigung von Rechenprozessen. Mit anderen Worten: Es macht die normale Datenverarbeitung wesentlich leistungsstärker. Die Anwendungsmöglichkeiten für eine schnellere Datenverarbeitung sind vielfältig und reichen von einer besseren Cybersicherheit bis hin zu deutlich verbesserten Kundenerfahrungen und allem anderen, was eine hohe Rechenleistung erfordert, um schnell ein bestimmtes Ergebnis oder eine Antwort zu erhalten.
Quantencomputing ist auch für das Potenzial des maschinellen Lernens und der künstlichen Intelligenz von größter Bedeutung. Da Quantencomputer endlose Szenarien in einem unglaublich schnellen Tempo durchlaufen können, haben sie das Potenzial, zu lernen, wie sie zu den bestmöglich geeigneten Versionen von sich selbst für die ihnen zugewiesene zentrale Mission oder Aufgabe werden können.
Wie funktionieren Quantencomputer?
Während klassische Computer Transistoren verwenden, die entweder 1 oder 0 sind, um Informationen zu verarbeiten, verwenden Quantencomputer Qubits, die gleichzeitig 1 und 0 sein können. Durch das Verknüpfen mehrerer Transistoren wird die Leistung nur linear gesteigert, aber durch das Verknüpfen von Qubits wird die Leistung von Quantencomputern exponentiell gesteigert. Darin besteht die Leistungsfähigkeit eines Qubits, der Grundeinheit der Quanteninformation, die entscheidend für die Funktionsweise von Quantencomputern ist.
Am besten kann man sich den Wert des Quantencomputing und seiner Funktionsweise vor Augen führen, wenn man sich eine Münze vorstellt. Jede Münze hat zwei Seiten oder Werte: Kopf oder Zahl. Wenn eine Münze aber geworfen wird, verbringt sie einige Zeit in der Luft und dreht sich, sodass immer einer der beiden Werte (Kopf und Zahl) oben ist. Ein normaler Computer kann nur Kopf oder Zahl lesen und kann daher nichts mit den Informationen anfangen, die die Münze liefert, während sie sich in der Luft dreht. Ein Quantencomputer kann diesen sich drehenden Zustand jedoch als einen Wert an sich lesen, bei dem die Münze gleichzeitig Kopf und Zahl ist.
Das ist von großer Bedeutung. Stellen Sie sich z. B. eine vierstellige PIN vor, die nur Einsen und Nullen enthält. Um diese PIN zu ermitteln, muss ein normaler Computer, da er nur Einsen und Nullen lesen kann, alle Möglichkeiten für jeden der vier Zahlenplätze (d. h. 1 oder 0) durchgehen, um Möglichkeiten auszuschließen und schließlich die richtige Zahl zu finden. Aber ein Quantencomputer kann, da er Einsen und Nullen gleichzeitig berücksichtigen kann, alle Möglichkeiten auf einmal durchspielen.
Grenzen und Herausforderungen des Quantencomputing
In den fast 40 Jahren, seit der Physiker Richard Feynman zum ersten Mal die Idee des Quantencomputing vorschlug, haben Computerwissenschaftler enorme Fortschritte bei der Klärung der Frage gemacht, für welche Probleme sich das Quantencomputing eignen würde. Es ist jedoch noch ein weiter Weg, bis das Quantencomputing so weit verstanden und entwickelt ist, dass es tatsächlich für die oben genannten Anwendungsfälle der Cybersicherheit und des maschinellen Lernens eingesetzt werden kann.
Und selbst für einfachere Dinge wie Schachspielen, Flugplanung und das Beweisen von Theoremen würden Quantencomputer – zumindest in ihrem derzeitigen Zustand – vielen der gleichen algorithmischen Einschränkungen unterliegen wie klassische Computer.
Diese Einschränkungen kommen zu den praktischen Schwierigkeiten beim Bau von Quantencomputern hinzu, etwa der Dekohärenz (unerwünschte Wechselwirkung zwischen einem Quantencomputer und seiner Umgebung, die zu Fehlern führt).
Dennoch ist das Quantencomputing zweifellos ein Zukunftsfeld der Informatik – eine Fähigkeit, an derzeit viele der weltweit führenden Informatiker intensiv arbeiten, damit unsere Welt von einem gewaltigen Sprung in der Rechenleistung profitieren kann. Die Frage lautet nicht mehr „Warum?“ oder „Was?“, sondern „Wann?“.