Quantencomputer 2026 — was wir wirklich wissen, was nicht und warum es wichtig ist
Worum geht es in diesem Artikel – und warum es sich zu lesen lohnt
Im Dezember 2024 kündigte Google an, dass ihr Quantenprozessor Willow eine Berechnung in fünf Minuten durchführte, für die der schnellste klassische Supercomputer Milliarden von Jahren benötigen würde[1]. Die Schlagzeilen gingen um die Welt. Politiker sprachen von einem „Quantenrennen". Die Börse reagierte. Aber was ist wirklich passiert – und was sagen diese Schlagzeilen nicht?
Dieser Artikel ist kein weiterer Begeisterungssturm über die „Quantenrevolution". Es ist auch kein Manifest des Skeptikers. Es ist ein Versuch, zuverlässig darüber zu berichten, wo wir wirklich stehen – auf der Grundlage von begutachteten wissenschaftlichen Publikationen, offiziellen Roadmaps der Hersteller und überprüften Daten. Ohne Vereinfachungen, aber in einer Sprache, die für jeden verständlich ist, der bereit ist, eine halbe Stunde aufzuwenden, um eine der wichtigsten Technologien des 21. Jahrhunderts zu verstehen.
Um zu verstehen, wo wir wirklich mit Quantencomputern stehen, müssen wir einen Schritt zurückgehen. Nicht zu den Schlagzeilen, sondern zur Physik. Denn ein Quantencomputer ist kein schnellerer Computer – er ist ein fundamentalisch anderer Weg der Informationsverarbeitung. Und dieser Unterschied ist gleichzeitig die Quelle enormer Potenziale und enormer Schwierigkeiten.
Bit versus Qubit – der Unterschied, der alles verändert
Ein klassischer Computer arbeitet mit Bits – jedes Bit ist entweder 0 oder 1. Acht Bits bilden ein Byte, Milliarden Bytes bilden den Speicher deines Telefons. Die gesamte Kraft der modernen Informatik – von künstlicher Intelligenz bis zum Video-Streaming – basiert auf der Manipulation gigantischer Ketten von Nullen und Einsen, ein Bit nach dem anderen.
Ein Quantencomputer nutzt Qubits, die dank des Phänomens der Superposition sich in beiden Zuständen gleichzeitig befinden können. Das ist nicht dasselbe wie „ist gleichzeitig Null und Eins" – diese Vereinfachung ist irreführend. Superposition bedeutet, dass ein Qubit eine gewisse Wahrscheinlichkeit hat, Null zu sein, und eine gewisse Wahrscheinlichkeit, Eins zu sein, und wir erfahren das Ergebnis erst beim Messen. Es ist ein bisschen wie eine ehrliche Münze in der Luft – solange sie nicht auf den Tisch fällt, ist sie weder Kopf noch Zahl, aber hat 50 % Chance auf jedem.
Aber das ist erst der Anfang. Qubits können verschränkt (entangled) werden – was bedeutet, dass der Zustand eines Qubits sofort mit dem Zustand des anderen korreliert ist, unabhängig von der Entfernung zwischen ihnen. Miss eines – und du weißt sofort etwas über das andere, auch wenn Lichtjahre sie trennen.
Einstein nannte das 1935 „spukhafte Fernwirkung" (spooky action at a distance). Zusammen mit den Physikern Boris Podolsky und Nathan Rosen veröffentlichte er den berühmten EPR-Artikel in Physical Review[8], in dem er argumentierte, dass Verschränkung zeigt, dass die Quantenmechanik unvollständig ist – dass es verborgene Variablen geben muss, die diese Korrelationen ohne „Spuk" erklären. Er starb 1955, ohne die Kopenhagener Interpretation akzeptiert zu haben – und experimentelle Bestätigung der Realität der Verschränkung (Tests der Bell-Ungleichungen) kam erst in den 70ern und 80ern. 2022 erhielten Alain Aspect, John Clauser und Anton Zeilinger für diese Experimente den Nobelpreis für Physik.
Diese beiden Eigenschaften – Superposition und Verschränkung – ermöglichen es einem Quantencomputer, eine astronomische Anzahl von Möglichkeiten gleichzeitig zu erkunden. Stell dir ein Labyrinth mit einer Milliarde Wege vor. Ein klassischer Computer prüft sie nacheinander. Ein Quantencomputer – mit einem angemessen konstruierten Algorithmus – kann die Wahrscheinlichkeiten so manipulieren, dass Wege, die nirgendwo hinführen, sich gegenseitig „auslöschen" (ein Phänomen namens Quanteninterferenz), und der Weg zum Ausgang wird immer wahrscheinlicher. Das ist nicht Magie – das ist Physik. Aber der Effizienzunterschied kann kolossal sein.
Das klingt vielversprechend. Das Problem ist, dass Qubits unvorstellbar zart sind.
Dekohärenz – warum Qubits so zerbrechlich sind
Ein Qubit ist keine Abstraktion in einer PowerPoint-Präsentation – es ist ein echtes physisches Objekt. Es könnte ein supraleitendes Schaltkreis sein, der auf etwa 15–50 Millikelvin gekühlt wird – dutzende Male kälter als der Weltraum (der etwa 2,7 Kelvin hat, also −270°C). Es könnte ein eingesperrtes Ion sein, das im Vakuum durch elektromagnetische Felder gehalten wird. Oder ein einzelnes Photon, das durch eine Glasfaser geleitet wird. Jede dieser Realisierungen hat dasselbe fundamentale Problem: Dekohärenz.
Dekohärenz ist der Verlust von Quanteninformation durch die Wechselwirkung eines Qubits mit seiner Umgebung. Jeder Kontakt mit der Außenwelt – Vibration eines benachbarten Atoms, umherwanderndes elektromagnetisches Feld, zufälliges Brechen eines Cooper-Paares im Supraleiter, sogar Kosmische Strahlung, die durch Laborwände dringt – bewirkt, dass das Qubit seinen Quantenzustand „vergisst" und zu einem gewöhnlichen, klassischen Bit wird. Dieser Prozess ist unumkehrbar und unvermeidlich.
Um sich das Ausmaß des Problems zu verdeutlichen: Nach Messungen, die in npj Quantum Information veröffentlicht wurden[2], behält ein typischer supraleitender Transmon-Qubit – das Grundelement der Prozessoren von Google und IBM – die Kohärenz (Zeit T1) etwa 49 Mikrosekunden bei, und die Dephasing-Zeit (T2*) beträgt etwa 95 Mikrosekunden. Das ist weniger als ein Augenzwinkern. Und in diesem Zeitfenster muss das Qubit tausende logischer Operationen ausführen, von denen jede etwa 20–50 Nanosekunden dauert. Die Fehlerspanne ist minimal.
Was noch schlimmer ist, diese Werte sind nicht konstant – sie schwanken mit der Zeit, was eine ständige Neukalibrierung der Ausrüstung erfordert[2]. Es ist, als würde sich ein präzises Musikinstrument alle paar Sekunden verstimmen.
Es gibt Qubits mit längerer Kohärenz. Qubits basierend auf eingesperrten Ionen (trapped ions) – verwendet von Unternehmen wie IonQ und Quantinuum – behalten den Quantenzustand Minuten oder sogar länger. Aber ihre logischen Operationen dauern Mikrosekunden statt Nanosekunden – etwa tausendmal langsamer. Es ist wie die Wahl zwischen einem Sprinter, der nur 10 Sekunden rennen kann, und einem Marathonläufer, der sich in Schneckentempo bewegt. Jeder Ansatz hat seinen Preis, und keiner gibt uns heute das, was wir brauchen, um eine Maschine zu bauen, die echte Probleme lösen kann.
Quantenfehlerkorrektur – ein Problem, das man nicht umgehen kann
Da Qubits so instabil sind, brauchen wir einen Weg, um Fehler im laufenden Betrieb zu korrigieren – so wie klassische Computer seit Jahrzehnten Fehler im RAM oder bei der Datenübertragung korrigieren. In der klassischen Welt ist das einfach: du kopierst das Bit dreimal und prüfst nach der „Mehrheitsstimmregel". Wenn zwei von drei Bits sagen „1", dann war das Original eine Eins.
Aber in der Quantenmechanik kann man ein Qubit nicht kopieren. Dies wird durch das sogenannte No-Cloning-Theorem verboten (no-cloning theorem), bewiesen von Wootters und Żurek 1982[9]. Das ist keine ingenieurtechnische Einschränkung, die wir irgendwann überwinden werden – es ist ein grundlegendes Gesetz der Physik, eine Folge der Linearität der Quantenmechanik. Man kann es nicht umgehen, wie man nicht schneller als das Licht reisen kann.
Die Lösung existiert, aber sie ist kostspielig: Anstatt das Qubit zu kopieren, kodieren wir ein logisches Qubit (das, auf dem wir rechnen wollen) in viele physische Qubits (die, die tatsächlich im Prozessor existieren). Die Quanteninformation wird auf viele Qubits so verteilt, dass ein Fehler auf einem einzelnen physischen Qubit erkannt und korrigiert werden kann, ohne den logischen Zustand zu zerstören.
Das beliebteste Schema – der Surface Code – erfordert dutzende bis hunderte physische Qubits pro logisches Qubit, je nach erforderlichem Schutzniveau. Je größer die „Code-Distanz" (Parameter d), desto besser der Schutz – aber desto mehr physische Qubits braucht man. Für einen Code mit Distanz 7 braucht man 72 physische Qubits für eines logisch. Für eine Distanz von 17, die für ernsthafte Berechnungen nötig wäre – hunderte.
Aber es gibt eine notwendige Bedingung, damit das überhaupt funktioniert: die Fehlerrate der physischen Qubits muss unter einem bestimmten Schwellenwert liegen. Wenn die physischen Qubits zu viele Fehler machen, hilft das Hinzufügen weiterer Qubits zum Code nicht – es macht die Sache sogar schlimmer, denn jedes zusätzliche Qubit ist eine zusätzliche Fehlerquelle. Diese Schwelle nach unten zu senken – sodass das Vergrößern des Codes tatsächlich die logischen Fehler reduziert – ist einer der Schlüsselmeilensteine in der Geschichte des Quantencomputers.
Und hier kommen wir zu einer der wichtigsten Leistungen der letzten Jahre.
Dezember 2024: Google Willow und der Durchbruch bei der Fehlerkorrektur
Der Prozessor Willow, entworfen vom Google Quantum AI-Team in Santa Barbara, enthält 105 supraleitende Qubits. Im Dezember 2024 baute das Team auf ihm Surface-Code-Codes mit Distanzen 3, 5 und 7 – also mit zunehmendem Schutzniveau – und demonstrierte etwas, auf das die Physiker-Community seit Jahren wartet[1].
Erstens: Die Fehlerkorrektur-Schwelle wurde überschritten. Das Erhöhen der Anzahl physischer Qubits im Code (von Distanz 3 zu 5, dann zu 7) reduzierte tatsächlich die logische Fehlerrate, anstatt sie zu erhöhen. Die Unterdrückungsrate betrug 2,14x bei jeder Steigerung der Code-Distanz um 2[1]. Das ist das erste Mal, dass ein Surface Code sich auf echter Hardware so verhielt wie von der Theorie vorhergesagt, nicht nur in der Simulation.
Zweitens: das logische Qubit mit Distanz 7 (bestehend aus 72 physischen Qubits und 29 Hilfs-Qubits) überlebte 2,4 Mal länger als das beste einzelne physische Qubit im Prozessor[1]. Mit anderen Worten – die Kodierung von Information in vielen Qubits brachte nicht nur keinen Nachteil, sondern einen echten Vorteil. Dies wird „die Breakeven-Schwelle überschreiten" genannt.
Drittens: Das System lief stabil über eine Million Fehlerkorrektur-Zyklen, mit Fehler-Dekodierung in Echtzeit[1].
Der Artikel mit diesen Ergebnissen erschien am 27. Februar 2025 in Nature (Band 638, S. 920–926)[1].
Das ist ein Durchbruch – aber ein Durchbruch, den man im Kontext verstehen muss. Es wurde gezeigt, dass Fehlerkorrektur im Prinzip funktioniert. Aber ein Code mit Distanz 7 ist erst der Anfang. Brauchbare Quantenberechnungen würden eine Distanz von 17 oder höher erfordern, was tausende physische Qubits für dutzende logische bedeutet. Von „funktioniert im Labor" zu „löst echte Probleme" ist noch ein langer Weg. Niemand versteckt das – einschließlich Google selbst.
Wo wir wirklich sind – eine Roadmap bis 2033
Es lohnt sich, darauf zu schauen, was die größten Unternehmen selbst über ihre Pläne sagen – denn diese Prognosen sind viel vorsichtiger als die Medien-Schlagzeilen. Unternehmen haben einen Anreiz, vor Investoren gut auszusehen, also wenn sogar ihre offiziellen Roadmaps vorsichtig sind – das sagt viel über das echte Ausmaß der Herausforderungen aus.
IBM hat die detaillierteste, öffentlich verfügbare Roadmap[10]. Für 2026 planen sie den Prozessor Kookaburra (1 386 physische Qubits), der eine logische Verarbeitungseinheit mit Quantenspeicher verbindet. Das Ziel für 2026 ist die Demonstration von 12 logischen Qubits aus 244 physischen. Ihre ehrgeizigere Maschine, Starling (200 logische Qubits), ist für 2028 geplant. Drei Kookaburra-Module, verbunden durch Quanten-Links, ergeben ein System mit 4 158 physischen Qubits. Ein vollwertiger, fehlertoleranter Quantencomputer, der Probleme lösen kann, die „für klassische Maschinen unmöglich sind" – das ist in IBMs Vision der Horizont von 2033[10].
Es lohnt sich zu erwähnen: IBM baute 2023 den Demonstrationsprozessor Condor mit 1 121 Qubits – aber das war eine technische Demonstration (Qubit-Packungsdichte), keine Produktionsmaschine. Die Prozessoren, die IBM Kunden tatsächlich für Berechnungen anbietet (Heron-Serie), haben 156 Qubits[10].
Google plant nach dem Erfolg von Willow (105 Qubits) den Bau eines Quantencomputers mit einer Million physischen Qubits – gibt aber kein konkretes Datum an[11]. Ihr nächstes Ziel ist die Demonstration eines „praktischen Quantenvorteil" – eine Berechnung, die reale Anwendung hat und die ein klassischer Computer nicht in angemessener Zeit durchführen kann.
Microsoft präsentierte im Februar 2025 den Chip Majorana 1, der angeblich 8 topologische Qubits enthalten soll – theoretisch widerstandsfähiger gegen Dekohärenz als supraleitende oder ionische Qubits. Aber Microsofts Behauptungen trafen auf ernsthaften Skeptizismus in der wissenschaftlichen Gemeinschaft. Physiker, die in Nature[14] und Science[13] zitiert wurden, stellten in Frage, ob die gezeigten Qubits überhaupt als topologische Qubits funktionieren, und gegen die Schlüsselpublikation, die dieser Ansatz unterstützt, wurden Vorwürfe der Datenmanipulation erhoben. Das ist das früheste Entwicklungsstadium aller Ansätze – und das umstrittenste.
Microsoft und Atom Computing (ein separates Projekt von Majorana) bauen zusammen die Maschine Magne, basierend auf neutralen Atomen, mit 50 logischen Qubits (etwa 1 200 physische), geplant für Anfang 2027[12]. Das wäre einer der ersten Quantencomputer mit genug logischen Qubits für einfache, aber echte Berechnungen.
Man sieht hier ein klares Muster: Unternehmen sprechen von dutzenden logischen Qubits in einer Perspektive von 2–3 Jahren und hunderten in einer Perspektive von 5–8 Jahren. Nicht von tausenden, nicht von Millionen. Wer behauptet, dass ein Quantencomputer „gleich die Welt verändern wird" – versteht entweder nicht die Größenordnung des Problems oder versucht dir etwas zu verkaufen.
Was Quantencomputer heute können – und was nicht
Was sie nicht können
Sie werden dein Passwort nicht knacken. Sie werden deinen Laptop nicht ersetzen. Sie werden das Surfen im Internet nicht beschleunigen, Filme nicht streamen und keine Aufgabe nicht ausführen, die klassische Computer gut machen. Das ist ein Schlüsselmissverständnis: ein Quantencomputer ist keine schnellere Version eines klassischen Computers. Es ist eine Maschine, die für eine ganz andere Klasse von Problemen entwickelt wurde – solche, bei denen die mathematische Struktur einen „Quantenabkürzung" durch Interferenz und Verschränkung ermöglicht.
Für die überwiegende Mehrheit alltäglicher Aufgaben – Textbearbeitung, Datenbanken, Computerspiele, maschinelles Lernen – sind klassische Computer und bleiben das bessere Werkzeug. Ein Quantencomputer wird die GPU beim Training von Neuronalen Netzen nicht ersetzen. Er wird dein Excel nicht beschleunigen. Selbst wenn er auf deinem Schreibtisch stände (was es nicht wird, denn er braucht einen Kryostat in der Größe eines Autos), hättest du keine Verwendung dafür.
Die Sache mit der „Quantenüberlegenheit" – und warum der Begriff problematisch ist
2019 kündigte Google „Quantenüberlegenheit" an – ihr Prozessor Sycamore (53 Qubits) führte in 200 Sekunden eine speziell konstruierte Aufgabe durch (zufällige Stichprobenentnahme von Quantenschaltkreisen), die Google zufolge den schnellsten Supercomputer 10 000 Jahre kosten würde. Der Artikel erschien in Nature[15].
IBM bestritt sofort diese These, behauptend, dass der Supercomputer Summit die Aufgabe in 2,5 Tagen bewältigen könnte – was zwar immer noch viel langsamer ist als 200 Sekunden, aber weit entfernt von „10 000 Jahren". Und 2023 führte ein Team der USTC (Universität für Wissenschaft und Technologie China) die gleiche Aufgabe in 14 Sekunden durch – unter Verwendung von 1 400 NVIDIA A100 Grafikprozessoren. Außerdem wurde geschätzt, dass der Supercomputer Frontier mit vollem Speicher das in nur 1,6 Sekunden erledigen würde[16].
Googles These zur Überlegenheit wurde angefochten. Das bedeutet nicht, dass der Quantenvorteil ein Mythos ist – aber es zeigt, dass die Grenze zwischen „möglich klassisch" und „unmöglich klassisch" fließend ist und sich in beide Richtungen verschiebt. Klassische Algorithmen und Hardware entwickeln sich auch weiter. Und der Begriff „Überlegenheit" erzeugt mehr Kontroversen als Klarheit – daher bevorzugen viele Wissenschaftler den neutraleren Begriff „Quantenvorteil" (quantum advantage).
Wo die ersten echten Anwendungen sichtbar sind
Molekülsimulation und Wirkstoffforschung. Hier haben Quantencomputer einen natürlichen Vorteil – denn Moleküle sind selbst Quanten. Chemische Bindungen, Elektronenwechselwirkungen, Energiezustände – dies alles wird durch Quantenmechanik beschrieben. Klassische Computer müssen dies approximieren (da exakte Simulation Ressourcen erfordert, die exponentiell mit der Molekülgröße wachsen). Ein Quantencomputer könnte dies nativ simulieren.
Ein Team der University of Toronto und des Unternehmens Insilico Medicine nutzte einen hybriden Ansatz (Quantenalgorithmen + klassisch) um Inhibitoren des KRAS-Proteins vorzuschlagen – das früher als „unzielbar" in der Krebstherapie galt. Fünfzehn Verbindungen wurden im Labor synthetisiert, zwei zeigten biologische Aktivität. Die Ergebnisse wurden 2024 in Nature Biotechnology veröffentlicht[5].
Aber man muss genau sein: in diesen Studien spielte die Quantenkomponente eine ergänzende Rolle – sie verbesserte lokale elektronische Beschreibungen an Stellen, wo Quanteneffekte für Molekülbindung entscheidend sind. Die schwere Arbeit – das Durchsuchen des chemischen Raums, molekulares Docking, Ranking von Kandidaten – führten immer noch klassische Algorithmen durch. Es wurde noch keine eindeutige Quantenvorteil gegenüber den besten klassischen Methoden in der Wirkstoffforschung nachgewiesen. Pharmaunternehmen (Boehringer Ingelheim, Roche, AstraZeneca) führen Projekte mit Google Quantum AI und anderen durch – aber in Forschungsstadien, nicht in der Produktion[5].
Optimierung und Logistik. Algorithmen wie QAOA (Quantum Approximate Optimization Algorithm) könnten theoretisch bei Problemen wie Zeitplanung, Routing oder Portfolio-Optimierung helfen. In der Praxis sind heutige Quantenmaschinen zu verrauscht, um bessere Ergebnisse als die besten klassischen Heuristiken zu liefern. Das Unternehmen D-Wave bietet „Quantenoptimizer" (quantum annealers) mit über 5 000 Qubits an – aber das ist eine andere Klasse von Maschinen als universelle Quantencomputer, und ihr Vorteil gegenüber klassischen Solvern wird angefochten.
Bedrohung der Kryptografie – wann sollte man sich Sorgen machen?
Das ist eine Frage, die wirklich Emotionen weckt – und zu Recht. Der Shor-Algorithmus, veröffentlicht vom Mathematiker Peter Shor 1994, ermöglicht einem Quantencomputer, große Zahlen in Primfaktoren exponentiell schneller zu zerlegen als jeder bekannte klassische Algorithmus. Faktorisierung ist das Fundament der Sicherheit von RSA – dem Verschlüsselungssystem, das deine Bankentransaktionen, E-Mails, medizinische Daten und praktisch die gesamte Internet-Sicherheitsinfrastruktur schützt.
RSA-2048 (ein 2048-Bit-Schlüssel, derzeit Standard) basiert auf der Tatsache, dass ein klassischer Computer Milliarden von Jahren brauchen würde, um eine so große Zahl in Faktoren zu zerlegen. Ein Quantencomputer mit Shor-Algorithmus könnte das in Stunden schaffen – wenn er genug zuverlässige Qubits hätte.
Wie viele Qubits sind nötig? Die Schätzungen haben sich drastisch geändert:
- 2015: etwa eine Milliarde Qubits (Schätzung unter Berücksichtigung der damaligen Fehlerrate)
- 2019: 20 Millionen verrauschte Qubits und 8 Stunden Berechnung[3]
- Mai 2025: weniger als eine Million verrauschte Qubits und eine Woche Berechnung[4]
Der Rückgang ist dramatisch – aber immer noch weit entfernt von den heutigen Möglichkeiten. Die besten universellen Quantenprozessoren haben heute 100–200 Qubits (Google Willow: 105, IBM Heron: 156). IBM baute den Demonstrations-Chip Condor mit 1 121 Qubits, aber das ist keine Produktionsmaschine[10]. Die Kluft zwischen hunderten und einer Million Qubits – und das sind Qubits, die viel besser sein müssen als die heutigen – bleibt gigantisch.
Wann wird RSA also bedroht? Niemand weiß genau. Aber NIST (das amerikanische Nationale Institut für Standards und Technologie) entschied, dass es nicht sinnvoll ist, auf die Antwort zu warten. Im August 2024 veröffentlichte es drei fertige Standards für Post-Quanten-Kryptografie: ML-KEM (Verschlüsselung), ML-DSA (digitale Signaturen) und SLH-DSA (Signaturen basierend auf Hashfunktionen)[6]. Im März 2025 wählte es einen fünften Algorithmus – HQC – als Reservemechanismus für Verschlüsselung[7]. Die Migration zu neuen Standards hat bereits begonnen – die IETF (Internet Engineering Task Force) integriert post-quantale Algorithmen in das TLS-Protokoll, das HTTPS-Verbindungen sichert.
Das ist ein vernünftiger Ansatz – und es lohnt sich zu verstehen warum. Daten, die heute verschlüsselt sind, können abgefangen und gespeichert werden, um in einem Jahrzehnt entschlüsselt zu werden, wenn Quantencomputer ausgereift sind. Dieses Szenario – bekannt als „harvest now, decrypt later"-Angriff – betrifft besonders Daten mit langer Empfindlichkeitsdauer: Staatsgeheimnisse, medizinische Dokumentation, geistiges Eigentum. Organisationen, die solche Daten speichern, sollten die Migration zu Post-Quanten-Kryptografie nicht als fernen Plan betrachten, sondern als aktuelle Aufgabe.
Vier Wege zum Quantencomputer
Einer der weniger beachteten, aber faszinierenden Aspekte dieser Branche ist, wie unterschiedlich die Ansätze zum Bau eines Quantencomputers sind. Das ist kein Rennen auf einer Bahn – es sind mehrere parallele Expeditionen ins Unbekannte, von denen jede andere Stärken, Grenzen und Risikoprofile hat.
Supraleitende Qubits (Google, IBM)
Die schnellsten logischen Operationen (20–50 Nanosekunden), aber kurze Kohärenz (50–100 Mikrosekunden)[2] und Notwendigkeit der Kühlung nahe des absoluten Nullpunkts in einem Kryostat für Millionen Dollar. Dominieren heute in Bezug auf Qubit-Anzahl und Reife des Ökosystems der Werkzeuge. Darauf wurden Willow und Heron gebaut. Ihre größte Schwäche: keine zwei Qubits sind identisch, und die Parameter jedes Qubits ändern sich mit der Zeit, was eine ständige Neukalibrierung erfordert[2].
Gefangene Ionen (IonQ, Quantinuum)
Längste Kohärenz (Sekunden bis Minuten) und höchste Gate-Treue (über 99,9%) – denn Atome eines Elements sind von Natur aus identisch. Aber logische Operationen dauern Mikrosekunden (1000x langsamer als Supraleiter) und die Skalierung über dutzende Qubits hinaus erfordert komplexe Ion-Trap-Architekturen. 2025 wurden skalierbare Fallen mit über 200 Ionen und neue Techniken für parallele Gate-Ausführung demonstriert – aber es ist noch weit bis zu hunderten logischen Qubits.
Neutrale Atome (QuEra, Pasqal, Atom Computing)
Eine vielversprechende Plattform der neuen Generation mit natürlicher Skalierbarkeit – Atome, die von optischen Pinzetten (Laserstrahlen) gehalten werden, können in zwei- und dreidimensionalen Gittern zu hunderten, sogar tausenden angeordnet werden. IEEE Spectrum nannte 2026 das „Big Leap" Jahr für diese Technologie[12]. Atom Computing demonstrierte 2023 ein System mit über 1 000 Qubits – aber die Gate-Qualität bleibt niedriger als bei Ionen. Das ist die Plattform, auf der Microsoft und Atom Computing die Maschine Magne bauen.
Topologische Qubits (Microsoft)
Theoretisch am widerstandsfähigsten gegen Fehler, weil die Quanteninformation in der Topologie des Systems verteilt ist, nicht in einem einzelnen Objekt lokalisiert. Der Chip Majorana 1 (Februar 2025) sollte der erste Schritt sein – aber die wissenschaftliche Gemeinschaft stellt in Frage, ob tatsächlich funktionierende topologische Qubits demonstriert wurden. Physiker, die in Nature[14] und Science[13] zitiert wurden, stellten ernsthafte Einwände auf, und gegen die Schlüsselpublikation, die dieser Ansatz stützt, wurden Vorwürfe der Datenmanipulation erhoben. Der ambitionierteste und unsicherste Ansatz von allen – möglicherweise bahnbrechend, wenn es klappt, aber grundlegende wissenschaftliche Fragen bleiben offen.
Keiner dieser Ansätze hat gewonnen. Es ist möglich, dass der „Gewinner" noch nicht existiert – oder dass die Zukunft Hybriden gehört, die verschiedene Technologien in verschiedenen Rechenphasen kombinieren.
Was folgt daraus – Fragen, die es sich zu stellen lohnt
Ein Quantencomputer ist kein schnellerer Prozessor. Es ist eine neue Art zu denken über Berechnungen – inspiriert von Physik auf der einfachsten, tiefsten Ebene der Realität. Und genau deshalb ist diese Technologie gleichzeitig so aufregend und so schwierig.
Heute befinden wir uns ungefähr dort, wo klassische Computer in den 1950er Jahren waren: Wir wissen, dass das funktioniert; wir wissen, dass es Potenzial hat; wir wissen noch nicht genau, was wir damit machen werden. Der Transistor wurde 1947 erfunden. Das Internet entstand vier Jahrzehnte später. Niemand 1947 hätte Amazon, Spotify vorausgesagt oder dass wir in unseren Taschen Computer tragen würden, die eine Million Mal stärker sind als diejenigen, die Menschen zum Mond schickten.
Vielleicht lohnt es sich, sich selbst nicht zu fragen „wann wird ein Quantencomputer mein Passwort knacken", sondern „welche Probleme – heute als unlösbar angesehen – werden lösbar, wenn diese Technologie ausgereift ist?". Neue Materialien, die den Klimawandel stoppen könnten. Medikamente, die Atom für Atom entworfen werden, maßgeschneidert für einen bestimmten Patienten. Physikalische Modelle, die uns Phänomene verstehen lassen, die wir heute nicht einmal simulieren können.
Oder etwas, das noch niemand gedacht hat – denn das war immer so, wenn eine wirklich neue Technologie entstand.
Quantencomputer sind nicht gleich um die Ecke. Aber sie sind auch keine Science Fiction. Sie sind etwas viel Interessanteres – eine offene Frage an der Grenze von Physik, Mathematik und Ingenieurwesen. Und offene Fragen, wie die Geschichte der Wissenschaft lehrt, haben mehr Potenzial als fertige Antworten.
Quellen
- Google Quantum AI & Collaborators, „Quantum error correction below the surface code threshold", Nature 638, 920–926 (2025). nature.com
- Schlör S. et al., „Decoherence benchmarking of superconducting qubits", npj Quantum Information 5, 54 (2019). nature.com
- Gidney C., Ekerå M., „How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits", arXiv:1905.09749 (2019). arxiv.org
- Gidney C., Ekerå M., „How to factor 2048 bit RSA integers with less than a million noisy qubits", arXiv:2505.15917 (2025). arxiv.org
- Liao H. et al., „Quantum-computing-enhanced algorithm unveils potential KRAS inhibitors", Nature Biotechnology (2024). nature.com
- NIST, „Post-Quantum Cryptography Standardization" — ML-KEM (FIPS 203), ML-DSA (FIPS 204), SLH-DSA (FIPS 205), August 2024. nist.gov
- NIST, „NIST Selects HQC as Fifth Algorithm for Post-Quantum Encryption", März 2025. nist.gov
- Einstein A., Podolsky B., Rosen N., „Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?", Physical Review 47, 777 (1935).
- Wootters W. K., Żurek W. H., „A Single Quantum Cannot Be Cloned", Nature 299, 802–803 (1982).
- IBM Quantum, offizielle Roadmap (2025). ibm.com
- Google Quantum AI, Roadmap. quantumai.google
- „Neutral Atom Quantum Computing: 2026's Big Leap", IEEE Spectrum (2026). ieee.org
- „Debate erupts around Microsoft's blockbuster quantum computing claims", Science (2025). science.org
- „Microsoft claims quantum-computing breakthrough — but some physicists are sceptical", Nature (2025). nature.com
- Arute F. et al., „Quantum supremacy using a programmable superconducting processor", Nature 574, 505–510 (2019). nature.com
- „Ordinary computers can beat Google's quantum computer after all", Science (2023). science.org
