Komputery kwantowe w 2026 — co naprawdę wiemy, czego nie wiemy i dlaczego to ma znaczenie
Nauka i technologia 31 marca 2026 19 min

Komputery kwantowe w 2026 — co naprawdę wiemy, czego nie wiemy i dlaczego to ma znaczenie

O czym jest ten artykuł — i dlaczego warto go przeczytać

W grudniu 2024 roku Google ogłosił, że ich procesor kwantowy Willow wykonał w pięć minut obliczenie, na które najszybszy klasyczny superkomputer potrzebowałby miliardów lat[1]. Nagłówki obiegły świat. Politycy mówili o „wyścigu kwantowym". Giełda reagowała. Ale co tak naprawdę się stało — i czego te nagłówki nie mówią?

Ten artykuł nie jest kolejnym zachwytem nad „rewolucją kwantową". Nie jest też manifestem sceptyka. Jest próbą rzetelnego opowiedzenia o tym, gdzie naprawdę jesteśmy — na podstawie recenzowanych publikacji naukowych, oficjalnych map drogowych producentów i sprawdzonych danych. Bez uproszczeń, ale w języku zrozumiałym dla każdego, kto jest gotów poświęcić pół godziny na zrozumienie jednej z najważniejszych technologii XXI wieku.

Żeby zrozumieć, gdzie naprawdę jesteśmy z komputerami kwantowymi, trzeba cofnąć się o krok. Nie do nagłówków, ale do fizyki. Bo komputer kwantowy to nie szybszy komputer — to fundamentalnie inny sposób przetwarzania informacji. I ta różnica jest jednocześnie źródłem ogromnego potencjału i ogromnych trudności.

Bit kontra kubit — różnica, która zmienia wszystko

Klasyczny komputer operuje na bitach — każdy bit to 0 albo 1. Osiem bitów tworzy bajt, miliardy bajtów tworzą pamięć Twojego telefonu. Cała potęga współczesnej informatyki — od sztucznej inteligencji po streaming wideo — opiera się na manipulowaniu gigantycznymi ciągami zer i jedynek, jeden bit na raz.

Komputer kwantowy używa kubitów, które dzięki zjawisku superpozycji mogą znajdować się w obu stanach jednocześnie. To nie to samo co „jest jednocześnie zerem i jedynką" — takie uproszczenie jest mylące. Superpozycja oznacza, że kubit ma pewne prawdopodobieństwo bycia zerem i pewne prawdopodobieństwo bycia jedynką, a wynik poznajemy dopiero w momencie pomiaru. To trochę jak uczciwa moneta w powietrzu — dopóki nie spadnie na stół, nie jest ani orłem, ani reszką, ale ma 50% szans na każde.

Ale to dopiero początek. Kubity mogą być ze sobą splątane (entangled) — co oznacza, że stan jednego kubitu jest natychmiast skorelowany ze stanem drugiego, niezależnie od odległości między nimi. Zmierz jeden — i natychmiast wiesz coś o drugim, nawet jeśli dzielą je lata świetlne.

Einstein w 1935 roku nazwał to „upiornym działaniem na odległość" (spooky action at a distance). Wraz z fizykami Borisem Podolskym i Nathanem Rosenem opublikował słynny artykuł EPR w Physical Review[8], w którym argumentował, że splątanie dowodzi niekompletności mechaniki kwantowej — że muszą istnieć ukryte zmienne, które wyjaśniają te korelacje bez „upiorności". Zmarł w 1955 roku, nie zaakceptowawszy interpretacji kopenhaskiej — a eksperymentalne potwierdzenie realności splątania (testy nierówności Bella) nadeszło dopiero w latach 70. i 80. W 2022 roku Alain Aspect, John Clauser i Anton Zeilinger otrzymali za te eksperymenty Nagrodę Nobla z fizyki.

Te dwie właściwości — superpozycja i splątanie — pozwalają komputerowi kwantowemu eksplorować astronomiczną liczbę możliwości równocześnie. Wyobraź sobie labirynt z miliardem ścieżek. Klasyczny komputer sprawdza je jedną po drugiej. Komputer kwantowy — dzięki odpowiednio skonstruowanemu algorytmowi — może tak manipulować prawdopodobieństwami, że ścieżki prowadzące donikąd „wygaszają się" nawzajem (zjawisko zwane interferencją kwantową), a ścieżka do wyjścia staje się coraz bardziej prawdopodobna. To nie magia — to fizyka. Ale różnica w wydajności bywa kolosalna.

Brzmi obiecująco. Problem w tym, że kubity są niewyobrażalnie delikatne.

Dekoherencja — dlaczego kubity są tak kruche

Kubit to nie abstrakcja w prezentacji PowerPoint — to realny obiekt fizyczny. Może to być nadprzewodzący obwód elektryczny chłodzony do temperatury ok. 15–50 milikelwinów — dziesiątki razy zimniejszej niż przestrzeń kosmiczna (która ma ok. 2,7 kelwina, czyli −270°C). Może to być uwięziony jon utrzymywany w próżni przez pola elektromagnetyczne. Albo pojedynczy foton poprowadzony przez światłowód. Każda z tych realizacji ma ten sam fundamentalny problem: dekoherencję.

Dekoherencja to utrata informacji kwantowej przez interakcję kubitu z otoczeniem. Każdy kontakt ze światem zewnętrznym — drganie sąsiedniego atomu, błądzące pole elektromagnetyczne, przypadkowe rozerwanie pary Coopera w nadprzewodniku, nawet promieniowanie kosmiczne przenikające przez ściany laboratorium — powoduje, że kubit „zapomina" swój stan kwantowy i staje się zwykłym, klasycznym bitem. Proces ten jest nieodwracalny i nieunikniony.

Żeby uzmysłowić sobie skalę problemu: według pomiarów opublikowanych w npj Quantum Information[2], typowy nadprzewodzący kubit transmonowy — podstawowy element procesorów Google i IBM — utrzymuje koherencję (czas T1) przez około 49 mikrosekund, a czas dephazingu (T2*) wynosi ok. 95 mikrosekund. To mniej niż jedno mrugnięcie oka. A w tym okienku czasowym kubit musi zdążyć wykonać tysiące operacji logicznych, z których każda trwa ok. 20–50 nanosekund. Margines błędu jest minimalny.

Co gorsza, te wartości nie są stałe — fluktuują w czasie, co wymaga ciągłej rekalibracji sprzętu[2]. To jakby precyzyjny instrument muzyczny rozstrajał się co kilka sekund.

Istnieją kubity o dłuższej koherencji. Kubity oparte na uwięzionych jonach (trapped ions) — stosowane przez firmy IonQ i Quantinuum — utrzymują stan kwantowy przez minuty, a nawet dłużej. Ale ich operacje logiczne trwają mikrosekundy zamiast nanosekund — czyli są ok. tysiąc razy wolniejsze. To jak wybór między sprinterem, który może biegać tylko przez 10 sekund, a maratończykiem, który porusza się w żółwim tempie. Każde podejście ma swoją cenę i żadne z nich nie daje nam dziś tego, czego potrzebujemy do budowy maszyny zdolnej rozwiązywać realne problemy.

Korekcja błędów kwantowych — problem, którego nie da się obejść

Skoro kubity są tak niestabilne, potrzebujemy sposobu na naprawianie błędów w locie — tak jak klasyczne komputery od dekad naprawiają błędy w pamięci RAM czy przy przesyłaniu danych. W klasycznym świecie to proste: kopiujesz bit trzy razy i sprawdzasz metodą „głosowania większościowego". Jeśli dwa z trzech bitów mówią „1", to oryginał był jedynką.

Ale w mechanice kwantowej nie można skopiować kubitu. Zabrania tego tak zwane twierdzenie o zakazie klonowania (no-cloning theorem), udowodnione przez Woottersa i Żurka w 1982 roku[9]. To nie ograniczenie inżynieryjne, które kiedyś przezwyciężymy — to fundamentalne prawo fizyki, konsekwencja liniowości mechaniki kwantowej. Nie da się go obejść tak jak nie da się podróżować szybciej niż światło.

Rozwiązanie istnieje, ale jest kosztowne: zamiast kopiować kubit, kodujemy jeden kubit logiczny (ten, na którym chcemy wykonywać obliczenia) w wielu kubitach fizycznych (tych, które faktycznie istnieją w procesorze). Informacja kwantowa jest rozproszona na wiele kubitów w taki sposób, że błąd na pojedynczym kubicie fizycznym można wykryć i naprawić, nie niszcząc stanu logicznego.

Najpopularniejszy schemat — surface code — wymaga od kilkunastu do kilkuset kubitów fizycznych na jeden kubit logiczny, w zależności od wymaganego poziomu ochrony. Im większa „odległość kodu" (parametr d), tym lepsza ochrona — ale tym więcej kubitów fizycznych potrzeba. Dla kodu o dystansie 7 potrzeba 72 kubitów fizycznych na jeden logiczny. Dla dystansu 17, który byłby potrzebny do poważnych obliczeń — setki.

Ale jest warunek konieczny, żeby to w ogóle działało: częstość błędów fizycznych musi być poniżej pewnego progu. Jeśli kubity fizyczne robią za dużo błędów, dodawanie kolejnych kubitów do kodu nie pomaga — wręcz pogarsza sytuację, bo każdy dodatkowy kubit to dodatkowe źródło szumu. Przekroczenie tego progu „w dół" — tak by zwiększanie kodu rzeczywiście zmniejszało błędy logiczne — to jeden z kluczowych kamieni milowych w historii obliczeń kwantowych.

I tu dochodzimy do jednego z najważniejszych osiągnięć ostatnich lat.

Grudzień 2024: Google Willow i przełom w korekcji błędów

Procesor Willow, zaprojektowany przez zespół Google Quantum AI w Santa Barbara, zawiera 105 kubitów nadprzewodzących. W grudniu 2024 roku zespół zbudował na nim kody surface code o dystansach 3, 5 i 7 — czyli o rosnącym poziomie ochrony — i zademonstrował coś, na co środowisko fizyków czekało od lat[1].

Po pierwsze: przekroczono próg korekcji błędów. Zwiększenie liczby kubitów fizycznych w kodzie (przejście z dystansu 3 na 5, potem na 7) faktycznie zmniejszyło częstość błędów logicznych, zamiast ją zwiększać. Współczynnik tłumienia wyniósł 2,14x przy każdym zwiększeniu dystansu kodu o 2[1]. To pierwszy raz, gdy surface code zachował się zgodnie z teorią na fizycznym sprzęcie, a nie tylko w symulacji.

Po drugie: kubit logiczny o dystansie 7 (złożony z 72 kubitów fizycznych i 29 kubitów pomocniczych) przetrwał 2,4 razy dłużej niż najlepszy pojedynczy kubit fizyczny w procesorze[1]. Innymi słowy — kodowanie informacji w wielu kubitach nie tylko nie pogorszyło sytuacji, ale dało realną korzyść. To tak zwane „pokonanie progu breakeven".

Po trzecie: system działał stabilnie przez ponad milion cykli korekcji błędów, z dekodowaniem błędów w czasie rzeczywistym[1].

Artykuł opisujący te wyniki ukazał się w Nature 27 lutego 2025 roku (tom 638, str. 920–926)[1].

To przełom — ale przełom, który trzeba rozumieć w kontekście. Wykazano, że korekcja błędów działa w zasadzie. Ale kod o dystansie 7 to dopiero początek. Użyteczne obliczenia kwantowe wymagałyby dystansu 17 lub wyższego, co oznacza tysiące kubitów fizycznych na kilkadziesiąt logicznych. Od „działa w laboratorium" do „rozwiązuje realne problemy" jest jeszcze daleka droga. Nikt tego nie ukrywa — w tym sam Google.

Gdzie jesteśmy naprawdę — mapa drogowa do 2033

Warto spojrzeć na to, co największe firmy same mówią o swoich planach — bo te prognozy są znacznie ostrożniejsze niż nagłówki mediów. Firmy mają motywację, żeby wyglądać dobrze przed inwestorami, więc jeśli nawet ich oficjalne mapy drogowe są ostrożne — to wiele mówi o rzeczywistej skali wyzwań.

IBM ma najbardziej szczegółową, publicznie dostępną mapę drogową[10]. Na 2026 rok planują procesor Kookaburra (1 386 kubitów fizycznych), łączący jednostkę przetwarzania logicznego z pamięcią kwantową. Celem na 2026 jest zademonstrowanie 12 kubitów logicznych z 244 fizycznych. Ich ambitniejsza maszyna, Starling (200 kubitów logicznych), jest planowana na 2028. Trzy moduły Kookaburra połączone kwantowymi linkami dadzą system 4 158 kubitów fizycznych. Pełnowartościowy, odporny na błędy komputer kwantowy zdolny do rozwiązywania problemów „niemożliwych dla klasycznych maszyn" — to w wizji IBM horyzont 2033 roku[10].

Warto dodać: IBM zbudował w 2023 roku demonstracyjny procesor Condor z 1 121 kubitami — ale była to demonstracja inżynieryjna (gęstość upakowania kubitów), nie maszyna produkcyjna. Procesory, które IBM faktycznie oferuje klientom do obliczeń (seria Heron), mają 156 kubitów[10].

Google po sukcesie Willow (105 kubitów) ma na swojej mapie drogowej budowę komputera kwantowego z milionem kubitów fizycznych — ale bez podania konkretnej daty[11]. Ich kolejny cel to zademonstrowanie „użytecznej przewagi kwantowej" — obliczenia, które ma realne zastosowanie i którego klasyczny komputer nie może wykonać w rozsądnym czasie.

Microsoft w lutym 2025 zaprezentował chip Majorana 1, który ma zawierać 8 topologicznych kubitów — teoretycznie odporniejszych na dekoherencję niż kubity nadprzewodzące czy jonowe. Ale twierdzenia Microsoftu spotkały się z poważnym sceptycyzmem środowiska naukowego. Fizycy cytowani w Nature[14] i Science[13] zakwestionowali, czy zaprezentowane kubity w ogóle działają jako kubity topologiczne, a wobec danych z kluczowej publikacji stanowiącej fundament tego podejścia podniesiono zarzuty manipulacji. To najwcześniejsze stadium rozwoju spośród wszystkich podejść — i najbardziej kontrowersyjne.

Microsoft i Atom Computing (osobny projekt od Majorana) wspólnie budują maszynę Magne, opartą na neutralnych atomach, z 50 kubitami logicznymi (ok. 1 200 fizycznych), planowaną na początek 2027[12]. To byłby jeden z pierwszych komputerów kwantowych z wystarczającą liczbą kubitów logicznych do prostych, ale realnych obliczeń.

Widać tu wyraźny wzorzec: firmy mówią o dziesiątkach kubitów logicznych w perspektywie 2–3 lat i setkach w perspektywie 5–8 lat. Nie o tysiącach, nie o milionach. Ktokolwiek twierdzi, że komputer kwantowy „zaraz zmieni świat" — albo nie rozumie skali problemu, albo próbuje Ci coś sprzedać.

Co komputery kwantowe potrafią dziś — a czego nie

Czego nie potrafią

Nie złamią Twojego hasła. Nie zastąpią Twojego laptopa. Nie przyspieszą przeglądania internetu, streamingu filmów ani żadnego zadania, które klasyczne komputery robią dobrze. To kluczowe nieporozumienie: komputer kwantowy nie jest szybszą wersją klasycznego komputera. Jest maszyną zaprojektowaną do zupełnie innej klasy problemów — takich, w których struktura matematyczna pozwala na „kwantowy skrót" przez interferencję i splątanie.

Dla zdecydowanej większości codziennych zadań — edycja tekstu, bazy danych, gry komputerowe, uczenie maszynowe — klasyczne komputery są i pozostaną lepszym narzędziem. Komputer kwantowy nie zastąpi GPU w trenowaniu sieci neuronowych. Nie przyspieszy Twojego Excela. Nawet gdyby stał na Twoim biurku (czego nie będzie, bo wymaga kriostatu wielkości samochodu), nie miałbyś dla niego zastosowania.

Sprawa „kwantowej supremacji" — i dlaczego termin jest problematyczny

W 2019 roku Google ogłosił „kwantową supremację" — ich procesor Sycamore (53 kubity) wykonał w 200 sekund specjalnie skonstruowane zadanie (losowe próbkowanie obwodów kwantowych), które według Google'a zajęłoby najszybszemu superkomputerowi 10 000 lat. Artykuł ukazał się w Nature[15].

IBM natychmiast zakwestionował tę tezę, twierdząc że superkomputer Summit poradziłby sobie z tym zadaniem w 2,5 dnia — co wprawdzie wciąż jest dużo wolniej niż 200 sekund, ale daleko od „10 000 lat". A w 2023 roku zespół z USTC (Uniwersytet Nauki i Technologii Chin) wykonał to samo zadanie w 14 sekund — używając 1 400 procesorów graficznych NVIDIA A100. Co więcej, oszacowano, że superkomputer Frontier z pełną pamięcią zrobiłby to w zaledwie 1,6 sekundy[16].

Teza Google'a o supremacji została podważona. To nie znaczy, że przewaga kwantowa jest mitem — ale pokazuje, że granica między „możliwe klasycznie" a „niemożliwe klasycznie" jest płynna i przesuwa się w obie strony. Klasyczne algorytmy i sprzęt też się rozwijają. A termin „supremacja" budzi więcej kontrowersji niż jasności — dlatego wielu naukowców preferuje neutralniejsze określenie „przewaga kwantowa" (quantum advantage).

Gdzie widać pierwsze realne zastosowania

Symulacja molekuł i odkrywanie leków. Tutaj komputery kwantowe mają naturalną przewagę — bo molekuły same są kwantowe. Wiązania chemiczne, interakcje elektronów, stany energetyczne — to wszystko opisuje mechanika kwantowa. Klasyczne komputery muszą to aproksymować (bo dokładna symulacja wymaga zasobów rosnących wykładniczo z rozmiarem molekuły). Komputer kwantowy mógłby symulować to natywnie.

Zespół z University of Toronto i firmy Insilico Medicine użył hybrydowego podejścia (algorytmy kwantowe + klasyczne) do zaproponowania inhibitorów białka KRAS — uznawanego wcześniej za „niecelowalne" w terapii nowotworów. Piętnaście związków zsyntetyzowano w laboratorium, dwa wykazały aktywność biologiczną. Wyniki opublikowano w Nature Biotechnology w 2024 roku[5].

Ale trzeba być precyzyjnym: w tych badaniach komponent kwantowy pełnił rolę uzupełniającą — udoskonalał lokalne opisy elektronowe w miejscach, gdzie efekty kwantowe są krytyczne dla wiązania cząsteczek. Ciężką pracę — przeszukiwanie przestrzeni chemicznej, docking molekularny, ranking kandydatów — nadal wykonywały klasyczne algorytmy. Nie wykazano jeszcze jednoznacznej przewagi kwantowej nad najlepszymi metodami klasycznymi w odkrywaniu leków. Firmy farmaceutyczne (Boehringer Ingelheim, Roche, AstraZeneca) prowadzą projekty z Google Quantum AI i innymi — ale na etapie badawczym, nie produkcyjnym[5].

Optymalizacja i logistyka. Algorytmy takie jak QAOA (Quantum Approximate Optimization Algorithm) teoretycznie mogą pomagać w problemach harmonogramowania, routingu czy optymalizacji portfeli inwestycyjnych. W praktyce dzisiejsze maszyny kwantowe są zbyt zaszumione, by dawać lepsze wyniki niż najlepsze klasyczne heurystyki. Firma D-Wave oferuje „optymalizatory kwantowe" (quantum annealers) z ponad 5 000 kubitami — ale to inna klasa maszyn niż uniwersalne komputery kwantowe, a ich przewaga nad klasycznymi solverami jest kwestionowana.

Zagrożenie dla kryptografii — kiedy się martwić?

To pytanie, które naprawdę budzi emocje — i słusznie. Algorytm Shora, opublikowany przez matematyka Petera Shora w 1994 roku, pozwala komputerowi kwantowemu rozkładać duże liczby na czynniki pierwsze wykładniczo szybciej niż jakikolwiek znany algorytm klasyczny. Rozkład na czynniki to fundament bezpieczeństwa RSA — systemu szyfrowania, który chroni Twoje transakcje bankowe, e-maile, dane medyczne i praktycznie całą infrastrukturę internetowego bezpieczeństwa.

RSA-2048 (klucz o długości 2048 bitów, obecnie standard) opiera się na fakcie, że klasyczny komputer potrzebowałby miliardów lat, żeby rozłożyć tak dużą liczbę na czynniki. Komputer kwantowy z algorytmem Shora mógłby to zrobić w godzinach — gdyby miał wystarczająco dużo niezawodnych kubitów.

Ile kubitów potrzeba? Szacunki zmieniały się drastycznie:

  • 2015: ok. miliarda kubitów (szacunek uwzględniający ówczesną częstość błędów)
  • 2019: 20 milionów zaszumionych kubitów i 8 godzin obliczeń[3]
  • Maj 2025: poniżej miliona zaszumionych kubitów i tydzień obliczeń[4]

Spadek jest dramatyczny — ale wciąż daleko od obecnych możliwości. Najlepsze uniwersalne procesory kwantowe mają dziś 100–200 kubitów (Google Willow: 105, IBM Heron: 156). IBM zbudował demonstracyjny chip Condor z 1 121 kubitami, ale nie jest to maszyna produkcyjna[10]. Przepaść między setkami a milionem kubitów — i to kubitów znacznie lepszych niż dzisiejsze — pozostaje ogromna.

Kiedy więc RSA stanie się zagrożone? Nikt nie wie dokładnie. Ale NIST (amerykański Narodowy Instytut Standardów i Technologii) uznał, że nie warto czekać na odpowiedź. W sierpniu 2024 opublikował trzy gotowe standardy kryptografii postkwantowej: ML-KEM (szyfrowanie), ML-DSA (podpisy cyfrowe) i SLH-DSA (podpisy oparte na funkcjach haszujących)[6]. W marcu 2025 wybrał piąty algorytm — HQC — jako zapasowy mechanizm szyfrowania[7]. Migracja do nowych standardów już się zaczęła — IETF (Internet Engineering Task Force) włącza algorytmy postkwantowe do protokołu TLS, który zabezpiecza połączenia HTTPS.

To rozsądne podejście — i warto zrozumieć dlaczego. Dane zaszyfrowane dzisiaj mogą być przechwycone i przechowane, a odszyfrowane za dekadę, gdy komputery kwantowe dojrzeją. Ten scenariusz — znany jako atak „harvest now, decrypt later" — dotyczy szczególnie danych o długim okresie wrażliwości: tajemnice państwowe, dokumentacja medyczna, własność intelektualna. Organizacje przechowujące takie dane powinny traktować migrację do kryptografii postkwantowej nie jako odległy plan, ale jako bieżące zadanie.

Cztery drogi do komputera kwantowego

Jednym z mniej nagłaśnianych, ale fascynujących aspektów tej dziedziny jest to, jak różne są podejścia do budowy komputera kwantowego. To nie wyścig na jednym torze — to kilka równoległych ekspedycji w nieznane, z których każda ma inne zalety, ograniczenia i profil ryzyka.

Kubity nadprzewodzące (Google, IBM)

Najszybsze operacje logiczne (20–50 nanosekund), ale krótka koherencja (50–100 mikrosekund)[2] i konieczność chłodzenia do blisko zera absolutnego w kriostatie za miliony dolarów. Dominują dziś pod względem liczby kubitów i dojrzałości ekosystemu narzędziowego. To na nich zbudowano Willow i Heron. Ich największa słabość: żadne dwa kubity nie są identyczne, a parametry każdego kubitu zmieniają się w czasie, co wymaga ciągłej rekalibracji[2].

Uwięzione jony (IonQ, Quantinuum)

Najdłuższa koherencja (sekundy do minut) i najwyższa wierność bramek (ponad 99,9%) — bo atomy danego pierwiastka są identyczne z natury. Ale operacje logiczne trwają mikrosekundy (1000x wolniej niż nadprzewodniki) i skalowanie powyżej kilkudziesięciu kubitów wymaga złożonych architektur pułapek jonowych. W 2025 roku zademonstrowano skalowalne pułapki na ponad 200 jonów i nowe techniki równoległego wykonywania bramek — ale do setek kubitów logicznych jeszcze daleko.

Neutralne atomy (QuEra, Pasqal, Atom Computing)

Obiecująca platforma nowej generacji z naturalną skalowalnością — atomy utrzymywane pęsetami optycznymi (wiązkami laserowymi) mogą być ustawiane w dwu- i trójwymiarowych sieciach po setki, a nawet tysiące. IEEE Spectrum nazwał 2026 rokiem „wielkiego skoku" dla tej technologii[12]. Atom Computing zademonstrował system z ponad 1 000 kubitów już w 2023 roku — choć jakość bramek pozostaje niższa niż w jonach. To na tej platformie Microsoft i Atom Computing budują maszynę Magne.

Kubity topologiczne (Microsoft)

Teoretycznie najodporniejsze na błędy dzięki temu, że informacja kwantowa jest rozproszona w topologii systemu, a nie zlokalizowana w pojedynczym obiekcie. Chip Majorana 1 (luty 2025) miał być pierwszym krokiem — ale środowisko naukowe kwestionuje, czy rzeczywiście zademonstrowano działające kubity topologiczne. Fizycy cytowani w Nature[14] i Science[13] podnieśli poważne zastrzeżenia, a wobec kluczowej publikacji padły zarzuty manipulacji danymi. Podejście najbardziej ambitne i najbardziej niepewne ze wszystkich — potencjalnie przełomowe, jeśli się uda, ale fundamentalne pytania naukowe pozostają otwarte.

Żadne z tych podejść nie wygrało. Możliwe, że „zwycięzca" jeszcze nie istnieje — albo że przyszłość należy do hybryd łączących różne technologie na różnych etapach obliczeń.

Co z tego wynika — pytania, które warto sobie zadać

Komputer kwantowy to nie szybszy procesor. To nowy sposób myślenia o obliczeniach — inspirowany fizyką na najprostszym, najgłębszym poziomie rzeczywistości. I właśnie dlatego ta technologia jest jednocześnie tak ekscytująca i tak trudna.

Dziś jesteśmy mniej więcej tam, gdzie klasyczne komputery były w latach 50. XX wieku: wiemy, że to działa; wiemy, że ma potencjał; nie wiemy jeszcze, co dokładnie z nim zrobimy. Tranzystor został wynaleziony w 1947 roku. Internet powstał cztery dekady później. Nikt w 1947 nie przewidział Amazona, Spotify ani tego, że będziemy nosić w kieszeni komputery milion razy potężniejsze niż te, które wysłały ludzi na Księżyc.

Może warto zadać sobie pytanie nie „kiedy komputer kwantowy złamie moje hasło", ale „jakie problemy — dziś uznawane za nierozwiązywalne — staną się rozwiązywalne, gdy ta technologia dojrzeje?". Nowe materiały, które mogą zatrzymać zmiany klimatu. Leki projektowane atom po atomie, dopasowane do konkretnego pacjenta. Modele fizyczne, które pozwolą nam zrozumieć zjawiska, których dziś nawet nie umiemy zasymulować.

Albo coś, o czym jeszcze nikt nie pomyślał — bo tak było zawsze, gdy powstawała naprawdę nowa technologia.

Komputery kwantowe nie są tuż za rogiem. Ale nie są też science fiction. Są czymś znacznie ciekawszym — otwartym pytaniem na granicy fizyki, matematyki i inżynierii. A otwarte pytania, jak uczy historia nauki, mają w sobie więcej potencjału niż gotowe odpowiedzi.

Źródła

  1. Google Quantum AI & Collaborators, „Quantum error correction below the surface code threshold", Nature 638, 920–926 (2025). nature.com
  2. Schlör S. et al., „Decoherence benchmarking of superconducting qubits", npj Quantum Information 5, 54 (2019). nature.com
  3. Gidney C., Ekerå M., „How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits", arXiv:1905.09749 (2019). arxiv.org
  4. Gidney C., Ekerå M., „How to factor 2048 bit RSA integers with less than a million noisy qubits", arXiv:2505.15917 (2025). arxiv.org
  5. Liao H. et al., „Quantum-computing-enhanced algorithm unveils potential KRAS inhibitors", Nature Biotechnology (2024). nature.com
  6. NIST, „Post-Quantum Cryptography Standardization" — ML-KEM (FIPS 203), ML-DSA (FIPS 204), SLH-DSA (FIPS 205), sierpień 2024. nist.gov
  7. NIST, „NIST Selects HQC as Fifth Algorithm for Post-Quantum Encryption", marzec 2025. nist.gov
  8. Einstein A., Podolsky B., Rosen N., „Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?", Physical Review 47, 777 (1935).
  9. Wootters W. K., Żurek W. H., „A Single Quantum Cannot Be Cloned", Nature 299, 802–803 (1982).
  10. IBM Quantum, oficjalna mapa drogowa (2025). ibm.com
  11. Google Quantum AI, mapa drogowa. quantumai.google
  12. „Neutral Atom Quantum Computing: 2026's Big Leap", IEEE Spectrum (2026). ieee.org
  13. „Debate erupts around Microsoft's blockbuster quantum computing claims", Science (2025). science.org
  14. „Microsoft claims quantum-computing breakthrough — but some physicists are sceptical", Nature (2025). nature.com
  15. Arute F. et al., „Quantum supremacy using a programmable superconducting processor", Nature 574, 505–510 (2019). nature.com
  16. „Ordinary computers can beat Google's quantum computer after all", Science (2023). science.org
Komputery kwantowe w 2026 — co naprawdę wiemy, czego nie wiemy i dlaczego to ma znaczenie — PageForYou.pl