Kvantdatorer 2026 — vad vi verkligen vet, vad vi inte vet och varför det spelar roll
Vad är denna artikel om — och varför är det värt att läsa
I december 2024 tillkännagav Google att deras kvantprocessor Willow utförde på fem minuter en beräkning som den snabbaste klassiska superdatorn skulle behöva miljarder år för[1]. Rubrikerna spreds över världen. Politiker talade om "kvantkapplöpningen". Börsen reagerade. Men vad hände egentligen — och vad säger inte dessa rubriker?
Denna artikel är inte ännu ett beundringsobjekt för "kvantrevolutionen". Det är inte heller ett manifest från en skeptiker. Det är ett försök att ärligt berätta om var vi egentligen är — baserat på granskade vetenskapliga publikationer, officiella färdplaner från tillverkare och verifierad data. Utan förenklingar, men på ett språk som är förståeligt för alla som är beredda att offra en halvtimme på att förstå en av de viktigaste teknikerna på 2000-talet.
För att förstå var vi egentligen är med kvantdatorer måste man ta ett steg tillbaka. Inte till rubrikerna, utan till fysiken. För en kvantdator är inte en snabbare dator — det är ett fundamentalt annat sätt att bearbeta information. Och denna skillnad är samtidigt källan till enormt potential och enorma svårigheter.
Bit kontra qubit — skillnaden som förändrar allt
En klassisk dator arbetar med bitar — varje bit är antingen 0 eller 1. Åtta bitar utgör en byte, miljarder bytes utgör minnet i din telefon. All kraft i modern datavetenskap — från artificiell intelligens till videoströmning — bygger på att manipulera enorma sekvenser av nollor och ettor, en bit i taget.
En kvantdator använder qubits, som tack vare fenomenet superposition kan befinna sig i båda tillstånden samtidigt. Det är inte samma sak som "är både nolla och etta samtidigt" — denna förenkling är vilseledande. Superposition betyder att en qubit har en viss sannolikhet för att vara nolla och en viss sannolikhet för att vara etta, och vi lär oss resultatet först när vi mäter. Det är lite som ett rättvist mynt i luften — tills det landar på bordet är det varken krona eller klave, men det har 50 % chans för varje.
Men det är bara början. Qubits kan vara intrasslade (entangled) — vilket innebär att tillståndet för en qubit omedelbar korreleras med tillståndet för en annan, oavsett avståndet mellan dem. Mät en — och du vet omedelbar något om den andra, även om de är skilda av ljusår.
Einstein kallade detta 1935 för "spöklikt agerande på avstånd" (spooky action at a distance). Tillsammans med fysikerna Boris Podolsky och Nathan Rosen publicerade han den berömda EPR-artikeln i Physical Review[8], där han argumenterade för att intrassling visar att kvantmekaniken är ofullständig — att det måste finnas dolda variabler som förklarar dessa korrelationer utan "spöklik" effekt. Han dog 1955 utan att acceptera Köpenhamns-tolkningen — och experimentell bekräftelse av intrasslingsverklighetrealiteten (Bells ojämlikhetstester) kom först på 1970- och 1980-talen. År 2022 mottog Alain Aspect, John Clauser och Anton Zeilinger Nobelpriset i fysik för dessa experiment.
Dessa två egenskaper — superposition och intrassling — tillåter en kvantdator att utforska ett astronomiskt antal möjligheter samtidigt. Föreställ dig en labyrint med en miljard vägar. En klassisk dator kontrollerar dem en efter en. En kvantdator — med hjälp av en lämpligt konstruerad algoritm — kan manipulera sannolikheterna på så sätt att vägar som leder ingenstans "släcker ut" varandra (ett fenomen kallat kvantinterferens), och vägen till utgången blir allt mer sannolik. Det är inte magi — det är fysik. Men skillnaden i effektivitet kan vara kolossal.
Det låter lovande. Problemet är att qubits är otroligt ömtåliga.
Dekoherens — varför qubits är så ömtåliga
En qubit är inte en abstraktion i en PowerPoint-presentation — det är en verklig fysisk objekt. Det kan vara en överledande elektrisk krets kyld till cirka 15–50 millikelvin — dussintals gånger kallare än yttre rymden (som är cirka 2,7 kelvin, eller −270°C). Det kan vara en fångad jon som hålls i vakuum av elektromagnetiska fält. Eller en enda foton ledd genom en optisk fiber. Var och en av dessa realiseringar har samma grundläggande problem: dekoherens.
Dekoherens är förlusten av kvantinformation genom att en qubit interagerar med omgivningen. Varje kontakt med omvärlden — vibration från en närliggande atom, vilsekomna elektromagnetiska fält, ett slumpmässigt brott av ett Cooperpar i överledaren, även kosmisk strålning som tränga genom laboratoriets väggar — får qubit att "glömma" sitt kvanttillstånd och bli till en vanlig, klassisk bit. Processen är irreversibel och oundviklig.
För att förstå omfattningen av problemet: enligt mätningar publicerade i npj Quantum Information[2], en typisk överledande transmon-qubit — grundelementet i processorer från Google och IBM — upprätthåller koherens (tid T1) i cirka 49 mikrosekunder, och defasningstiden (T2*) är cirka 95 mikrosekunder. Det är mindre än ett ögonblink. Och inom detta tidsfönster måste qubit hinna utföra tusentals logiska operationer, av vilka var och en tar cirka 20–50 nanosekunder. Felmarginalern är minimal.
Värre än så är dessa värden inte konstanta — de fluktuerar över tid, vilket kräver kontinuerlig omkalibrering av utrustningen[2]. Det är som ett precisionsinstrument som ständigt förslappas var några sekunder.
Det finns qubits med längre koherens. Qubits baserade på fångade joner (trapped ions) — använda av företag som IonQ och Quantinuum — upprätthåller kvanttillståndet i minuter eller längre. Men deras logiska operationer tar mikrosekunder istället för nanosekunder — det vill säga de är cirka tusen gånger långsammare. Det är som att välja mellan en sprinter som bara kan springa i 10 sekunder och en maraton löpare som rör sig i snails fart. Båda tillvägagångssätten har sitt pris, och ingen av dem ger oss idag vad vi behöver för att bygga en maskin som kan lösa verkliga problem.
Kvantfelkorrigering — ett problem som inte kan undvikas
Eftersom qubits är så instabila behöver vi ett sätt att korrigera fel under körning — liksom klassiska datorer i decennier har korrigerat fel i RAM-minne eller under dataöverföring. I klassiska världen är det enkelt: du kopierar en bit tre gånger och använder "majoritetsomröstning". Om två av tre bits säger "1" var originalet en etta.
Men i kvantmekaniken kan du inte kopiera en qubit. Det förbjuds av den så kallade no-cloning-satsen (no-cloning theorem), som bevisades av Wootters och Żurek 1982[9]. Det är inte en ingenjörbegränsning som vi någonsin kommer att övervinna — det är en fundamental fysiklag, en följd av kvantemekamikens linjäritet. Det kan inte omgås på samma sätt som man inte kan resa snabbare än ljusets hastighet.
Lösningen finns, men den är kostsam: istället för att kopiera en qubit kodar vi en logisk qubit (den som vi vill utföra beräkningar på) i många fysiska qubits (de som faktiskt finns i processorn). Kvantinformation sprids på flera qubits på ett sådant sätt att ett fel på en enstaka fysisk qubit kan detekteras och repareras utan att det logiska tillståndet förstörs.
Det mest populära schemat — ytkolod (surface code) — kräver från ett dussin till flera hundra fysiska qubits per en logisk qubit, beroende på den skyddsnivå som krävs. Ju större "kodavståndet" (parametern d), desto bättre skydd — men desto fler fysiska qubits behövs. För en kod med avstånd 7 behövs 72 fysiska qubits för en logisk. För avstånd 17, vilket skulle behövas för allvarlig beräkning — hundratals.
Men det finns ett nödvändigt villkor för att det ska fungera överhuvudtaget: frekvensen av fysiska fel måste ligga under en viss tröskel. Om de fysiska qubitsen gör för många fel hjälper det inte att lägga till fler qubits till koden — det gör faktiskt situationen värre, för varje extra qubit är en extra bullerkälla. Att överskrida denna tröskel "nedåt" — så att ökningen av koden faktiskt minskar de logiska felen — är en av de viktigaste milstolparna i historien om kvantberäkning.
Och det är här vi kommer till en av de viktigaste prestatigna på senare år.
December 2024: Google Willow och genombrelett i felkorrigering
Processorn Willow, utformad av Googles kvantteam i Santa Barbara, innehåller 105 överledande qubits. I december 2024 byggde teamet ytkoder med avstånden 3, 5 och 7 — med ökande skyddsnivåer — och visade något som fysiker världen över hade väntat på i åratal[1].
För det första: felkorrigeringströskeln överenskreds. Att öka antalet fysiska qubits i koden (övergång från avstånd 3 till 5, sedan till 7) minskade faktiskt frekvensen av logiska fel istället för att öka den. Dämpningskoefficienten var 2,14x för varje ökning av kodavståndet med 2[1]. Det här var första gången som ytkolod beteende sig enligt teorin på fysisk maskinvara, inte bara i simulering.
För det andra: den logiska qubiten med avstånd 7 (bestående av 72 fysiska qubits och 29 hjälpqubits) räckte 2,4 gånger längre än den bästa enskilda fysiska qubiten i processorn[1]. Med andra ord — att koda information i flera qubits gjorde inte bara situationen inte värre, utan gav en verklig fördel. Det kallas för att "övervinna breakeven-tröskeln".
För det tredje: systemet fungerade stabilt genom mer än en miljon felkorrigeringscykler, med feltolkning i realtid[1].
Artikeln som beskriver dessa resultat publicerades i Nature den 27 februari 2025 (volym 638, sidor 920–926)[1].
Det här är ett genombrott — men ett genombrott som måste förstås i sitt sammanhang. Det visades att felkorrigering fungerar i princip. Men en kod med avstånd 7 är bara början. Användbara kvantberäkningar skulle kräva avstånd 17 eller högre, vilket betyder tusentals fysiska qubits för dussintals logiska. Från "fungerar i laboratoriet" till "löser verkliga problem" är det fortfarande en lång väg. Ingen döljer detta — inte ens Google själv.
Där vi egentligen är — väg fram till 2033
Det är värt att se på vad de största företagen själva säger om sina planer — för dessa prognoser är mycket försiktigare än mediernas rubriker. Företag har motiv att verka bra inför investerare, så om även deras officiella färdplaner är försiktiga — det säger mycket om den verkliga omfattningen av utmaningarna.
IBM har den mest detaljerad, offentligt tillgänglig färdplan[10]. För 2026 planerar de processorn Kookaburra (1 386 fysiska qubits), som kombinerar en logisk processenhet med kvantminne. Målet för 2026 är att visa 12 logiska qubits från 244 fysiska. Deras mer ambitiös maskin, Starling (200 logiska qubits), är planerad för 2028. Tre Kookaburra-moduler anslutna genom kvantkoppliningar ger ett system på 4 158 fysiska qubits. En fullt funktionell, feltolerant kvantdator som kan lösa problem "omöjliga för klassiska maskiner" — detta är enligt IBMs vision horisonten på 2033[10].
Det är värt att lägga till: IBM byggde 2023 processorn Condor som demonstration med 1 121 qubits — men det var en ingenjörsdemonstration (densitet av qubit-packning), inte en produktionmaskin. De processorer IBM faktiskt erbjuder kunder för beräkning (Heron-serien) har 156 qubits[10].
Google har efter Willows framgång en färdplan för att bygga en kvantdator med en miljon fysiska qubits — men utan en specifik deadline[11]. Deras nästa mål är att visa "användbar kvantfördel" — en beräkning som har verklig tillämpning och som en klassisk dator inte kan genomföra på rimlig tid.
Microsoft presenterade i februari 2025 chipet Majorana 1, som ska innehålla 8 topologiska qubits — teoretiskt motståndskraftigare mot dekoherens än överledande eller joniska qubits. Men Microsofts påståenden mötte allvarlig skepticism från den vetenskapliga världen. Fysiker citerade i Nature[14] och Science[13] ifrågasatte om de presenterade qubitsen ens fungerar som topologiska qubits, och påstår om datomanipulation väcktes kring en nyckelpublikation som utgör grunden för detta tillvägagångssätt. Det är det tidigaste utvecklingsstadiet av alla tillvägagångssätt — och det mest omstritt.
Microsoft och Atom Computing (ett separat projekt från Majorana) bygger tillsammans maskinen Magne, baserad på neutrala atomer, med 50 logiska qubits (cirka 1 200 fysiska), planerad för början av 2027[12]. Det skulle vara en av de första kvantdatorerna med tillräckligt många logiska qubits för enkel men verklig beräkning.
En tydlig trend är synlig här: företag talar om dussintals logiska qubits i perspektivet på 2–3 år och hundratals i perspektivet på 5–8 år. Inte tusentals, inte miljontals. Vem som helst som hävdar att en kvantdator "snart kommer att förändra världen" — antingen förstår de inte problemets omfattning, eller försöker de sälja dig något.
Vad kvantdatorer kan göra idag — och vad de inte kan
Vad de inte kan
De kommer inte att knäcka ditt lösenord. De kommer inte att ersätta din bärbara dator. De kommer inte att påskynda internetbläddring, filmströmning eller någon aktivitet som klassiska datorer gör bra. Detta är en viktig missuppfattning: en kvantdator är inte en snabbare version av en klassisk dator. Det är en maskin designad för helt andra klasser av problem — där den matematiska strukturen tillåter ett "kvantumgenväg" genom interferens och intrassling.
För den överväldigande majoriteten av dagliga uppgifter — textuppgifter, databaser, datorspel, maskininlärning — är klassiska datorer och förblir det bättre verktyget. En kvantdator ersätter inte GPU:n vid träning av neurala nätverk. Det påskyndar inte ditt Excel. Även om det stod på ditt skrivbord (vilket det inte kommer att göra, eftersom det kräver en kryostat i bilstorlek) skulle du inte ha någon användning för det.
Frågan om "kvantöverskudd" — och varför termen är problematisk
År 2019 tillkännagav Google "kvantöverskudd" — deras processor Sycamore (53 qubits) utförde på 200 sekunder en speciellt konstruerad uppgift (slumpmässigt sampla kvantkretsar), som enligt Google skulle ta världens snabbaste superdator 10 000 år. Artikeln publicerades i Nature[15].
IBM ifrågasatte omedelbar denna påstående och hävdade att superdatorn Summit klarade sig med denna uppgift på 2,5 dagar — vilket är långsammare än 200 sekunder, men långt från "10 000 år". Och 2023 utförde ett team från USTC (Chinas universitetet för vetenskap och teknik) samma uppgift på 14 sekunder — med 1 400 NVIDIA A100 grafiska processorer. Dessutom uppskattade man att superdatorn Frontier med fullt minne skulle kunna göra det på bara 1,6 sekunder[16].
Googles överskuddspåstående underminerades. Det betyder inte att kvantfördel är en myt — men det visar att gränsen mellan "möjligt klassiskt" och "omöjligt klassiskt" är flytande och skiftar i båda riktningarna. Klassiska algoritmer och maskinvara utvecklas också. Och termen "överskudd" väcker mer kontroverser än klarhet — därför föredrar många vetenskapen neutralare term "kvantfördel" (quantum advantage).
Där de första verkliga tillämpningarna ses
Simulering av molekyler och läkemedelspålitning. Här har kvantdatorer en naturlig fördel — för molekyler är själva kvantiska. Kemiska bindningar, elektroninteraktioner, energitillstånd — allt detta beskrivs av kvantmekanik. Klassiska datorer måste approximera detta (för noggrann simulering kräver resurser som växer exponentiellt med molekylstorlek). En kvantdator kunde simulera detta inbyggt.
Ett team från University of Toronto och firman Insilico Medicine använde en hybridmetod (kvantalgoritmer + klassisk) för att föreslå hämmare av KRAS-proteinet — tidigare betraktat som "omöjligt att rikta in sig på" i cancerterapi. Femton föreningar syntetiserades i laboratoriet, två visade biologisk aktivitet. Resultaten publicerades i Nature Biotechnology 2024[5].
Men det är viktigt att vara exakt: i denna forskning spelade kvantkomponenten en kompletterande roll — den förfinade lokala elektronbeskrivningar på ställen där kvanteffektor är kritiska för att molekyler binder. Det tunga arbetet — att söka genom kemisk rymd, molekylär docking, rankering av kandidater — gjordes fortfarande av klassiska algoritmer. Ingen har ännu visat otvetydig kvantfördel över de bästa klassiska metoderna i läkemedelspålitning. Läkemedelföretag (Boehringer Ingelheim, Roche, AstraZeneca) för projekt med Google Quantum AI och andra — men i forskningsstadiet, inte produktiv[5].
Optimering och logistik. Algoritmer såsom QAOA (Quantum Approximate Optimization Algorithm) kan teoretiskt hjälpa med problem som schemaläggning, dirigering eller optimering av investeringsportföljer. I praktiken är dagens kvantdatorer för bullriga för att ge bättre resultat än de bästa klassiska heuristikerna. Firman D-Wave erbjuder "kvantoptimerare" (quantum annealers) med över 5 000 qubits — men det är en annan klass av maskiner än universella kvantdatorer, och deras fördel över klassiska lösare ifrågasätts.
Hot mot kryptografi — när ska vi oroa oss?
Det här är en fråga som verkligen väcker känslor — och med rätta. Shors algoritm, publicerad av matematikern Peter Shor 1994, tillåter en kvantdator att faktorera stora tal exponentiellt snabbare än någon känd klassisk algoritm. Faktorering är grundvalen för RSA-säkerhet — krypteringssystemet som skyddar dina banktransaktioner, e-postmeddelanden, medicinska uppgifter och praktiskt taget all internetinfrastruktur för säkerhet.
RSA-2048 (en nyckel på 2048 bitar, för närvarande standard) bygger på faktumet att en klassisk dator skulle behöva miljarder år för att faktorera sådan ett stort tal. En kvantdator med Shors algoritm kunde göra det på timmar — om den hade tillräckligt många tillförlitliga qubits.
Hur många qubits behövs? Uppskattningarna har förändrats drastiskt:
- 2015: omkring en miljard qubits (uppskattning baserad på dåtidens felfrekvens)
- 2019: 20 miljoner bullriga qubits och 8 timmars beräkning[3]
- Maj 2025: under en miljon bullriga qubits och en veckas beräkning[4]
Minskningen är dramatisk — men fortfarande långt från nuvarande möjligheter. De bästa universella kvantprocessorerna har idag 100–200 qubits (Google Willow: 105, IBM Heron: 156). IBM byggde chipet Condor som demonstration med 1 121 qubits, men det är inte en produktionmaskin[10]. Klyftan mellan hundratals och en miljon qubits — och det var mycket bättre qubits än dagens — förblir enorm.
Så när blir RSA en fara? Ingen vet exakt. Men NIST (USA:s Nationale institutet för standarder och teknik) bestämde att det inte lönar sig att vänta på svaret. I augusti 2024 publicerade de tre färdiga standarder för postkvantkryptografi: ML-KEM (kryptering), ML-DSA (digitala signaturer) och SLH-DSA (signaturer baserade på hashfunktioner)[6]. I mars 2025 valde de en femte algoritm — HQC — som en reserv-krypteringsmekanism[7]. Migrationen till nya standarder har redan börjat — IETF (Internet Engineering Task Force) inkluderar postkvantkryptoalgoritmer i TLS-protokollet, som säkerställer HTTPS-anslutningar.
Det är ett försiktigt tillvägagångssätt — och det är värt att förstå varför. Data krypterad idag kan fångas och lagras och dekrypteras om ett decennium när kvantdatorer mognar. Detta scenario — känt som "skörda nu, dekryptera senare"-anfall — påverkar särskilt data med långa känslighetperioder: statliga hemligheter, medicinsk dokumentation, immateriell egendom. Organisationer som lagrar sådan data bör behandla migrationen till postkvantkryptografi inte som en avlägsen plan, utan som en löpande uppgift.
Fyra vägar till en kvantdator
En av de mindre uppmärksammade, men fascinerande aspekterna av detta område är hur olika tillvägagångssätten är till att bygga en kvantdator. Det är ingen kapplöpning på en bana — det är flera parallella expeditioner in i det okända, var och en med sina fördelar, begränsningar och riskprofil.
Överledande qubits (Google, IBM)
Snabbaste logiska operationer (20–50 nanosekunder), men kortare koherens (50–100 mikrosekunder)[2] och behov av kylning till nära absolut noll i en kryostat som kostar miljoner. Dominerar idag vad gäller antalet qubits och mognad av verktygsekosystem. Det var på dessa som Willow och Heron byggdes. Deras största svaghet: ingen två qubits är identiska, och parametrarna för varje qubit förändras över tid, vilket kräver kontinuerlig omkalibrering[2].
Fångade joner (IonQ, Quantinuum)
Längsta koherens (sekunder till minuter) och högsta gate-fidelitet (över 99,9%) — för atomer av ett givet grundämne är identiska av natur. Men logiska operationer tar mikrosekunder (1 000x långsammare än överledare) och skalning över många dussintals qubits kräver komplicerade jonpälsarkitekturer. År 2025 demonstrerades skalbar pälsar på över 200 joner och nya tekniker för parallell gateexekvering — men till hundratals logiska qubits är det fortfarande långt.
Neutrala atomer (QuEra, Pasqal, Atom Computing)
En lovande nästa generations plattform med naturlig skalbarhet — atomer som hålls av optiska pincetter (laserstrålär) kan ordnas i två- och tredimensionella nätverk på hundratals, och till och med tusentals. IEEE Spectrum kallade 2026 året för det "stora språnget" för denna teknologi[12]. Atom Computing demonstrerade ett system med över 1 000 qubits redan 2023 — även om gatekvlitteten är lägre än hos joner. Det är på denna plattform Microsoft och Atom Computing bygger maskinen Magne.
Topologiska qubits (Microsoft)
Teoretiskt motståndskraftigast mot fel tack vare att kvantinformation sprids i topologin för systemet snarare än lokaliserad i en enda objekt. Chipet Majorana 1 (februari 2025) skulle vara det första steget — men den vetenskapliga världen ifrågasätter om man verkligen demonstrerade funktionande topologiska qubits. Fysiker citerade i Nature[14] och Science[13] väckte allvarliga invändningar, och anklagelser om datamanipulation väcktes mot en nyckel publikation som utgör grunden för denna metod. Det mest ambitiösa och mest osäkra av alla tillvägagångssätt — potentiellt genombrytande om det lyckas, men grundläggande vetenskapliga frågor förblir öppna.
Ingen av dessa tillvägagångssätt vann. Det är möjligt att "vinnaren" ännu inte finns — eller att framtiden tillhör hybrider som kombinerar olika teknologier i olika stadier av beräkning.
Vad detta innebär — frågor värt att ställa sig själv
En kvantdator är inte en snabbare processor. Det är ett nytt sätt att tänka på beräkningar — inspirerat av fysiken på dess enklaste, djupaste nivå av verkligheten. Och just för detta är denna teknologi så spännande och så svår.
Idag är vi ungefär där klassiska datorer var på 1950-talet: vi vet att det fungerar; vi vet att det har potential; vi vet inte exakt vad vi ska göra med det. Transistorn uppfanns 1947. Internet skapades fyra decennier senare. Ingen 1947 förutspådde Amazon, Spotify eller att vi skulle bära i fickan datorer en miljon gånger kraftfullare än dem som skickade människor till månen.
Kanske är det värt att fråga sig inte "när kommer en kvantdator att knäcka mitt lösenord", utan "vilka problem — idag betraktat som olösliga — kommer att kunna lösas när denna teknologi mognar?". Nya material som kan stoppa klimatförändring. Läkemedel utformade atom för atom, anpassade för en specifik patient. Fysikaliska modeller som låter oss förstå fenomen som vi idag inte ens kan simulera.
Eller något som ingen ännu har tänkt på — för så har det alltid varit när riktigt ny teknik uppstår.
Kvantdatorer är inte precis runt hörnet. Men de är heller inte science fiction. De är något mycket mer intressant — en öppen fråga vid gränsen mellan fysik, matematik och teknik. Och öppna frågor, som vetenskapshistorien lär, har mer potential än färdiga svar.
Källor
- Google Quantum AI & Collaborators, „Quantum error correction below the surface code threshold", Nature 638, 920–926 (2025). nature.com
- Schlör S. et al., „Decoherence benchmarking of superconducting qubits", npj Quantum Information 5, 54 (2019). nature.com
- Gidney C., Ekerå M., „How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits", arXiv:1905.09749 (2019). arxiv.org
- Gidney C., Ekerå M., „How to factor 2048 bit RSA integers with less than a million noisy qubits", arXiv:2505.15917 (2025). arxiv.org
- Liao H. et al., „Quantum-computing-enhanced algorithm unveils potential KRAS inhibitors", Nature Biotechnology (2024). nature.com
- NIST, „Post-Quantum Cryptography Standardization" — ML-KEM (FIPS 203), ML-DSA (FIPS 204), SLH-DSA (FIPS 205), augusti 2024. nist.gov
- NIST, „NIST Selects HQC as Fifth Algorithm for Post-Quantum Encryption", mars 2025. nist.gov
- Einstein A., Podolsky B., Rosen N., „Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?", Physical Review 47, 777 (1935).
- Wootters W. K., Żurek W. H., „A Single Quantum Cannot Be Cloned", Nature 299, 802–803 (1982).
- IBM Quantum, officiell färdplan (2025). ibm.com
- Google Quantum AI, färdplan. quantumai.google
- „Neutral Atom Quantum Computing: 2026's Big Leap", IEEE Spectrum (2026). ieee.org
- „Debate erupts around Microsoft's blockbuster quantum computing claims", Science (2025). science.org
- „Microsoft claims quantum-computing breakthrough — but some physicists are sceptical", Nature (2025). nature.com
- Arute F. et al., „Quantum supremacy using a programmable superconducting processor", Nature 574, 505–510 (2019). nature.com
- „Ordinary computers can beat Google's quantum computer after all", Science (2023). science.org
