Kvantedatabehandling har hatt en betydelig tilstrømning av kapital de siste par årene, og har økt fra 93,5 millioner dollar i 2015 til 3,2 milliarder dollar i 2021, med VC og privat kapital gjøre opp mer enn 70 % av investeringene. Men en stor utfordring for begynnende sektor er benchmarking av verdien av innovasjoner. Uten en standardisert metode for å måle «hvor godt» en kvantedatamaskin presterer, er det en risiko for feilallokering av denne kapitalen.
Dette kan undergrave quantums troverdighet, med urealistiske forventninger som skaper en hype-syklus. Slike kritikker har allerede blitt rettet mot sektoren, mens Oxford-fysiker Nikita Gourianov nylig kranglet i FT av “et svært overdrevet perspektiv på løftet om kvantedatabehandling” og “dannelsen av en klassisk boble”.
Men det er noen målbare områder som generelt tilsvarer forbedringer i ytelse for en kvantedatamaskin. I dette stykket skal jeg dekke fire benchmarks: gate-fidelitet, koherenstid, skaleringspotensial og feilretting.
Port-troskap
De digitale kretsene vi ser i konvensjonelle prosessorer er bygget på “logiske porter” – effektivt kretser som utfører et sett med instruksjoner. En kvantelogikkport er kvanteberegningens ekvivalent – en grunnleggende kvantekrets som opererer et lite antall qubits.
Imidlertid har kvantelogiske porter et betydelig lag av kompleksitet sammenlignet med konvensjonelle logiske porter. Uten å fordype oss for mye i fysikk, under kvantemekanikk, avstår vi fra ideen om at vi nøyaktig kan forutsi verdien av en egenskap som holdes av en partikkel. I stedet, inntil vi måler det, kan partikkelen oppta en rekke verdier for den egenskapen, med noen verdier mer sannsynlige enn andre. Vi kaller rekkevidden av sannsynligheter for en partikkels tilstand en “kvantetilstand”.
Dette elementet av kvantetilstander er en utfordring for å få en kvanteport til å fungere pålitelig. Kort sagt, større gatefidelitet betyr mer pålitelige operasjoner med en kvanteport og større sannsynlighet for at en prosesseringssyklus følger instruksjonene vi gir den.
Sammenhengstid
Tenk deg at du hadde et veldig varmt stykke metall. Ved å konvertere den varmen direkte til kraft, kan du bruke det varme metallet til å gjøre mye arbeid for deg – for eksempel ved å konvertere varme til elektrisitet. Men over tid vil interaksjon med omgivende luftpartikler stjele det meste av den varmeenergien, ned til det punktet hvor metallet ikke lenger er varmt nok til å drive noe arbeid.
Noe lignende er i spill med partiklers “kvantegrad”. Over tid mister kvantepartikler sin evne til å utføre nyttig informasjonsarbeid når de samhandler med omgivelsene, noe som til slutt gjør dem ubrukelige for en kvantedatamaskin.
En kvantepartikkel som kan utføre nyttig arbeid kalles “koherent”. Kvantedatamaskiner som kan øke tiden en partikkel forblir sammenhengende, har mer plass til å gjøre nyttige beregninger for oss.
Skaleringspotensial
Noen metoder for kvanteberegningsforskning har mer skaleringspotensial enn andre. For eksempel behandler det lage qubits fra silisium kan i stor grad låne eksisterende prosesser fra halvlederindustrien for fabrikasjon samtidig som det krever lite plass å implementere. I dette tilfellet representerer dette et større skalapotensial for produksjon og antall qubits som gjør nyttig arbeid i en kvadrattomme brikke.
Hvordan vil den valgte arkitekturen oppføre seg hvis den gjøres 10 ganger større? 100 ganger større? 1000 ganger større? Og er det økonomisk å gjøre det? Hvis du ønsker å realisere kvanteberegning i praksis, må vi gå utover en håndfull qubits om gangen.
Feilretting
Et annet område å måle er hvordan vi håndterer kvantefeilkorreksjon. Det er alltid en grad av “bakgrunnsstøy” rundt kvanteeffekter som kan forstyrre beregningen, sammen med det nevnte tapet av en kvantepartikkels koherens. Til sammen betyr disse at enhver operasjon risikerer å gi feil. Av den grunn må en kvantedatamaskin finne måter å oppdage og forhindre forplantning av feil på, slik at de ikke undergraver en prosess samlede produksjon.
👉 Les mer: Inne i et kvantelaboratorium
Å oppnå feilretting krever at team forstår hvordan feil forplanter seg gjennom et system. Et team må også være i stand til å konstruere systemer for å oppveie risikoen for feil og korrigere der det er hensiktsmessig – enten det er i defekte kvanteporter, korrupsjon av lagret kvanteinformasjon eller feilmålinger.
Benchmarking for realistisk vekst i kvante
Dette har vært en relativt overflate-nivå utforskning av mulig benchmarking i kvante, der vi bare dekker fire underliggende tekniske benchmarks. Som du kanskje kan forestille deg, er det mange andre faktorer som vil spille inn i evalueringen av levedyktigheten til en oppstart av kvantedatabehandling.
For å krangle med den iboende kompleksiteten til plassen, må investorer være villige til å dykke inn og engasjere seg i teknologien og det grunnleggende innen quantum. I stedet for bare å diskutere kvantepotensialet løst, må investorer være mer villige til å forstå de fysiske og tekniske utfordringene og løsningene de investerer i. Først da kan vi forbedre kapitalallokeringen, velge de mest lovende teamene og bygge troverdigheten til kvantedatabehandling.
Rick Hao er partner hos Speedinvest.