Før kvantedatamaskiner blir praktiske, vil de trenge flere qubits, lavere feilfrekvenser og mer effektive feilreduserende strategier. I mellomtiden undersøker industrielle og akademiske forskere hvordan nåværende kvantedatabehandlingsevner kan øke problemløsningen til konvensjonelle datamaskiner (se for eksempel “Kvantedatamaskiner modellerer en kjemisk reaksjon,” Fysikk i dag online, 8. september 2020). Hva slags oppgaver vil ha nytte av å legge til et kvanteberegningstrinn? En studie av Alejandro Perdomo-Ortiz fra Zapata Computing, et kvanteprogramvareselskap, og hans kolleger gir nye bevis på at oppgaver innen maskinlæring kan være lovende kandidater.
Nevrale nettverk er oftest tildelt jobben med å gjenkjenne mønstre, men et voksende arbeid har som mål å bruke dem til å produsere tekst, bilder, musikk, videoer og mer. Den nåværende beste arkitekturen for de såkalte generative nevrale nettverkene er det som er kjent som et motstridende nettverk, som bruker generator- og diskriminatorundernettverk. Generatoren prøver å etterligne treningsdataene, og diskriminatoren prøver å plukke ut hvilke bilder som er nettverksgenererte forfalskninger og hvilke som er ekte treningsbilder. Ettersom de to undernettverkene prøver å utmanøvrere hverandre, blir de bedre til å produsere og oppdage forfalskninger.
Motstridende nettverk er ikke uten potensielle fallgruver. En slik hindring er et fenomen som kalles moduskollaps. La oss for eksempel si at nettverket prøver å produsere sifre som ser overbevisende ut som håndskrevne, en vanlig referanseoppgave innen maskinlæring. Hvis diskriminatoren hadde en liten preferanse tidlig i treningen for å anse sifferet “0” som ekte, kunne generatoren gripe denne svakheten og churne ut bare 0-er i stedet for hele spekteret av sifre fra 0 til 9. Kvaliteten og oppløsningen til disse 0-ene ville forbedre seg med tiden, men nettverket ville ikke gjøre det som virkelig var ment. Alternativt kan nettverket, i stedet for å stadig forbedre seg, fortsette å spre seg mye i hva det produserer i løpet av treningen.
Disse treningsproblemene er delvis på grunn av valget av innledende sannsynlighetsfordelinger som mates inn i generatoren. Kvantedatamaskiner kan tilby en måte å stabilisere treningsprosessen og unngå slike problemer. For å teste ideen sammenlignet Perdomo-Ortiz og kollegene hvordan et klassisk motstandsnettverk og et klassisk-kvantemotstridende nettverk klarer å generere sifre som ser håndskrevne ut. Begge systemene trente på en standardpool på 60 000 håndskrevne tall.
I det klassiske kvantetilfellet, i tillegg til de vanlige generator- og diskriminatorundernettverkene, måler og representerer en åtte-bits kvantekrets hvilke noder som avfyrer – faktisk hvordan det nevrale nettverket representerer dataene – i en del av diskriminatoren. Denne informasjonen mates deretter inn i generatoren som dens innledende sannsynlighetsfordeling før hver treningsrunde. Hvorfor bruke en kvantekrets? Primært fordi det kan representere sannsynlighetsfordelinger som ikke er tilgjengelige når det klassiske nettverket trenes på egen hånd. For å takle det begrensede antallet qubits tilgjengelig i nåværende kvantedatamaskiner, målte forskerne qubitenes tilstander i flere baser, en bragd som ikke er mulig i konvensjonelle kretser, og økte dermed informasjonen som kunne lagres i hver qubit.
De kvantestøttede nettverkene produserer overbevisende håndskrevne tall, vist på bildet, og selv om de ser omtrent like ut som klassiske nettverk, slår de dem litt: Begynnelsesscore, som kvantifiserer kvaliteten og mangfoldet til sifrene, for kvantestøttede implementeringer kommer nærmere en perfekt 10, med en poengsum på omtrent 9,36 sammenlignet med rundt 9,20 for klassiske motstandsnettverk.
Tillegget av kvantekretsen gjør også treningen mer robust; startpoengene sank ikke så mye over tid når treningsparametrene var ugunstige. Men det kommer på bekostning av tid og penger. Kvantekretser må nås og trenes i sitt eget ekstra trinn. Likevel ville disse ulempene være verdt det eller til og med nødvendig for datasett som er for kompliserte for klassiske datamaskiner å håndtere. (MS Rudolph et al., Phys. Rev. X 12031010, 2022.)