Spørsmål og svar: Neil Thompson om datakraft og innovasjon | MIT Nyheter


Moores lov er den berømte prognosen fra Intels medgründer Gordon Moore om at antallet transistorer på en mikrobrikke vil dobles hvert eller annet år. Denne spådommen har stort sett blitt oppfylt eller overskredet siden 1970-tallet – datakraft dobles omtrent hvert annet år, mens bedre og raskere mikrobrikker blir rimeligere.

Denne raske veksten i datakraft har drevet innovasjon i flere tiår, men på begynnelsen av det 21. århundre begynte forskere å ringe alarmklokker om at Moores lov ble bremset. Med standard silisiumteknologi er det fysiske grenser for hvor små transistorer kan få og hvor mange som kan klemmes inn på en rimelig mikrobrikke.

Neil Thompson, en MIT-forsker ved Computer Science and Artificial Intelligence Laboratory (CSAIL) og Sloan School of Management, og hans forskerteam satte seg fore å kvantifisere viktigheten av kraftigere datamaskiner for å forbedre resultatene i samfunnet. I et nytt arbeidspapir analyserte de fem områder der beregning er kritisk, inkludert værvarsling, oljeleting og proteinfolding (viktig for medikamentoppdagelse). Arbeidspapiret er medforfatter av forskningsassistentene Gabriel F. Manso og Shuning Ge.

De fant at mellom 49 og 94 prosent av forbedringene på disse områdene kan forklares med datakraft. For eksempel, i værvarsling, forbedrer økende datamaskinkraft med en faktor 10 spådommer om tre dager fremover med en tredjedel av en grad.

Men datamaskinens fremgang avtar, noe som kan ha vidtrekkende konsekvenser på tvers av økonomien og samfunnet. Thompson snakket med MIT Nyheter om denne forskningen og implikasjonene av slutten av Moores lov.

Q: Hvordan nærmet du deg denne analysen og kvantifiserte effekten databehandling har hatt på forskjellige domener?

EN: Det er vanskelig å kvantifisere effekten av databehandling på reelle resultater. Den vanligste måten å se på datakraft, og IT-fremgang mer generelt, er å studere hvor mye selskaper bruker på det, og se på hvordan det korrelerer med resultater. Men utgifter er et vanskelig mål å bruke fordi det bare delvis gjenspeiler verdien av datakraften som kjøpes. For eksempel kan dagens databrikke koste like mye som fjorårets, men den er også mye kraftigere. Økonomer prøver å justere for den kvalitetsendringen, men det er vanskelig å få tak i nøyaktig hva dette tallet skal være. For prosjektet vårt målte vi datakraften mer direkte – for eksempel ved å se på egenskapene til systemene som ble brukt da proteinfolding ble utført for første gang ved hjelp av dyp læring. Ved å se direkte på kapasiteter er vi i stand til å få mer presise målinger og dermed få bedre estimater for hvordan datakraft påvirker ytelsen.

Q: Hvordan muliggjør kraftigere datamaskiner forbedringer i værmelding, oljeleting og proteinfolding?

EN: Det korte svaret er at økning i datakraft har hatt en enorm effekt på disse områdene. Med værprediksjon fant vi ut at det har vært en trilliondobling i mengden datakraft brukt til disse modellene. Det setter i perspektiv hvor mye datakraft har økt, og også hvordan vi har utnyttet den. Dette er ikke noen som bare tar et gammelt program og legger det på en raskere datamaskin; i stedet må brukerne hele tiden redesigne algoritmene sine for å dra nytte av 10 eller 100 ganger mer datamaskinkraft. Det er fortsatt mye menneskelig oppfinnsomhet som må gå inn for å forbedre ytelsen, men resultatene våre viser at mye av oppfinnsomheten er fokusert på hvordan man kan utnytte stadig kraftigere datamotorer.

Oljeleting er et interessant tilfelle fordi det blir vanskeligere over tid ettersom de enkle brønnene bores, så det som er igjen er vanskeligere. Oljeselskaper kjemper mot denne trenden med noen av de største superdatamaskinene i verden, og bruker dem til å tolke seismiske data og kartlegge geologien under overflaten. Dette hjelper dem til å gjøre en bedre jobb med å bore på nøyaktig rett sted.

Å bruke databehandling for å gjøre bedre proteinfolding har vært et langvarig mål fordi det er avgjørende for å forstå de tredimensjonale formene til disse molekylene, som igjen bestemmer hvordan de samhandler med andre molekyler. De siste årene har AlphaFold-systemene gjort bemerkelsesverdige gjennombrudd på dette området. Det vår analyse viser er at disse forbedringene er godt spådd av den massive økningen i datakraft de bruker.

Q: Hva var noen av de største utfordringene ved å gjennomføre denne analysen?

EN: Når man ser på to trender som vokser over tid, i dette tilfellet ytelse og datakraft, er en av de viktigste utfordringene å skille ut hva av forholdet mellom dem som er årsakssammenheng og hva som faktisk bare er korrelasjon. Vi kan svare delvis på det spørsmålet, fordi i områdene vi studerte, investerer selskaper enorme mengder penger, så de tester mye. I værmodellering, for eksempel, bruker de ikke bare titalls millioner dollar på nye maskiner og så håper de fungerer. De gjør en evaluering og finner ut at det å kjøre en modell dobbelt så lenge forbedrer ytelsen. Så kjøper de et system som er kraftig nok til å gjøre den beregningen på kortere tid slik at de kan bruke det operativt. Det gir oss mye selvtillit. Men det er også andre måter vi kan se årsakssammenhengen på. For eksempel ser vi at det var en rekke store hopp i datakraften brukt av NOAA (National Oceanic and Atmospheric Administration) for værprediksjon. Og når de kjøpte en større datamaskin og den ble installert på en gang, hopper ytelsen virkelig.

Q: Ville disse fremskritt vært mulig uten eksponentiell økning i datakraft?

EN: Det er et vanskelig spørsmål fordi det er mange forskjellige innganger: menneskelig kapital, tradisjonell kapital og også datakraft. Alle tre endres over tid. Man kan si at hvis du har en trilliondobling i datakraft, har det sikkert den største effekten. Og det er en god intuisjon, men du må også ta høyde for minkende marginalavkastning. For eksempel, hvis du går fra å ikke ha en datamaskin til å ha én datamaskin, er det en enorm endring. Men hvis du går fra å ha 100 datamaskiner til å ha 101, gir den ekstra ikke på langt nær så mye gevinst. Så det er to konkurrerende krefter – store økninger i databehandling på den ene siden, men avtagende marginale fordeler på den andre siden. Vår forskning viser at selv om vi allerede har tonnevis med datakraft, blir den større så fort at det forklarer mye av ytelsesforbedringen på disse områdene.

Q: Hva er implikasjonene som kommer av at Moores lov bremser opp?

EN: Konsekvensene er ganske bekymringsfulle. Ettersom databehandlingen forbedres, gir den bedre værforutsigelser og de andre områdene vi studerte, men den forbedrer også utallige andre områder vi ikke målte, men som likevel er kritiske deler av økonomien og samfunnet vår. Hvis den forbedringsmotoren bremser ned, betyr det at alle disse følgeeffektene også bremser ned.

Noen kan være uenige, og hevder at det er mange måter å innovere på – hvis en vei bremser ned, vil andre kompensere. På et eller annet nivå er det sant. For eksempel ser vi allerede økt interesse for å designe spesialiserte databrikker som en måte å kompensere for slutten på Moores lov. Men problemet er omfanget av disse effektene. Gevinstene fra Moores lov var så store at andre kilder til innovasjon i mange bruksområder ikke vil kunne kompensere.