Volum får mye av pressen når det kommer til data. Størrelse er akkurat der i det en gang allestedsnærværende uttrykket “Big Data.”
Dette er ikke noe nytt. Da jeg var IT-bransjeanalytiker, observerte jeg en gang i en forskningsnotat at markedsføringseksemplaret la altfor mye vekt på båndbreddetallene knyttet til store serverdesign, og ikke nok på tiden som går mellom en forespørsel om data og den første ankomsten – det vil si ventetiden.
Vi har sett en lignende dynamikk med hensyn til IoT og edge computing. Med stadig økende datamengder samlet inn av stadig økende antall sensorer, er det absolutt behov for å filtrere eller samle disse dataene i stedet for å sende dem over hele nettverket til et sentralisert datasenter for analyse.
[ Read also: IT decision-makers are prioritizing digital transformation. ]
Det er det faktisk. Red Hat fikk nylig Frost og Sullivan til å gjennomføre 40 intervjuer med ledere i bransjen (sammen med noen få i IT-roller) fra organisasjoner med mer enn 1000 ansatte globalt. De representerte selskaper innen produksjon, energi og verktøy fordelt mellom Nord-Amerika, Tyskland, Kina og India. På spørsmål om de viktigste triggerne deres for å implementere edge computing, dukket det opp båndbreddeproblemer, og det samme gjorde problemer rundt å ha for mye data i et sentralt datasenter.
Latency, tilkobling topper listen
Intervjuobjektene våre la imidlertid betydelig mer vekt på ventetid, og mer generelt deres avhengighet av nettverkstilkobling. Triggere som behovet for å forbedre tilkoblingen, øke datahastigheten, behandle data raskere og på stedet, og unngå dataforsinkelse som følge av overføring av data til skyen og tilbake var vanlige temaer.
For eksempel fortalte en beslutningstaker i olje- og gassindustrien oss at å flytte databehandling ut til kanten “forbedrer evnen din til å reagere på enhver sporadisk situasjon fordi du ikke lenger trenger å ta alt på en sentralisert måte. Du kan ta lokale data, kjøre dem gjennom edge computing-rammeverket eller -modellene og ta sanntidsbeslutninger. Den andre er når det gjelder den generelle sikkerheten. Nå som dataene dine ikke forsvinner, og de både produseres og konsumeres lokalt, forsvinner risikoen for at noen avskjærer dataene mens de går på nettverket stort sett.”
For et annet datapunkt, en Red Hat og Pulse.qa IT-fellesskapsundersøkelse fant at 45 % av 239 respondenter sa at lavere ventetid var den største fordelen med å distribuere arbeidsbelastninger til kanten. (Og resultatet nummer to var optimalisert dataytelse, som i det minste er relatert.) Redusert båndbredde? Det var nede i enkeltsifrede (8%).
Latency var stor da vi spurte intervjuobjektene våre om hva de så som de største fordelene med edge computing.
Latency var også stor da vi spurte intervjuobjektene våre hva de så som de største fordelene med edge computing.
De aller største fordelene som ble nevnt var knyttet til umiddelbar tilgang til data, inkludert ønsket om at data skal være tilgjengelige i sanntid slik at de kan behandles og analyseres umiddelbart på stedet, eliminere dataforsinkelser forårsaket av dataoverføringer og ha tilgang 24/7 til pålitelige data – øker muligheten for konstant analyse og tilgjengelighet for raske resultater. Et felles tema var handlingsdyktig lokal analyse.
Kostnader som en fordel med edge computing dukket opp her og der – spesielt i sammenheng med å redusere skybruk og relaterte kostnader. Imidlertid, i samsvar med annen forskning vi har gjort, ble kostnadene ikke oppgitt som en primær driver eller fordel ved edge computing. Snarere er driverne stort sett datatilgang og relaterte gevinster.
Hybrid sky, data er drivere
Hvorfor ser vi denne økte vektleggingen av edge computing og tilhørende lokal databehandling? Våre intervjuer og annen forskning tyder på at to årsaker sannsynligvis er spesielt viktige.
Den første er at 15 år etter den første offentlige skyutrullingen har IT-organisasjoner i økende grad tatt i bruk en eksplisitt hybrid skystrategi. Red Hat’s 2022 Global Tech Outlook-undersøkelse fant ut at det var den vanligste strategien for skyen blant de over 1300 IT-beslutningstakerne som svarte.
Offentlig sky-først var minst felles skystrategi og var ned et hake fra forrige års undersøkelse. Dette samsvarer med data vi har sett i andre undersøkelser.
Ingenting av dette er å si at offentlige skyer på noen måte er en forbigående kjepphest. Men edge computing har bidratt til å fokusere oppmerksomheten på databehandling (og lagring) ute i de ulike kantene av nettverket i stedet for totalt sentralisert hos en håndfull store offentlige skyleverandører. Edge computing har lagt til en begrunnelse for hvorfor offentlige skyer ikke vil være det eneste stedet der databehandling vil skje.
Den andre grunnen er at vi gjør mer komplekse og mer dataintensive oppgaver ute på kanten. Våre intervjuobjekter fortalte oss at en hovedutløser for implementering av edge computing er behovet for å omfavne digital transformasjon og implementere løsninger som IoT, AI, tilkoblede biler, maskinlæring og robotikk. Disse applikasjonene har ofte også en skykomponent. For eksempel er det vanlig å trene maskinlæringsmodeller i et skymiljø, men deretter kjøre dem på kanten.
Vi begynner til og med å se Kubernetes-baserte klyngedistribusjoner på kanten ved hjelp av et produkt som Red Hat OpenShift. Å gjøre det gir ikke bare skalerbarhet og fleksibilitet for edge-distribusjoner, men gir også et konsistent sett med verktøy og prosesser fra datasenteret til kanten.
Det er ikke overraskende at datalokalitet og latens er viktige kjennetegn ved en hybridsky som en edge-distribusjon kan være en del av. Observerbarhet og overvåking har også betydning. Det samme gjør klargjøring og andre aspekter ved ledelsen. Og ja, båndbredde – og påliteligheten til koblinger – spiller inn i blandingen. Det er fordi en hybridsky er en form for et distribuert system, så hvis noe betyr noe i et annet datasystem, betyr det sannsynligvis også i et distribuert system. Kanskje enda mer.
For å lære mer, besøk Red Hat her.