Hitachi Data Systems

Techintervju: Big data as a Service

Hitachi er tradisjonelt forbundet med disk- og lagringsløsninger, men er også en stor tjenesteleverandør innen databeskyttelse, sikkerhet og IoT.

Innen IT-verden forbinder de fleste Hitachi med disk- og lagringsløsninger, men de har selvsagt også en lang portefølje av varmepumper, medisinsk utstyr, underholdningsenheter, gravemaskiner, transport- og jernebanesystemer.

I den nyere tid kan de også skilte med å være tjenesteleverandør for databeskyttelse, sikkerhet og Internet of Things (IoT).

I dette intervjuet med ITpro.no forteller Børre Nygren, Sr. Systems Engineer hos Hitachi, at de forskjellige avdelingene i Hitachi stadig arbeider tettere sammen. Tingenes internett, stordata og overvåkning har ført til at mange av selskapets interne organisasjoner og selskapets kunder har måttet tenke nytt.

Børre Nygren

Børre Nygren, HitachiSr. Systems Engineer hos Hitachi Data Systems i Norge, jobber primært med lagring, data management, data protection, big data, analytics med mer.

Nygren startet i IT-bransjen i 1990 og har over 25 års erfaring med profesjonell IT gjennom selskaper som Microsoft, WMware, NetApp, Dell og flere. Han er blitt tildelt tittelen WMware vExpert i 2015, 2016 og 2017, og innehar en rekke sertifiseringer innen dataprotection og virtualisering.

Nygren starter med et eksempel fra København i Danmark; 

-I København de satt opp en omfattende infrastruktur av sensorer som teller antall fotgjengere, syklister og biler som passerer en aktuell strekning, for så å kunne sette inn nødvendige tiltak dersom det må stenges for å eksempelvis grave en grøft. I tilfellet jeg nevner her kan entreprenører enten abonnere på datatilgangen, eller betale for en pakke per nedlasting.

Bedriftsmodellen er såre enkel, den er tilknyttet data og bedriften står for innsamling, strukturering og utlevering av disse.

Fra sensorer til Internet of Things

Hitachi har lenge arbeidet med IoT og sensorteknologi og har tatt god nytte av søsterorganisasjonene som eksempelvis jobber med heiser, gravemaskiner og smarte kameraer. Det vi ser er at det kommer stadig nye bruksområder innenfor kamera og overvåkning.

Vi leverer noen svært gode kameraer og høysensitive mikrofoner som gir gode bruksområder. Det er likevel programvaren i bakkant som gjør det mulig for etterforskere å kunne detektere et skudd i sentrum av Washington, og kunne triangulere hvor lyden og skuddet kom fra. Deretter kan det beregnes potensielle fluktruter for en eventuell skytter.

Et mer kommersielt hverdagslig tema er muligheten for å kunne gjennomføre persontelling, slik at et kjøpesenter kan telle hvor mange mennesker som befinner seg inne på senteret til enhver tid. Teknologien er blant annet i stand til å filtrere bort hunder og andre kjæledyr, slik at disse ikke blir telt med. Dette vil kunne være svært nyttig informasjon å innhente ved en eventuell brann eller terroraksjon.

Denne overvåkningsmekanismen fargelegger personene med et grått filter slik at det ikke er mulig å drive systematisk overvåkning, dersom dette ikke er lov eller ønskelig i den aktuelle regionen. Dersom politi eller andre autoriserte organer har behov for å identifisere personene, kan de legge inn en spesiell kode som fjerner denne “sladden”, og kan dermed benytte videomaterialet som videobevis i en sak.

Moderne dataløsninger for moderne datasett

Selv om Hitachi leverer mange moderne sensorløsninger, er det likevel løsninger for datasenteret – og da lagring spesielt – som ofte får mest fokus. Det sagt, så har Hitachi også et langt bredere løsningsspekter enn kun lagring, men for å ta dette først, så leverer vi også lagringsløsninger som både er ment for hyperkonvergerte datasystemer så vel som computenoder basert på tradisjonell bladeteknologi.

Konvergerte datasystemer

Konverterte datasystemer er en gruppering av flere grener av IKT-bransjen, som blant annet nettverk, lagring, programvare og dataprosessering.

Konvergerte datasystemer benyttes for å sentralisere- og strukturere administrasjonen av større datasett som i tur gir besparelser i form av tid, men også direkte økonomisk.

Les også vårt Techintervju med Nigel Moulton om konvergerte datasystemer

Det Hitachi har fått mye oppmerksomhet for innen compute er LPAR og SMP.

LPAR (logisk partisjon) er en teknologi som lar deg partisjonere en fysisk server i opptil 32 partisjoner. Dette kan være svært nyttig dersom man ikke ønsker å dedikere en full bladeserver for små, ressursgjerrige applikasjoner som av ulike årsaker ikke lar seg virtualisere.

Hitachi benytter her Intel sin QuickPath Interconnect (QPI)-teknologi som tillater sammenkobling av opp til 8x E7-sokler. (Takk til kollega Frank Tenambergen for tekniske detaljer – han er en guru på denne teknologien!)

SMP er en forkortelse for Symmetrisk Multiprosessering, som kort fortalt legger sammen flere prosessorenheter til én ressurs, ikke ulikt det vi har sett med grafikkort hvor det er mulig å legge sammen flere ressurser.

Slik kan bedrifter med raskt voksende behov for prosessering og minne enkelt kunne følge med de nye kravene, uten å måtte gå på kompromiss med økonomien.

Flash is cash – satser tungt på SSD-lagring

En av de største trendene vi ser nå er kunder som beveger seg bort fra tradisjonelle platelager (HDD) i større grad enn tidligere. Går vi noen tiår tilbake i tid, var det platelager som dominerte produksjonsområdene, mens backup var forbeholdt tape.

I takt med økende datamengde og behov for ytelse, har produksjonen blitt overtatt av flashlagring (SSD) og at backup i større grad kjøres mot platelager. Dette er selvsagt et kostnadsspørsmål, men stadig flere bedrifter merker at det ikke bare er svært ressurskrevende å kjøre backup, men det kan fort bli svært dyrt dersom dataene ikke er tilgjengelig.

Den sisten tiden ser vi kunder som har gått for “all-flash”, altså at både produksjons- og backupmiljøet arbeider mot flashlagring. Vi hadde nylig en kunde som anskaffet to petabyte med flashlagring, hvor kunden selv mente at det ville være kostnadsbesparende bare med tanke på dataadministrasjonen.

Spørsmål som hvor skal databasen ligge?, hvor kan vi ha fillager?, kan data flyttes når den raske disken er full? dukker stadig opp. I slike scenarioer vil det å administrere data og lagring koste mye menneskelige ressurser. Samtidig kan det være svært kostnadsbesparende å gi alle plattformer og applikasjoner maksimal ytelse uten ekstra administrasjon for flytting av data mellom de forskjellige disknivåene.

En svært sentral detalj ligger bak ytelsen og kapasiteten kundene får i varene. Hitachi lager egne SSD-enheter (FMD) med egne prosessorer som komprimerer data på lagringsenheten og avlaster prosessoren.

Ved siden av komprimering, gjennomfører den diskkontroll, organiserer deduplisering og bistår til en ytelsesøkning på 3-5 ganger en tradisjonell SSD.

Rent kapasitetsmessig finnes disse nå i versjoner med 7 og 14 terrabyte, men hvor det er ventet at 28 terrabyte blir sluppet rundt denne siden i 2018, forteller Nygren.

Personvern og stordata

Felles for alt vi har snakket om her er stordata; de store mengdene av data som både samles inn, men også de dataene som prosesseres og struktureres internt i datasettet.

Ta for eksempel dagens situasjon hvor en samler data fra mange forskjellige kilder som sensorer, Exchange, pasientjournaler, databaser, foto- og saksbehandlingssystemer. Den store kunsten er ikke bare å lagre disse strukturert, men også å kunne tagge dem slik at de kan hentes og gjenbrukes ved behov.

Hitachi har, gjennom oppkjøpet av Pentago, kunnet tilby løsninger for å analysere og presentere data for lettere å tillegge metadata til de dataene du har liggende.

En svært interessant og høyst relevant problemstilling vil være den nye personvernloven som trer i kraft mai 2018. Det vil være kritisk å ha mulighet for å metatagge informasjon, slik at behandlingsansvarlig kan la databehandlerne få oversikt over hvilken informasjon som befinner seg i bedriftens datasystemer. Hvilke er kritiske for bedriften, hvilke er lovpålagt å enten arkivere eller slette, avslutter Nygren.

Kommentarer