Hjem På nyhetene Dagens store datautfordring stammer fra variasjon, ikke volum eller hastighet

Dagens store datautfordring stammer fra variasjon, ikke volum eller hastighet

Innholdsfortegnelse:

Anonim

Utfordringen med å håndtere og utnytte big data kommer fra tre elementer, ifølge Doug Laney, forskningsdirektør i Gartner. Laney bemerket først for mer enn ti år siden at big data utgjør et slikt problem for bedriften fordi de introduserer vanskelig å administrere volum, hastighet og variasjon. Problemet er at for mange IT-avdelinger kaster alt de har på spørsmål om datavolum og hastighet, og glemmer å ta opp det grunnleggende problemet med mangfoldigheten av data.

Tilbake i 2001 skrev Laney at "ledende bedrifter i økende grad vil bruke et sentralisert datavarehus for å definere et vanlig forretningsordforråd som forbedrer internt og eksternt samarbeid." Spørsmålet om det ordforrådet - og variabiliteten som hindrer selskaper i å opprette det - er fortsatt det minst adresserte aspektet av big data conundrum i dag. (Sjekk hva andre eksperter har å si. Sjekk ut Big Data-eksperter som skal følges på Twitter.)

Tre versjoner av big data

Flere bedrifter har funnet metoder for å utnytte økt datavolum og hastighet. Facebook kan for eksempel analysere enorme datamengder. Naturligvis blir data ofte presentert om og om igjen innenfor de samme parametrene. Dette drev teknologiinnovasjoner som kolonnedatabaser, som nå er mye brukt av andre selskaper som står overfor like store butikker med lignende dataelementer.

Dagens store datautfordring stammer fra variasjon, ikke volum eller hastighet