Hjem trender De 10 viktigste hadoop-begrepene du trenger å vite og forstå

De 10 viktigste hadoop-begrepene du trenger å vite og forstå

Innholdsfortegnelse:

Anonim

Big data, det fengende navnet for massive mengder strukturerte, ustrukturerte eller semistrukturerte data, er notorisk vanskelig å fange opp, lagre, administrere, dele, analysere og visualisere, i det minste ved bruk av tradisjonelle database- og programvareapplikasjoner. Derfor har big data-teknologier potensialet til å administrere og behandle store datamengder effektivt og effektivt. Og det er Apache Hadoop som gir rammen og tilhørende teknologier for å behandle store datasett på tvers av datamaskiner på en distribuert måte. Så for å virkelig forstå big data, må du forstå litt om Hadoop. Her skal vi se på de beste begrepene du vil høre med hensyn til Hadoop - og hva de betyr.

Webinar: Big Iron, Meet Big Data: Liberating Mainframe Data with Hadoop & Spark

Registrer her

Men først en titt på hvordan Hadoop fungerer

Før du går inn i Hadoop-økosystemet, må du forstå to grunnleggende ting tydelig. Den første er hvordan en fil lagres i Hadoop; det andre er hvordan lagrede data behandles. Alle Hadoop-relaterte teknologier fungerer hovedsakelig på disse to områdene og gjør det mer brukervennlig. (Få grunnleggende om hvordan Hadoop fungerer i hvordan Hadoop hjelper med å løse Big Data-problemet.)

Nå videre til vilkårene.

De 10 viktigste hadoop-begrepene du trenger å vite og forstå