Spørsmål: Er Hadoop for alle?
A: Apache open source Hadoop databehandlingsressurs og relaterte verktøy blir innflytelsesrike i big data-verdenen. Men i løpet av å ta i bruk nyere, mer moderne IT-løsninger, spør selskaper om Hadoop er et universelt verktøy som bør brukes bredt på big data og analyseprosesser.
I virkeligheten er det flere betraktninger for om et system kommer til å dra stor nytte av implementeringen av Hadoop. Det ene er om big data er relevant for bransjen. Med andre ord, om virksomheten vil drive med anskaffelse og analyse av ekstremt store datasett, datasett større enn hva som kan analyseres ved hjelp av en tradisjonell relasjonsdatabase.
I tillegg kan selskaper velge mellom Hadoop og andre proprietære verktøy som kan kreve mindre teknisk dyktighet. Noen andre teknologiselskaper bygger lignende big data-verktøy som kan ha mer intuitive grensesnitt eller snarveier for å la mindre erfarne brukere gjøre mer med big data.
Samtidig er det en enighet om at de fleste big data-prosjekter kan dra nytte av Hadoop med tilstrekkelig administrasjon. Verktøy som Apache Hive warehouse design og Apache Pig-programmeringssyntaks for big data utvider det Hadoop kan gjøre. Andre fremskritt, som Hadapt og MapR, gjør syntaks og bruk av Hadoop mer oversiktlig for et bredere spekter av brukere, eller med andre ord, og begynner å gjøre unna "teknisk" -problemet.
Generelt sett må virksomheten se på hvor mye big data den bruker og hvor disse dataene kommer fra. Ledere og ledere må vurdere hvem som skal jobbe med IT-prosjektene som er involvert, og deres ferdigheter og bakgrunn. De må forstå forskjellen mellom implementeringen av forskjellige big data-verktøy. Dette vil hjelpe ledergrupper til å forstå om Hadoop passer for prosjektene deres.


