Innholdsfortegnelse:
Definisjon - Hva betyr Hadoop Common?
Hadoop Common refererer til samlingen av felles verktøy og biblioteker som støtter andre Hadoop-moduler. Det er en essensiell del eller modul i Apache Hadoop Framework, sammen med Hadoop Distribuert File System (HDFS), Hadoop YARN og Hadoop MapReduce. Som alle andre moduler antar Hadoop Common at maskinvarefeil er vanlige, og at disse bør håndteres automatisk i programvare av Hadoop Framework.
Hadoop Common er også kjent som Hadoop Core.