Hjem databaser Hva er Hadoop distribuert filsystem (hdfs)? - definisjon fra techopedia

Hva er Hadoop distribuert filsystem (hdfs)? - definisjon fra techopedia

Innholdsfortegnelse:

Anonim

Definisjon - Hva betyr Hadoop Distribuert File System (HDFS)?

Hadoop Distribution File System (HDFS) er et distribuert filsystem som kjører på standard eller avansert maskinvare. HDFS er utviklet av Apache Hadoop, og fungerer som et standard distribuert filsystem, men gir bedre datagjennomstrømning og tilgang gjennom MapReduce-algoritmen, høy feiltoleranse og innebygd støtte for store datasett.

Techopedia forklarer Hadoop Distribution File System (HDFS)

HDFS lagrer en stor mengde data som er plassert på flere maskiner, vanligvis i hundrevis og tusenvis av tilkoblede noder samtidig, og gir datapålitelighet ved å gjenskape hver datainstans som tre forskjellige kopier - to i en gruppe og en i en annen. Disse kopiene kan erstattes i tilfelle feil.

HDFS-arkitekturen består av klynger, som hver får tilgang til gjennom et enkelt NameNode-programvareverktøy som er installert på en separat maskin for å overvåke og administrere den klyngens filsystem og brukeradgangsmekanisme. De andre maskinene installerer en forekomst av DataNode for å administrere klyngelager.

Fordi HDFS er skrevet i Java, har den egen støtte for Java-applikasjonsprogrammeringsgrensesnitt (API) for applikasjonsintegrering og tilgjengelighet. Du kan også få tilgang til den via vanlige nettlesere.

Hva er Hadoop distribuert filsystem (hdfs)? - definisjon fra techopedia