Koristni ukazi Hadoop Shell



Ta spletni dnevnik opisuje vse koristne ukaze lupine Hadoop. Skupaj z ukazi Hadoop Shell ima tudi posnetke zaslona, ​​ki olajšajo učenje. Beri naprej!

HDFS pomeni „ H adoop D istributed F s S ystem ’. HDFS je podprojekt projekta Apache Hadoop. Ta projekt Apache Software Foundation je zasnovan tako, da zagotavlja datotečni sistem, odporen na napake, zasnovan za delovanje na osnovni strojni opremi. HDFS je dostopen prek nabora ukazov lupine, o katerih bomo razpravljali v tem prispevku.





Kratek opomba pred začetkom: skript bin / hadoop prikliče vse ukaze lupine Hadoop.

Uporabniški ukazi:

  • Zaženi datotečni sistem DFS:

Uporaba: hadoop fsck - /



Zaženi-DFS-datotečni sistem (1)

  • C vraga različica Hadoopa :

Uporaba: različica Hadoop



Ukazi lupine FS:

Ukaz Hadoop fs zažene splošnega uporabniškega odjemalca datotečnega sistema, ki je v interakciji z datotečnim sistemom MapR (MapR-FS).

  • Ogled seznamov datotek:

Uporaba: hadoop fs -ls hdfs: /

kako nastaviti pot v javi -
  • Preverite stanje pomnilnika:

Uporaba: hadoop fs -df hdfs: /

  • Število imenikov, datotek in bajtov v določeni poti in vzorcu datoteke:

Uporaba: hadoop fs -števek hdfs: /

  • Premaknite datoteko z ene lokacije na drugo:

Uporaba: -mv

  • Kopirajte datoteko iz vira na cilj :

Uporaba: -cp

  • Izbriši datoteko:

Uporaba: -rm

  • Datoteko iz lokalnega datotečnega sistema postavite v razdeljeni datotečni sistem Hadoop:

Uporaba: -put…

  • Kopiraj datoteko iz Local v HDFS:

Uporaba: -copyFromLocal…

  • Oglejte si datoteko v sistemu distribuiranih datotek Hadoop :

Uporaba: -cat

Skrbniški ukazi:

  • Format the namenode :

Usage: hadoop namenode -format

  • Starting Secondary namenode:

Uporaba: hadoop secondrynamenode

  • Run namenode :

Usage: hadoop namenode

  • Teči podatkovno vozlišče :

Uporaba: hadoop podatkovno vozlišče

  • Uravnoteženje grozdov :

Uporaba: hadoop balanser

  • Zaženi vozlišče sledilca opravil MapReduce:

Uporaba: sledilnik opravil hadoop

  • Zaženite vozlišče sledilnika opravil MapReduce:

Uporaba: hadoop tasktracker

Imate vprašanje za nas? Prosimo, da jih omenite v oddelku za komentarje, pa se vam bomo oglasili.

implementacija hashmapa v kodo Java

Sorodne objave:

Operaterji v Apache Pig