2015年1月16日 星期五

Hadoop 2 installation - Part2 - 安裝單機版Hadoop

前言:
上一篇的基本環境完成後,接著本篇開始安裝hadoop,下一篇會安裝hbase,這些都是環環相扣的,沒有hadoop的hdfs,hbase也無法安裝的 我這邊說的單機版就是所謂的偽分散模式,也就是Namenode DataNode ResourceManager.....什麼角色都在同一台上面,有空寫到後面時就會把每一個角色都裝在一台虛擬機器上

步驟一: 
編輯hosts,給127.0.0.1一個hostname叫做UB1404 
sudo nano /etc/hosts 
ping看看是否成功

步驟二:
將下載的hadoop-2.6.0.tar.gz解壓縮到家目錄,路徑是我的習慣,可依照個人口味不同酌量使用,這裡我是懶惰隨便找個地方放而已 
tar zxf hadoop-2.6.0.tar.gz -C /home/你的名稱

步驟三:
編輯bashrc檔案(不會編輯看上一篇教學),在這檔案的最下面加入環境變數,見下圖
 存擋退出後,確認一下hadoop是否安裝正確

步驟四:
本步驟要編輯的設定檔位置跟hadoop 1.X不太一樣,2.X版的已經變到${HADOOP_HOME}\etc\hadoop了,最起碼要修改的是下圖中的五個檔案,至於分別代表什麼,有看過我以前的文章或是拜過google大神的都知道,最大的差別在於mapred-site.xml變成yarn-site.xml
 這五個檔案內容分別修改成如下圖,這只是最基本設定,想要更進階請拜神 





 步驟五:
再來是重要的ssh登入,這邊錯了甚麼服務都起不來,千萬注意
偽分散就是hadoop所有的功能角色或者說是節點都在同一台機器上面,也就是要讓自己模擬成很多服務,所以這邊的ssh就是要自己登入自己
首先,確認有無安裝openssh-server
 安裝完,分別輸入下列兩行指令,要跟下面畫面一樣才算是成功
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
         cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
第一行指令代表在家目錄內,產生 SSH 連線金鑰憑證第二行指令代表 金鑰產生之後,接著要將金鑰複製到家目錄中的 .ssh 目錄並更名為〝authorized_keys〞 
完成後輸入ssh UB1404登入自己,第一次會出現輸入yes/no的畫面,一律都是yes,成功登入後exit是跳出,如果再登入一次沒有詢問 yes/no才代表是真正成功
步驟六:在家目錄下建立一個給HDFS使用的資料夾 
mkdir data/namenode, mkdir data/datanode
接下來就是重頭戲,hadoop namenode -format這動作就像買一顆新硬碟回來時要做格式化,符合OS可以使用的file system一樣 

若沒問題的話會看到以上的畫面,這指令結束後會關閉namenode,所以這裡還沒啟動hadoop服務,這時可以先看看格式化後的data資料夾結構,輸入 tree data


切記切記,format這動作不要亂做,不然你的datanode會不認得你的namenode導致整個hadoop系統走鐘步驟六:啟動hadoop,分別輸入start-dfs.sh以及start-yarn.sh啟動完後可以輸入jps看看啟動了那一些服務,一切都沒問題的話,會看到跟下圖一樣的畫面
 也可以用些指令check HDFS status跟yarn status
目前只有一台,日後完全分散模式會看到比較多台一點 也可以在瀏覽器的網址列輸入UB1404:50070看看hadoop內建的web介面網路上有很多指令的教學,我這邊就不重覆演練了,有了環境想要怎麼玩就怎麼玩,玩爛了大不了就是重掛一個硬碟檔  這篇先到到此為止,下篇再繼續安裝HBase



沒有留言:

張貼留言