發新話題
打印

Linux Cluster for NFS安裝及設定分享

Linux Cluster for NFS安裝及設定分享

一.作業環境介紹:

項 目 主機名稱 OS版本   IP        說明

 一 Storage RHEL4U1 192.168.1.40 作為Shared Disk使用
 二 Node1 RHEL4U1 192.168.1.41 Cluster的節點一
 三 Node1 RHEL4U1 192.168.1.42 Cluster的節點二


二.目地:

 由於實作Cluster環境通常都需要有Share Disk,而Share Disk都須要購買

DiskArray,但如果只是要測試,可以使用iSCSI方式來練習,所以我們將以

iSCSI方式來模擬,但須要注意OS,最好是拿RHEL 3版本或以上來練習,雖然版

本2就有支援,可是相關Cluster軟體在版本3或以上才比較穩定。


三.安裝方式介紹:

《介紹iSCSI Target安裝》

在storage主機上:

# tar zxvf iscsitarget-0.4.5.tar.gz

# cd iscsitarget-0.4.5

# export KERNELSRC=/usr/src/kernels/<kernel version>
(我使用的是2.6.9-11.EL-i686這一個Kernel)

# make && make install(開始進行編譯及安裝)

※確定沒有出現錯誤,再進行下一步

# grep –v ‘#’ etc/ietd.conf > /etc/ietd.conf

# vi /etc/ietd.conf

※請注意必須先分割一塊空間當作Share Disk使用,並且不可以Mount進行,我

 這邊使用的是/dev/sda3這一個分割區修改內容如以下所示:

    1.Target iqn.2007-03.unix-like.idv.tw:storage.disk1.sys1.xyz
    2.Lun 0 /dev/sda3 fileio
    3.Alias Test

# /etc/init.d/iscsi-target start

# chkconfig iscsi-target on

# dmesg(查看是否有以下訊息)

    iSCSI Enterprise Target Software - version 0.4.5
    iotype_init(91) register fileio
    target_param(109) d 1 8192 262144 65536 2 20 8 0


《Node1 & Node2安裝iSCSI Initiator》

在Node1:

# rpm –Uvh mkinitrd-4.2.1.6-1.i386.rpm
(請使用昇級方式來安裝mkinitrd)

# rpm –ivh kernel-2.6.9-42.EL.i686.rpm
(請重新開機,並選擇這個Kernel登入)

# rpm –ivh sysfsutils-1.2.0-1.i386.rpm

# rpm –ivh iscsi-initiator-utils-4.0.3.0-2.i386.rpm

# vi /etc/iscsi.conf(修改內容如下)

  #DiscoveryAddress=10.4.100.0
  DiscoveryAddress=192.168.1.40(只須增加這一行,IP為Storage的IP)
  # or
  #DiscoveryAddress=10.4.100.1:3260

# service iscsi start

# chkconfig iscsi on

# fdisk –l 或 cat /proc/scsi/scsi
(檢查是否有多出顆硬碟)

※請先分割一個區塊並且格式化,我們切割一塊500 MB,名稱為/dev/sdb1

# mkdir /nfsdata
(測試使用)

# mount /dev/sdb1 /nfsdata
(確定是否可以產生檔案)

# umount /nfs_data


※請在Node2節點上做相同步驟


《Node1 & Node2安裝Cluster》

在Node1上:

# rpm –ivh magma-1.0.6-0.i686.rpm

# rpm –ivh ccs-1.0.7-0.i686.rpm

# rpm –ivh cman-kernel-2.6.9-45.2.i686.rpm

# rpm –ivh cman-1.0.11-0.i686.rpm

# rpm –ivh dlm-kernel-2.6.9-42.10.i686.rpm

# rpm –ivh dlm-1.0.1-1.i686.rpm

# rpm –ivh gulm-1.0.7-0.i686.rpm

# rpm –ivh perl-Net-Telnet-3.03-3.noarch.rpm

# rpm –ivh fence-1.32.25-1.i686.rpm

# rpm –ivh iddev-2.0.0-3.i686.rpm

# rpm –ivh magma-plugins-1.0.9-0.i386.rpm

# rpm –ivh rgmanager-1.9-53-0.i386.rpm

# rpm –ivh system-config-cluster-1.0.27-1.0.noarch.rpm


※請在Node2節點上做相同步驟


《在Node1上設定NFS Cluster》

# system-config-cluster

※建議當第一次進來,會詢問是否建立新的設定檔,請先按下『Create New  

 Configuration』,並且馬上儲存離開

# vi /etc/cluster/cluster.conf
(修改名稱如:Cluster1)

# system-config-cluster

請依照下面方式輸入相關資料

1.在【Cluster+Cluster Nodes】,選擇“Add a Cluster Node”,將Node1及

 Node2的FQDN完整名稱輸入

2.在【Cluster+Fence Devices】,選擇“Add a Fence Device”,請選

 擇“Manual Fencing”種類,再輸入名稱“NPS”

3.在【Cluster+Cluster Nodes】,選擇“節點1”,請選擇“Fence

 Configuration”,進去後,再選擇“Add a New Fence Level”,會增加一

 個“Fence-Level-1”項目,再點選擇這個項目,選擇“Add a New Fence to

 this Level”,再按下OK,節點2也是相同做法


4.在【Cluster+Managed Resources+Failover Domains】,選擇“Create a

 Failover Domain,輸入”nfsha“名稱”,出現組態畫面,請先選擇節點1,

 再選擇節點2,您可以在這裡將右邊的“Proritized List”打勾,來決定優先順

 序,數字愈小優先權愈高

5.在【Cluster+Managed Resources+Resouces】,請選擇“Create a

 Resource”,請先選擇“File System”,名稱輸入“nfsdata”,格式

 為”ext3“,Mount Point為”/nfsdata”,Device為“/dev/sdb1”

6.在【Cluster+Managed Resources+Resouces】,請選擇“Create a

 Resource”,請先選擇“NFS Client”,名稱輸入“any_host”,Target

 為“*”

7.在【Cluster+Managed Resources+Resouces】,請選擇“Create a

 Resource”,請先選擇“NFS Export”,名稱輸入“nfs_export”

8.在【Cluster+Managed Resources+Resouces】,請選擇“Create a

 Resource”,請先選擇“IP Address”,請輸入“192.168.1.45”

9.【Cluster+Managed Resources+Services】,請選擇“Create a

 Service”,輸入“nfs1”,請先在右上角的的Failover Domain改

 為”nfsha“,按下下面的”Add a Shared Resource to this service“,請

 先選擇”nfsdata“,再按一下剛剛新增的nfsdata,再選擇下方的”Attach a

 Shard Resource to the selection“,選擇”nfs_export“,再按一下

 nfs_export,再選擇下方的”Attach a Shard Resource to the selection“,

 選擇”any_host“,最後選擇”Add a Shared Resource to this service“,

 選擇”192.168.1.45 IP Address“,即大功告成

10.最後記得儲存離開


# scp –r /etc/cluster node2:/etc
(注意,是整個目錄拷貝過去)

※請依序在Node1及Node2啟動服務
(每一個服務都要同時啟動完成,再啟動下一個服務)

# service ccsd start
(檢查Cluster版本有無異動,啟動時間會比較久)

# service cman start
(Cluster manager)

# service fenced start
(啟動電源設備,在測試時會出現Failed,不過不會影響後面的操作)

# service rgmanager start
(管理resource)


※如果啟動有問題的話,請依照相反順序來進行關閉


《進行測試NFS Cluster》

您可以利用以下幾種方法來進行測試

# ping 192.168.1.45
(是否有回應狀況)

# showmount –e 192.168.1.45
(查看是否有分享目錄出來)

# mount 192.168.1.45:/nfsdata /nfsdata
(確定是否可以正常Mount進來,如果要寫入檔案,記得權限要開)

# system-config-cluster
(請選擇Cluster Manager,以確定服務否有啟動)

利用其它電腦進行掛載後,再將目前使用的節點關機,以查看是否Failover過去

From http://phorum.study-area.org/viewtopic.php?t=44931

TOP

發新話題