GNU/Linux >> Linux の 問題 >  >> Cent OS

CentOS6.3でGlusterFS3.2.xを使用してNFSのようなスタンドアロンストレージサーバーを作成する

このチュートリアルでは、CentOs6.3でスタンドアロンストレージサーバーをセットアップする方法を示します。ここでは、NFSの代わりにGlusterFSを使用します。クライアントシステムは、ローカルファイルシステムであるかのようにストレージにアクセスできます。GlusterFSは、数ペタバイトに拡張できるクラスター化されたファイルシステムです。 InfinibandRDMAまたはTCP/IP相互接続を介してさまざまなストレージブリックを1つの大規模な並列ネットワークファイルシステムに集約します。ストレージブリックは、SATA-IIRAIDおよびInfinibandHBAを備えたx86_64サーバーなどの任意のコモディティハードウェアで作成できます。

これがあなたのために働くという保証はありません!

1予備メモ

このチュートリアルでは、サーバーとクライアントの2つのシステムを使用します。

  • server1.example.com:IPアドレス192.168.0.100(サーバー)
  • server2.example.com:IPアドレス192.168.0.101(クライアント)

両方のシステムが、もう一方のシステムのホスト名を解決できる必要があります。 DNSを介してこれを実行できない場合は、両方のシステムで次のようになるように/ etc/hostsファイルを編集する必要があります。

vi /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.0.100   server1.example.com     server1
192.168.0.101   server2.example.com     server2

::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

(次の設定では、ホスト名の代わりにIPアドレスを使用することもできます。IPアドレスを使用する場合は、ホスト名を解決できるかどうかを気にする必要はありません。)

2追加のリポジトリを有効にする

server1 / server2:

まず、ソフトウェアパッケージのGPGキーをインポートします:

rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY*

次に、2つのCentOSシステムでEPEL6リポジトリを有効にします。

rpm --import https://fedoraproject.org/static/0608B895.txt

cd / tmp
wget http://dl.fedoraproject.org/pub/epel/6/x86_64/epel-release-6-7.noarch.rpm
rpm -ivh epel-release-6- 7.noarch.rpm

yum install yum-priorities

/etc/yum.repos.d/epel.repoを編集します...

vi /etc/yum.repos.d/epel.repo

...そして[epel]セクションにpriority=10という行を追加します:

[epel]
name=Extra Packages for Enterprise Linux 6 - $basearch
#baseurl=http://download.fedoraproject.org/pub/epel/6/$basearch
mirrorlist=https://mirrors.fedoraproject.org/metalink?repo=epel-6&arch=$basearch
failovermethod=priority
enabled=1
priority=10
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-6
[...]

3GlusterFSサーバーのセットアップ

server1.example.com:

GlusterFSはEPELのパッケージとして利用できるため、次のようにインストールできます。

yum install glusterfs-server

Glusterデーモンのシステム起動リンクを作成して起動します:

chkconfig --levels 235 glusterd on
/etc/init.d/glusterd start

コマンド

glusterfsd --version

インストールしたばかりのGlusterFSバージョン(この場合は3.2.7)が表示されます:

[[メール保護]〜]#glusterfsd --version
glusterfs3.2.7ビルド日2012年6月11日13:22:28
リポジトリリビジョン:git://git.gluster.com/glusterfs.git
Copyright(c)2006-2011 Gluster Inc.
GlusterFSには、まったく保証がありません。
GlusterFSのコピーは、次の条件で再配布できます。 GNU General PublicLicense。
[[メール保護]〜]#

ファイアウォールを使用する場合は、TCPポート111、24007、24008、24009-(24009 +すべてのボリュームにわたるブリックの数)がserver1.example.comで開いていることを確認してください。

次に、ローカルホスト(=server1)の/ dataディレクトリにtestvolという名前の共有を作成します(これは、存在しない場合に作成されます):

gluster volume create testvol server1.example.com:/data

[[メール保護]〜]#gluster volume create testvol server1.example.com:/data
ボリュームtestvolの作成に成功しました。ボリュームを起動してデータにアクセスしてください。
[[メール保護]〜]#

ボリュームを開始します:

gluster volume start testvol

コマンド

を使用して、ボリュームのステータスを確認できます。
gluster volume info
[[email protected] ~]# gluster volume info

ボリューム名:testvol
タイプ:配布
ステータス:開始済み
ブリックの数:1
トランスポートタイプ:tcp
ブリック:
ブリック1:server1。 example.com:/ data
[[メール保護]〜]#

ボリュームが開始されたことが示されている場合は、すべて問題ありません。それ以外の場合は、ボリュームを再開してください。

デフォルトでは、すべてのクライアントがボリュームに接続できます。 client1.example.com(=192.168.0.101)のみへのアクセスを許可する場合は、次を実行します。

gluster volume set testvol auth.allow 192.168.0.101

IPアドレスにワイルドカードを使用することが可能であり(192.168. *など)、コンマで区切って複数のIPアドレスを指定できることに注意してください(例:192.168.0.101,192.168.0.102)。

ボリューム情報に更新されたステータスが表示されます:

gluster volume info
[[email protected] ~]# gluster volume info

ボリューム名:testvol
タイプ:配布
ステータス:開始済み
ブリックの数:1
トランスポートタイプ:tcp
ブリック:
ブリック1:server1。 example.com:/ data
再構成されたオプション:
auth.allow:192.168.0.101
[[email protected]〜]#

 

4GlusterFSクライアントのセットアップ

server2.example.com:

クライアントでは、次のようにGlusterFSクライアントをインストールできます。

yum install glusterfs-client

次に、次のディレクトリを作成します。

mkdir /mnt/glusterfs

それでおしまい!これで、次のコマンドを使用してGlusterFSファイルシステムを/ mnt/glusterfsにマウントできます。

mount.glusterfs server1.example.com:/testvol /mnt/glusterfs

これで、出力に新しいシェアが表示されるはずです...

mount

[[メール保護]〜]#mount
/ dev / mapper / vg_client1-LogVol00 on / type ext4(rw)
proc on / proc type proc(rw)
sysfs on / sys type sysfs(rw)
devpts on / dev / pts type devpts(rw、gid =5、mode =620)
tmpfs on / dev / shm type tmpfs(rw)
/ dev / sda1 on / boot type ext4(rw)
none on / proc / sys / fs / binfmt_misc type binfmt_misc(rw)
sunrpc on / var / lib / nfs / rpc_pipefs type rpc_pipefs(rw)
server1.example.com:/testvol on / mnt / glusterfsタイプfuse.glusterfs(rw、allow_other、default_permissions、max_read =131072)
[[email protected]〜]#

...そして...

df -h

[[email protected]〜]#df -h
Filesystem Used Available Use%Mounted on
/ dev / mapper / vg_client1-LogVol00
br /> G 9.7 G 9.7 G /> tmpfs 499M 0 499M 0%/ dev / shm
/ dev / sda1 504M 39M 440M 440M 9%/ boot
server1.example.com %/ mnt / glusterfs
[[メール保護]〜]#

GlusterFS共有をクライアントに手動でマウントする代わりに、/ etc / fstabを変更して、クライアントの起動時に共有が自動的にマウントされるようにすることができます。

/ etc / fstabを開き、次の行を追加します。

vi /etc/fstab  
[...]
server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0

変更した/etc/ fstabが機能しているかどうかをテストするには、クライアントを再起動します。

reboot

再起動後、出力に共有が表示されます...

df -h

...そして...

mount

  • GlusterFS:http://www.gluster.org/
  • GlusterFS 3.2ドキュメント:http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
  • CentOS:http://www.centos.org/

Cent OS
  1. CentOS7上のGlusterFSを使用した高可用性ストレージ-2つのストレージサーバー間でミラーリング

  2. Ubuntu12.10でGlusterFS3.2.xを使用してNFSのようなスタンドアロンストレージサーバーを作成する

  3. DebianLennyでGlusterFSを使用してNFSのようなスタンドアロンストレージサーバーを作成する

  1. DebianSqueezeでGlusterFS3.0.xを使用してNFSのようなスタンドアロンストレージサーバーを作成する

  2. CentOS5.4でGlusterFSを使用してNFSのようなスタンドアロンストレージサーバーを作成する

  3. CentOS 5.4でのGlusterFSによる高可用性ストレージ-2つのストレージサーバー間での自動ファイルレプリケーション(ミラー)

  1. CentOS5.4上のGlusterFSを使用した4つのストレージノードに分散されたレプリケートされたストレージ

  2. CentOS5.4上のGlusterFSを使用した4つのストレージノードにまたがる分散ストレージ

  3. CentOS5.4のGlusterFSを使用した4つのストレージノード間のストライピング