GNU/Linux >> Linux の 問題 >  >> Debian

Debian WheezyでのGlusterFS3.2.xによる高可用性ストレージ-2つのストレージサーバー間での自動ファイルレプリケーション(ミラー)

このチュートリアルでは、GlusterFSを使用する2つのストレージサーバー(Debian Wheezy)を使用して高可用性ストレージをセットアップする方法を示します。各ストレージサーバーは他のストレージサーバーのミラーになり、ファイルは両方のストレージサーバーに自動的に複製されます。クライアントシステム(Debian Wheezyも)は、ローカルファイルシステムであるかのようにストレージにアクセスできます。GlusterFSは、数ペタバイトに拡張できるクラスター化されたファイルシステムです。 InfinibandRDMAまたはTCP/IP相互接続を介してさまざまなストレージブリックを1つの大規模な並列ネットワークファイルシステムに集約します。ストレージブリックは、SATA-IIRAIDおよびInfinibandHBAを備えたx86_64サーバーなどの任意のコモディティハードウェアで作成できます。

これがあなたのために働くという保証はありません!

1予備メモ

このチュートリアルでは、3つのシステム、2つのサーバー、および1つのクライアントを使用します。

  • server1.example.com:IPアドレス192.168.0.100(サーバー)
  • server2.example.com:IPアドレス192.168.0.101(サーバー)
  • client1.example.com:IPアドレス192.168.0.102(クライアント)

3つのシステムすべてが、他のシステムのホスト名を解決できる必要があります。 DNSを介してこれを実行できない場合は、3つのシステムすべてで次のようになるように/ etc/hostsファイルを編集する必要があります。

vi /etc/hosts
127.0.0.1       localhost.localdomain   localhost
192.168.0.100   server1.example.com     server1
192.168.0.101   server2.example.com     server2
192.168.0.102   client1.example.com     client1

# The following lines are desirable for IPv6 capable hosts
::1     localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
ff02::3 ip6-allhosts

(次の設定では、ホスト名の代わりにIPアドレスを使用することもできます。IPアドレスを使用する場合は、ホスト名を解決できるかどうかを気にする必要はありません。)

2GlusterFSサーバーのセットアップ

server1.example.com/server2.example.com:

GlusterFSはDebianWheezyのパッケージとして利用できるため、次のようにインストールできます。

apt-get install glusterfs-server

コマンド

glusterfsd --version

インストールしたばかりのGlusterFSバージョン(この場合は3.2.7)が表示されます:

[メール保護]:〜#glusterfsd --version
glusterfs3.2.7ビルド日2012年11月12日19:30:08
リポジトリリビジョン:git://git.gluster.com/glusterfs.git
Copyright(c)2006-2011 Gluster Inc.
GlusterFSには一切の保証がありません。
GlusterFSのコピーは、 GNU General PublicLicense。
[メール保護]:〜#

ファイアウォールを使用する場合は、TCPポート111、24007、24008、24009-(24009 +すべてのボリュームにわたるブリックの数)がserver1.example.comおよびserver2.example.comで開いていることを確認してください。

次に、server2.example.comを信頼できるストレージプールに追加する必要があります(server1.example.comからすべてのGlusterFS構成コマンドを実行していますが、構成がGlusterFSノード間で複製されました-正しいホスト名またはIPアドレスを使用していることを確認してください):

server1.example.com:

server1.example.comで、

を実行します
gluster peer probe server2.example.com

[メール保護]:〜#glusterピアプローブserver2.example.com
プローブが成功しました
[メール保護]:〜#

これで、信頼できるストレージプールのステータスは次のようになります。

gluster peer status

[メール保護]:〜#glusterピアステータス
ピア数:1

ホスト名:server2.example.com
Uuid:d19cb707-7b23-4d11-8e9c-183cd0a18d96
状態:クラスター内のピア(接続済み)
[メール保護]:〜#

次に、2つのレプリカを持つtestvolという名前の共有を作成します(この場合、ミラーリングを設定するため、レプリカの数はサーバーの数と同じであることに注意してください)。 / dataディレクトリ(存在しない場合は作成されます):

gluster volume create testvol replica 2 transport tcp server1.example.com:/data server2.example.com:/data

[メールで保護]:〜#gluster volume create testvol Replica 2 transport tcp server1.example.com:/data server2.example.com:/data
volumetestvolの作成に成功しました。ボリュームを起動してデータにアクセスしてください。
[メールで保護]:〜#

ボリュームを開始します:

gluster volume start testvol

上記のコマンドは、アクションが成功しなかったことを示している可能性があります:

[メール保護]:〜#gluster volume start testvol
ボリュームtestvolの開始に失敗しました
[メール保護]:〜#

この場合、次の出力を確認する必要があります...

server1.example.com/server2.example.com:

netstat -tap | grep glusterfsd

両方のサーバーで。

このような出力が得られたら...

[メールで保護]:〜#netstat -tap | grepのglusterfsd
TCP 0 0 *:24009 *:* LISTEN 1548 / glusterfsd
TCP 0 0 localhost.localdom:1019 localhost.localdo:24007 ESTABLISHED 1548 / glusterfsd
[電子メールが保護された]:〜 #

...すべて問題ありませんが、出力が得られない場合は...

[メール保護]:〜#netstat -tap | grep glusterfsd
[メール保護]:〜#

...対応するサーバー(この場合はserver2.example.com)でGlusterFSデーモンを再起動します:

server2.example.com:

/etc/init.d/glusterfs-server restart

次に、...

の出力を確認します
netstat -tap | grep glusterfsd

...再びそのサーバー上で-これで次のようになります:

[メールで保護]:〜#netstat -tap | grepのglusterfsd
TCP 0 0 *:24010 *:* LISTEN 1458 / glusterfsd
TCP 0 0 localhost.localdom:1021 localhost.localdo:24007 ESTABLISHED 1458 / glusterfsd
[電子メールが保護された]:〜 #

ここでserver1.example.comに戻ります:

server1.example.com:

コマンド

を使用して、ボリュームのステータスを確認できます。
gluster volume info
[email protected]:~# gluster volume info

ボリューム名:testvol
タイプ:複製
ステータス:開始済み
ブリックの数:2
トランスポートタイプ:tcp
ブリック:
ブリック1:server1。 example.com:/data
Brick2:server2.example.com:/data
[メール保護]:〜#

デフォルトでは、すべてのクライアントがボリュームに接続できます。 client1.example.com(=192.168.0.102)のみへのアクセスを許可する場合は、次を実行します。

gluster volume set testvol auth.allow 192.168.0.102

IPアドレスにワイルドカードを使用することが可能であり(192.168. *など)、コンマで区切って複数のIPアドレスを指定できることに注意してください(例:192.168.0.102,192.168.0.103)。

ボリューム情報に更新されたステータスが表示されます:

gluster volume info
[email protected]:~# gluster volume info

ボリューム名:testvol
タイプ:複製
ステータス:開始済み
ブリックの数:2
トランスポートタイプ:tcp
ブリック:
ブリック1:server1。 example.com:/data
Brick2:server2.example.com:/data
再構成されたオプション:
auth.allow:192.168.0.102
[メール保護]:〜#

3GlusterFSクライアントのセットアップ

client1.example.com:

クライアントでは、次のようにGlusterFSクライアントをインストールできます。

apt-get install glusterfs-client

次に、次のディレクトリを作成します。

mkdir /mnt/glusterfs

それでおしまい!これで、次のコマンドを使用してGlusterFSファイルシステムを/ mnt/glusterfsにマウントできます。

mount.glusterfs server1.example.com:/testvol /mnt/glusterfs

(server1.example.comの代わりに、上記のコマンドでserver2.example.comを使用することもできます!)

これで、出力に新しいシェアが表示されるはずです...

mount

[メール保護]:〜#mount
sysfs on / sys type sysfs(rw、nosuid、nodev、noexec、relatime)
proc on / proc type proc(rw、nosuid、nodev、noexec、relatime)
udev on / dev type devtmpfs(rw、relatime、size =10240k、nr_inodes =126813、mode =755)
devpts on / dev / pts type devpts(rw、nosuid、noexec、relatime、gid =5、mode =620、ptmxmode =000)
tmpfs on / run type tmpfs(rw、nosuid、noexec、relatime、size =102704k、mode =755)
/ dev / mapper / server1-root on / type ext4(rw、relatime、errors =remount-ro、user_xattr、barrier =1、data =ordered)
tmpfs on / run / lock type tmpfs(rw、nosuid、nodev、noexec、relatime、size =5120k )
tmpfs on / run / shm type tmpfs(rw、nosuid、nodev、noexec、relatime、size =205400k)
/ dev / sda1 on / boot type ext2(rw、relatime、errors =continue)
rpc_pipefs on / var / lib / nfs / rpc_pipefs type rpc_pipefs(rw、relatime)
server1.example.com:/testvol on / mnt / glusterfs type Fuse.glusterfs(rw、relatime、user_id =0 、group_id =0、default_permissions、allow_other、max_read =131072)
fusectl on / sys / fs / fu se / connectionsタイプfusectl(rw、relatime)
[メール保護]:〜#

...そして...

df -h

[電子メールが保護された]:〜#DF -h
ファイルシステムサイズ使用さAVAIL使用%は上のマウント
rootfsの29G 1.2G 26G 5%/
udevの10M 0 10M 0%の/ dev
TMPFS 101M 240K 101M 1%/ラン
の/ dev /マッパ/ SERVER1ルート29G 1.2G 26G 5%/
TMPFS 5.0M 0 5.0M 0%/実行/ロック
TMPFS 201M 0 201M 0%/ run / shm
/ dev / sda1 228M 18M 199M 9%/ boot
server1.example.com:/testvol 29G 1.2G 26G / ster / 5%保護されています]:〜#

GlusterFS共有をクライアントに手動でマウントする代わりに、/ etc / fstabを変更して、クライアントの起動時に共有が自動的にマウントされるようにすることができます。

/ etc / fstabを開き、次の行を追加します。

vi /etc/fstab  
[...]
server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0

(ここでも、server1.example.comの代わりにserver2.example.comを使用することもできます!)

変更した/etc/ fstabが機能しているかどうかをテストするには、クライアントを再起動します。

reboot 

再起動後、出力に共有が表示されます...

df -h

...そして...

mount

4つのテスト

それでは、GlusterFS共有にいくつかのテストファイルを作成しましょう:

client1.example.com:

/ mnt / glusterfs/test1にタッチします
/mnt / glusterfs/test2にタッチします

次に、server1.example.comとserver2.example.comの/dataディレクトリを確認しましょう。 test1ファイルとtest2ファイルは各ノードに存在する必要があります:

server1.example.com/server2.example.com:

ls -l /data

[メール保護]:〜#ls -l / data
total 0
-rw-r--r-- 1 root root 0 Sep 30 17:53 test1
-rw-r- -r--1ルートルート09月30日17:53test2
[メール保護]:〜#

ここで、server1.example.comをシャットダウンし、client1.example.comのGlusterFS共有でいくつかのファイルを追加/削除します。

server1.example.com:

shutdown -h now

client1.example.com:

touch / mnt / glusterfs / test3
touch / mnt / glusterfs / test4
rm -f / mnt / glusterfs / test2

変更は、server2.example.comの/dataディレクトリに表示されます。

server2.example.com:

ls -l /data

[メール保護]:〜#ls -l / data
total 8
-rw-r--r-- 1 root root 0 Sep 30 17:53 test1
-rw-r- -r-- 1 root root 0 Sep 30 17:54 test3
-rw-r--r-- 1 root root 0 Sep 30 17:54 test4
[メール保護]:〜#

server1.example.comをもう一度起動して、/dataディレクトリを見てみましょう。

server1.example.com:

ls -l /data

[メール保護]:〜#ls -l / data
total 0
-rw-r--r-- 1 root root 0 Sep 30 17:53 test1
-rw-r- -r--1ルートルート09月30日17:53test2
[メール保護]:〜#

ご覧のとおり、server1.example.comは、ダウン中に発生した変更に気づいていません。これは簡単に修正できます。必要なのは、client1.example.comのGlusterFS共有で読み取りコマンドを呼び出すことだけです。例:

client1.example.com:

ls -l /mnt/glusterfs/

[メール保護]:〜#ls -l / mnt / glusterfs/
合計8
-rw-r--r--1ルートルート09月30日17:53test1
-rw -r--r--1ルートルート09月30日17:54test3
-rw-r--r--1ルートルート09月30日17:54test4
[メール保護]:〜 #

ここで、server1.example.comの/ dataディレクトリをもう一度見てください。変更がそのノードに複製されていることがわかります:

server1.example.com:

ls -l /data

[メール保護]:〜#ls -l / data
total 0
-rw-r--r-- 1 root root 0 Sep 30 17:53 test1
-rw-r- -r--1ルートルート09月30日17:54test3
-rw-r--r--1ルートルート09月30日17:54test4
[メール保護]:〜#

  • GlusterFS:http://www.gluster.org/
  • GlusterFS 3.2ドキュメント:http://download.gluster.com/pub/gluster/glusterfs/3.2/Documentation/AG/html/index.html
  • Debian:http://www.debian.org/

Debian
  1. Debian8上のGlusterFSを使用した高可用性ストレージ-2つのストレージサーバー間でミラーリング

  2. DebianWheezyでGlusterFS3.2.xを使用してNFSのようなスタンドアロンストレージサーバーを作成する

  3. Fedora 12でのGlusterFSによる高可用性ストレージ-2つのストレージサーバー間での自動ファイルレプリケーション(ミラー)

  1. CentOS7上のGlusterFSを使用した高可用性ストレージ-2つのストレージサーバー間でミラーリング

  2. Ubuntu12.10上のGlusterFS3.2.xを使用した4つのストレージノードにまたがる分散ストレージ

  3. Ubuntu12.10上のGlusterFS3.2.xを使用した4つのストレージノードに分散されたレプリケートされたストレージ

  1. Ubuntu12.10のGlusterFS3.2.xを使用した4つのストレージノード間のストライピング

  2. Ubuntu12.10上のGlusterFS3.2.xを使用した2つのストレージサーバー間での自動ファイルレプリケーション(ミラーリング)

  3. DebianLennyでのGlusterFSによる高可用性ストレージ-2つのストレージサーバー間での自動ファイルレプリケーション