[Linux-ha-jp] リソースグループのフェールオーバ動作について

アーカイブの一覧に戻る

N.Miyamoto fj508****@aa*****
2011年 7月 9日 (土) 17:17:06 JST


岩崎さん、おかわださん、山内さん

宮本です。
回答ありがとうございます。

>  location cli-prefer-rscgroup rscgroup \
>  	rule $id="cli-prefer-rule-rscgroup" inf: #uname eq gw_06

これは、動作確認中にcrm resource moveを実施していることが原因であることが
わかりました。
事象2については、no-quorum-policyの設定に従った正しい動作であることは
わかりました。

>  では、今回なぜmountrscだけが、gw_05で起動した状態になったかですが、quorumの更新が
>  やや遅れているように思います(ログの状態遷移を見てもlsbrscとviprscの起動処理を途中でcancelしているようですし)。
>  つまりmountrscの起動処理がかかった時点では、quorumを有していると判断して動作したものの、
>  その後にquorumの情報が更新され、quorumを失ったと判断し、後続の処理をやめたものと推測します。

> 状態aとなったのは、Pacemaker的には正しい動作です。
> 最終ノード(freeze設定時にQuorumを消失した最終ノード)のリソースの起動状態は
> Quorumを消失するタイミングで不定です。

事象1については、フェールオーバ処理とQuorum状況更新処理(と表現しておきます)の
タイミングによる想定事象であると解釈しました。
改善を期待されるような事象とも考えられますが、corosync.1.2.5以降で改善が
行われている版がありますでしょうか。

以上ですが、宜しくお願いします。

On Fri, 8 Jul 2011 10:17:44 +0900 (JST)
renay****@ybb***** wrote:

> 宮本さん
> 
> お疲れ様です。メイトリックスの山内です。
> 
> 岩崎さん、おかわださんも回答していますが、1点だけ回答しておきます。
> 
> > 質問1
> >   前述の手順を実施した場合の正しい仕様を教えて下さい。
> 
> 状態aとなったのは、Pacemaker的には正しい動作です。
> 最終ノード(freeze設定時にQuorumを消失した最終ノード)のリソースの起動状態は
> Quorumを消失するタイミングで不定です。
> (Pacemakerでは、Qurom=freezeでは、Quorumが消失する時点まではリソースの配置の制御は実施されるというのが正しい認識です)
> 
> 最終ノードにリソースを完全に移動した後で、Quorumの消失が発生すればよいのですが、実際には、途中でQuorumの消失がほとんど発生するので、リソースの移動は完全には行われない場合が多いです。
> 
> 余談ですが、
> corosync.1.2.5あたりでは、まだまだ、インターコネクトのrrp_modeの制御あたりがよくありません。
> 
> rrp_mode: active
> 
> ではなく、noneなどの方がよいかと思います。
> もし、インターコネクトが2本必要であれば、そちらをbondingして、none指定がよいかと思います。
> 
> 以上、宜しくお願いいたします。
> 
> 
> 
> --- On Thu, 2011/7/7, N.Miyamoto <fj508****@aa*****> wrote:
> 
> > 
> > いつもお世話になっております。
> > 宮本です。
> > 
> > リソースグループのフェールオーバ動作を確認しています。
> > 
> > [環境概要]
> > OS:CentOS 5.4 x86_64 2.6.18-194.el5xen
> > ソフト:pacemaker-1.0.10-1.4.el5 + corosync-1.2.5-1.3.el5
> > 構成:3ノード
> > ※設定の詳細は、添付ファイルを参照願います。
> > ※添付ファイルは、corosync.conf、crm configure showと下記(1)の事象のログです。
> > 
> > [事象1]
> > 3ノード(gw_04,gw_05,gw_06)構成で、リソースグループが存在するノードで
> > /etc/init.d/corosync stopを順に実施したところ、リソースグループが
> > 以下の状態a.になりました。状態b.を期待していました。
> > 
> > 状態a.
> > ============
> > Last updated: Thu Jul? 7 09:10:59 2011
> > Stack: openais
> > Current DC: gw_05 - partition WITHOUT quorum
> > Version: 1.0.10-da7075976b5ff0bee71074385f8fd02f296ec8a3
> > 3 Nodes configured, 3 expected votes
> > 1 Resources configured.
> > ============
> > 
> > Online: [ gw_05 ]
> > OFFLINE: [ gw_04 gw_06 ]
> > 
> >  Resource Group: rscgroup
> > ? ???mountrsc???(ocf::heartbeat:Filesystem):? ? Started gw_05
> > ? ???lsbrsc? ???(lsb:lsbrsc):???Stopped
> > ? ???viprsc? ???(ocf::heartbeat:IPaddr2):? ? ???Stopped
> > 
> > 状態b.
> > ============
> > Last updated: Thu Jul? 7 09:08:08 2011
> > Stack: openais
> > Current DC: gw_05 - partition WITHOUT quorum
> > Version: 1.0.10-da7075976b5ff0bee71074385f8fd02f296ec8a3
> > 3 Nodes configured, 3 expected votes
> > 1 Resources configured.
> > ============
> > 
> > Online: [ gw_05 ]
> > OFFLINE: [ gw_06 gw_04 ]
> > 
> >  Resource Group: rscgroup
> > ? ???mountrsc???(ocf::heartbeat:Filesystem):? ? Started gw_05
> > ? ???lsbrsc? ???(lsb:lsbrsc):???Started gw_05
> > ? ???viprsc? ???(ocf::heartbeat:IPaddr2):? ? ???Started gw_05
> > 
> > 質問1
> > ? 前述の手順を実施した場合の正しい仕様を教えて下さい。
> > 
> > 質問2
> > ? 環境設定の不備の場合は、環境設定方法を教えて下さい。
> > 
> > 質問3
> > ? 既知障害の場合は、回避方法を教えて下さい。
> > 
> > [事象2]
> > 添付の設定で、全ノードのPacemakerを停止した状態で、1ノートのみ
> > Pacemakerを起動すると、ノードは、Onlineとなりますが、リソース
> > グループが開始されません。これは、quorumが獲得できないためだと
> > 推測しています。
> > 
> > 質問4
> > ? [事象2]の手順で、リソースグループを起動する設定があれば教えて下さい。
> > 
> > 以上ですが、宜しくお願いします。
> > 
> > ----------------------------------------------
> > Nobuaki Miyamoto
> > mail:fj508****@aa*****
> > 
> 
> _______________________________________________
> Linux-ha-japan mailing list
> Linux****@lists*****
> http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan

----------------------------------------------
Nobuaki Miyamoto
mail:fj508****@aa*****





Linux-ha-japan メーリングリストの案内
アーカイブの一覧に戻る