yohei adachi
yope.****@gmail*****
2015年 11月 24日 (火) 18:29:28 JST
naka様 いつもお世話になっております。 足立と申します。 同じ状況となった経験があるため、参考になればとご連絡致します。 [lsb:initスクリプト名] ですが、LSBでpacemakerリソースを監視する場合、 /etc/init.d/ に配置する起動スクリプトが以下の使用に合致する必要があります。 【参考URL】 http://linux-ha.osdn.jp/wp/archives/3855#lsb 「status」メソッドはサービス(リソース)の状態に応じ以下の動作および返り値を返すこと。 ・サービスが停止している場合:3を返す。 ・サービスが起動している場合:0を返す。 おそらく、pacemaker(heartbeat)が再起動されたタイミングで、 # /etc/init.d/<リソース> status の結果が0を返すことにより、Active/Standbyの両方でリソースが稼働してるように見え、 この状況を解決しようとpacemakerがリソースの再起動を行っている可能性があるので ご確認頂けたらと存じます。 ※待機系pacemaker再起動時に # crm_mon -i 1 などのコマンドでリソース状況を確認すると、 両方のマシンで一時的にリソースが上がっているように見えておりました。 以上、宜しくお願い致します。 2015年11月24日 17:20 Keisuke Nakamura <k.xna****@gmail*****>: > 関係者各位 > > お世話になっております。nakaと申します。 > > 環境: > 2ノード構成(pacemaker+heartbeat) ※nodeA,nodeBとします。 > OS:CentOS6.2(x86_64) > pacemaker-1.0.12-1.el6.x86_64 > heartbeat-3.0.5-1.1.el6.x86_64 > > nodeAで全てのグループリソースを起動させた状態で、 > nodeBでの障害時動作を確認しております。 > > /etc/init.d/heartbeat stop > /etc/init.d/heartbeat start > > nodeBでheartbeatデーモンを上記コマンドでstop/startさせたところ、 > startを実行後になぜかnodeA側で動いている[lsb:initスクリプト名]の > RAが停止してしまい、その後すぐにRAはstartしました。 > > 想定動作としては、stopせずにそのまま起動させておきたいのですが、 > 上記動作の原因と、どのように設定したらよいかをご教授頂けませんでしょうか? > > > 参考までにheartbeatデーモンをstop/startさせた時のシスログを添付しておきます。 > 以下、crmの設定内容となります。 > $ sudo crm configure show > > node $id="1fc381d6-d6ad-a50f-9aab-cd8ace90fa70" nodeA > node $id="4a851515-443f-6140-b38f-dfb4bb46c010" nodeB > primitive ip_sfdb01v ocf:heartbeat:IPaddr2 \ > meta migration-threshold="5" \ > params ip="10.2.28.62" cidr_netmask="24" nic="eth0" iflabel="0" \ > op monitor interval="3s" > primitive res_ping ocf:pacemaker:ping \ > params name="eth0_ping_set" host_list="10.2.28.1" multiplier="200" > dampen="1" debug="true" attempts="10" \ > op monitor interval="10s" timeout="60" \ > op start interval="0" timeout="60" > primitive service_naka01v lsb:pkg_naka01v \ > op start interval="0s" timeout="90s" \ > op monitor interval="300s" timeout="20s" \ > op stop interval="0s" timeout="100s" \ > meta is-managed="true" > primitive service_sfdb01v lsb:pkg_sfdb01v \ > op start interval="0s" timeout="90s" \ > op monitor interval="300s" timeout="20s" \ > op stop interval="0s" timeout="100s" \ > meta is-managed="true" > primitive vgsfdb01v ocf:heartbeat:LVM \ > params volgrpname="vgsfdb01v" > primitive vgsfdb01v_LogVol00 ocf:heartbeat:Filesystem \ > meta migration-threshold="5" \ > params device="/dev/vgsfdb01v/LogVol00" fstype="ext4" > directory="/mysf" \ > op monitor interval="20s" > primitive vgsfdb01v_lv_quorum ocf:heartbeat:sfex \ > params index="1" device="/dev/vgsfdb01v/lv_quorum" > group pkg_naka01v service_naka01v \ > meta is-managed="true" target-role="Started" > group pkg_sfdb01v ip_sfdb01v vgsfdb01v vgsfdb01v_lv_quorum > vgsfdb01v_LogVol00 service_sfdb01v \ > meta is-managed="true" target-role="Started" > clone clone_ping res_ping \ > meta target-role="Started" > location pkg_naka01v-location pkg_naka01v \ > rule $id="pkg_naka01v-location-0" 200: #uname eq nodeA \ > rule $id="pkg_naka01v-location-1" 100: #uname eq nodeB > location pkg_naka01v-service-location pkg_naka01v \ > rule $id="pkg_naka01v-service-location-rule" -inf: defined > eth0_ping_set and eth0_ping_set lt 200 > location pkg_sfdb01v-location pkg_sfdb01v \ > rule $id="pkg_sfdb01v-location-0" 200: #uname eq nodeA \ > rule $id="pkg_sfdb01v-location-1" 100: #uname eq nodeB > location pkg_sfdb01v-service-location pkg_sfdb01v \ > rule $id="pkg_sfdb01v-service-location-rule" -inf: defined > eth0_ping_set and eth0_ping_set lt 200 > property $id="cib-bootstrap-options" \ > dc-version="1.0.12-066152e" \ > cluster-infrastructure="Heartbeat" \ > stonith-enabled="false" \ > no-quorum-policy="ignore" \ > default-action-timeout="120s" \ > last-lrm-refresh="1441681923" > rsc_defaults $id="rsc-options" \ > resource-stickiness="INFINITY" > > お手数おかけ致しますが、何卒宜しくお願い致します。 > 以上 > > -- > Naka > > _______________________________________________ > Linux-ha-japan mailing list > Linux****@lists***** > http://lists.osdn.me/mailman/listinfo/linux-ha-japan >