Hello,<br><br>Standard Jboss RA can not be used as master/slave. <br>I have used it to as &quot;ms&quot; as a workaround for a pacemaker bug in which start of one resource leads to re-start of different clone resources.<br>
<br>I suppose this should not cause the problem am facing.<br><br> Thanks and regards<br>Neha<br><br><div class="gmail_quote">On Mon, Mar 19, 2012 at 6:48 PM,  <span dir="ltr">&lt;<a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Pacemaker mailing list submissions to<br>
        <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
or, via email, send a message with subject or body &#39;help&#39; to<br>
        <a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:pacemaker-owner@oss.clusterlabs.org">pacemaker-owner@oss.clusterlabs.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Pacemaker digest...&quot;<br>
<br>
<br>
Today&#39;s Topics:<br>
<br>
   1. Re: Promote of one resource leads to start of another<br>
      resource in heartbeat cluster (emmanuel segura)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Mon, 19 Mar 2012 14:23:19 +0100<br>
From: emmanuel segura &lt;<a href="mailto:emi2fast@gmail.com">emi2fast@gmail.com</a>&gt;<br>
To: The Pacemaker cluster resource manager<br>
        &lt;<a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a>&gt;<br>
Subject: Re: [Pacemaker] Promote of one resource leads to start of<br>
        another resource in heartbeat cluster<br>
Message-ID:<br>
        &lt;CAE7pJ3D2ZUYBA-TVcYT55WLggv-a+NzERH=<a href="mailto:3Cw94Nu9P%2BVF3Cw@mail.gmail.com">3Cw94Nu9P+VF3Cw@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
<br>
are you sure the ocf:heartbeat:jboss it can used as ms?<br>
<br>
because if remember well the script agent must has the support and promote<br>
option<br>
<br>
Sorry for my bad english<br>
<br>
<a href="http://linux-ha.org/doc/man-pages/re-ra-jboss.html" target="_blank">http://linux-ha.org/doc/man-pages/re-ra-jboss.html</a><br>
<br>
Il giorno 19 marzo 2012 14:10, neha chatrath &lt;<a href="mailto:nehachatrath@gmail.com">nehachatrath@gmail.com</a>&gt; ha<br>
scritto:<br>
<br>
&gt; Hello,<br>
&gt; I have the following 2 node cluster configuration:<br>
&gt;<br>
&gt; &quot;node $id=&quot;15f8a22d-9b1a-4ce3-bca2-05f654a9ed6a&quot; cps2 \<br>
&gt;         attributes standby=&quot;off&quot;<br>
&gt; node $id=&quot;d3088454-5ff3-4bcd-b94c-5a2567e2759b&quot; cps1 \<br>
&gt;         attributes standby=&quot;off&quot;<br>
&gt; primitive CPS ocf:heartbeat:jboss_cps \<br>
&gt;         params jboss_home=&quot;/home/cluster/cps/<a href="http://jboss-5.1.0.GA/" target="_blank">jboss-5.1.0.GA/</a>&quot;<br>
&gt; java_home=&quot;/usr/&quot; run_opts=&quot;-c all -b 0.0.0.0 -g clusterCPS<br>
&gt; -Djboss.service.binding.set=ports-01 -Djboss.messaging.ServerPeerID=01&quot;<br>
&gt; statusurl=&quot;<a href="http://127.0.0.1:8180" target="_blank">http://127.0.0.1:8180</a>&quot; shutdown_opts=&quot;-s <a href="http://127.0.0.1:1199" target="_blank">127.0.0.1:1199</a>&quot;<br>
&gt; pstring=&quot;clusterCPS&quot; \<br>
&gt;         op start interval=&quot;0&quot; timeout=&quot;150&quot; \<br>
&gt;         op stop interval=&quot;0&quot; timeout=&quot;240&quot; \<br>
&gt;         op monitor interval=&quot;30s&quot; timeout=&quot;40s&quot;<br>
&gt; primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>
&gt;         params ip=&quot;192.168.114.150&quot; cidr_netmask=&quot;32&quot; nic=&quot;bond0:114:1&quot; \<br>
&gt;         op monitor interval=&quot;40&quot; timeout=&quot;20&quot; \<br>
&gt;         meta target-role=&quot;Started&quot;<br>
&gt; primitive EMS ocf:heartbeat:jboss \<br>
&gt;         params jboss_home=&quot;/home/cluster/cps/Jboss_EMS/<a href="http://jboss-5.1.0.GA" target="_blank">jboss-5.1.0.GA</a>&quot;<br>
&gt; java_home=&quot;/usr/&quot; run_opts=&quot;-c all -b 0.0.0.0 -g clusterEMS&quot;<br>
&gt; pstring=&quot;clusterEMS&quot; \<br>
&gt;         op start interval=&quot;0&quot; timeout=&quot;60&quot; \<br>
&gt;         op stop interval=&quot;0&quot; timeout=&quot;240&quot; \<br>
&gt;         op monitor interval=&quot;30s&quot; timeout=&quot;40s&quot;<br>
&gt; primitive LB ocf:ptt:lb_ptt \<br>
&gt;         op monitor interval=&quot;40&quot;<br>
&gt; primitive NDB_MGMT ocf:ptt:NDB_MGM_RA \<br>
&gt;         op monitor interval=&quot;120&quot; timeout=&quot;120&quot;<br>
&gt; primitive NDB_VIP ocf:heartbeat:IPaddr2 \<br>
&gt;         params ip=&quot;192.168.117.150&quot; cidr_netmask=&quot;255.255.255.255&quot;<br>
&gt; nic=&quot;bond0.117:4&quot; \<br>
&gt;         op monitor interval=&quot;30&quot; timeout=&quot;25&quot;<br>
&gt; primitive Rmgr ocf:ptt:RM_RA \<br>
&gt;         op monitor interval=&quot;60&quot; role=&quot;Master&quot; timeout=&quot;30&quot;<br>
&gt; on-fail=&quot;restart&quot; \<br>
&gt;         op monitor interval=&quot;40&quot; role=&quot;Slave&quot; timeout=&quot;40&quot;<br>
&gt; on-fail=&quot;restart&quot; \<br>
&gt;         op start interval=&quot;0&quot; role=&quot;Master&quot; timeout=&quot;30&quot; \<br>
&gt;         op start interval=&quot;0&quot; role=&quot;Slave&quot; timeout=&quot;35&quot;<br>
&gt; primitive mysql ocf:ptt:MYSQLD_RA \<br>
&gt;         op monitor interval=&quot;180&quot; timeout=&quot;200&quot; \<br>
&gt;         op start interval=&quot;0&quot; timeout=&quot;40&quot;<br>
&gt; primitive ndbd ocf:ptt:NDBD_RA \<br>
&gt;         op monitor interval=&quot;120&quot; timeout=&quot;120&quot;<br>
&gt; ms CPS_CLONE CPS \<br>
&gt;         meta master-max=&quot;1&quot; master-max-node=&quot;1&quot; clone-max=&quot;2&quot;<br>
&gt; clone-node-max=&quot;1&quot; interleave=&quot;true&quot; notify=&quot;true&quot;<br>
&gt; ms ms_Rmgr Rmgr \<br>
&gt;         meta master-max=&quot;1&quot; master-max-node=&quot;1&quot; clone-max=&quot;2&quot;<br>
&gt; clone-node-max=&quot;1&quot; interleave=&quot;true&quot; notify=&quot;true&quot; target-role=&quot;Started&quot;<br>
&gt; ms ms_mysqld mysql \<br>
&gt;         meta master-max=&quot;1&quot; master-max-node=&quot;1&quot; clone-max=&quot;2&quot;<br>
&gt; clone-node-max=&quot;1&quot; interleave=&quot;true&quot; notify=&quot;true&quot;<br>
&gt; clone EMS_CLONE EMS \<br>
&gt;         meta globally-unique=&quot;false&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot;<br>
&gt; clone LB_CLONE LB \<br>
&gt;         meta globally-unique=&quot;false&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot;<br>
&gt; target-role=&quot;Started&quot;<br>
&gt; clone ndbdclone ndbd \<br>
&gt;         meta globally-unique=&quot;false&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot;<br>
&gt; colocation RM_with_ip inf: ms_Rmgr:Master ClusterIP<br>
&gt; colocation ndb_vip-with-ndb_mgm inf: NDB_MGMT NDB_VIP<br>
&gt; order RM-after-ip inf: ClusterIP ms_Rmgr<br>
&gt; order cps-after-mysqld inf: ms_mysqld CPS_CLONE<br>
&gt; order ip-after-mysqld inf: ms_mysqld ClusterIP<br>
&gt; order lb-after-cps inf: CPS_CLONE LB_CLONE<br>
&gt; order mysqld-after-ndbd inf: ndbdclone ms_mysqld<br>
&gt; order ndb_mgm-after-ndb_vip inf: NDB_VIP NDB_MGMT<br>
&gt; order ndbd-after-ndb_mgm inf: NDB_MGMT ndbdclone<br>
&gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt;         dc-version=&quot;1.0.11-9af47ddebcad19e35a61b2a20301dc038018e8e8&quot; \<br>
&gt;    cluster-infrastructure=&quot;Heartbeat&quot; \<br>
&gt;         no-quorum-policy=&quot;ignore&quot; \<br>
&gt;         stonith-enabled=&quot;false&quot;<br>
&gt; rsc_defaults $id=&quot;rsc-options&quot; \<br>
&gt;         resource-stickiness=&quot;100&quot; \<br>
&gt;         migration_threshold=&quot;3&quot;<br>
&gt; &quot;<br>
&gt; When I brig down the active node in the cluster, ms_mysqld resource on the<br>
&gt; standby node is promoted but another resource (ms_Rmgr) gets re-started.<br>
&gt;<br>
&gt; Following are excerpts form the logs:<br>
&gt;<br>
&gt; &quot;Mar 19 18:09:58 CPS2 lrmd: [27576]: info: operation monitor[13] on<br>
&gt; NDB_VIP for client 27579: pid 29532 exited with return code 0<br>
&gt; Mar 19 18:10:06 CPS2 heartbeat: [27565]: WARN: node cps1: is dead<br>
&gt; Mar 19 18:10:06 CPS2 heartbeat: [27565]: info: Link cps1:bond0.115 dead.<br>
&gt; Mar 19 18:10:06 CPS2 ccm: [27574]: debug: recv msg status from cps1,<br>
&gt; status:dead<br>
&gt; Mar 19 18:10:06 CPS2 ccm: [27574]: debug: status of node cps1: active -&gt;<br>
&gt; dead<br>
&gt; Mar 19 18:10:06 CPS2 ccm: [27574]: debug: recv msg CCM_TYPE_LEAVE from<br>
&gt; cps1, status:[null ptr]<br>
&gt; Mar 19 18:10:06 CPS2 ccm: [27574]: debug: quorum plugin: majority<br>
&gt; Mar 19 18:10:06 CPS2 crmd: [27579]: notice: crmd_ha_status_callback:<br>
&gt; Status update: Node cps1 now has status [dead] (DC=true)<br>
&gt; Mar 19 18:10:06 CPS2 ccm: [27574]: debug: cluster:linux-ha,<br>
&gt; member_count=1, member_quorum_votes=100<br>
&gt; Mar 19 18:10:06 CPS2 crmd: [27579]: info: crm_update_peer_proc: cps1.ais<br>
&gt; is now offline<br>
&gt; .......<br>
&gt; ......<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Start<br>
&gt; ClusterIP    (cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource NDB_VIP     (Started cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource NDB_MGMT    (Started cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource ndbd:0      (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource ndbd:1      (Started cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource mysql:0     (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Promote<br>
&gt; mysql:1      (Slave -&gt; Master cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource LB:0        (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource LB:1        (Started cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource EMS:0       (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource EMS:1       (Started cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource Rmgr:0      (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Promote<br>
&gt; Rmgr:1       (Slave -&gt; Master cps2)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource CPS:0       (Stopped)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: notice: LogActions: Leave<br>
&gt; resource CPS:1       (Slave cps2)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: s_crmd_fsa: Processing<br>
&gt; I_PE_SUCCESS: [ state=S_POLICY_ENGINE cause=C_IPC_MESSAGE<br>
&gt; origin=handle_response ]<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_fsa_action:<br>
&gt; actions:trace:        // A_LOG<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_state_transition: State<br>
&gt; transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>
&gt; cause=C_IPC_MESSAGE origin=handle_response ]<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_fsa_action:<br>
&gt; actions:trace:        // A_DC_TIMER_STOP<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_fsa_action:<br>
&gt; actions:trace:        // A_INTEGRATE_TIMER_STOP<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_fsa_action:<br>
&gt; actions:trace:        // A_FINALIZE_TIMER_STOP<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_fsa_action:<br>
&gt; actions:trace:        // A_TE_INVOKE<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: unpack_graph: Unpacked<br>
&gt; transition 4: 31 actions in 31 synapses<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_te_invoke: Processing graph 4<br>
&gt; (ref=pe_calc-dc-1332160807-80) derived from<br>
&gt; /usr/var/lib/pengine/pe-input-1596.bz2<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 12: start ClusterIP_start_0 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_lrm_rsc_op: Performing<br>
&gt; key=12:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7 op=ClusterIP_start_0 )<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op:2396: copying<br>
&gt; parameters for rsc ClusterIP<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op: add an<br>
&gt; operation operation start[34] on ClusterIP for client 27579, its<br>
&gt; parameters: cidr_netmask=[32] crm_feature_set=[3.0.1]<br>
&gt; CRM_meta_timeout=[20000] nic=[bond0:114:1] ip=[192.168.114.150]  to the<br>
&gt; operation list.<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 5: cancel mysql:1_monitor_180000 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_lrm_invoke: PE requested op<br>
&gt; mysql:1_monitor_180000 (call=NA) be cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Scheduling<br>
&gt; mysql:1:29 for removal<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Cancelling op 29 for<br>
&gt; mysql:1 (mysql:1:29)<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: cancel_op: operation monitor[29]<br>
&gt; on mysql:1 for client 27579, its parameters: CRM_meta_clone=[1]<br>
&gt; CRM_meta_notify_slave_resource=[ ] CRM_meta_notify_active_resource=[ ]<br>
&gt; CRM_meta_notify_demote_uname=[ ] CRM_meta_notify_active_uname=[ ]<br>
&gt; CRM_meta_master_node_max=[1] CRM_meta_notify_stop_resource=[ ]<br>
&gt; CRM_meta_notify_master_resource=[ ] CRM_meta_clone_node_max=[1]<br>
&gt; CRM_meta_notify_demote_resource=[ ] CRM_meta_clone_max=[2]<br>
&gt; CRM_meta_notify_slave_uname=[ ] CRM_meta_notify=[true]<br>
&gt; CRM_meta_master_max=[1] CRM_meta_notify_start_r cancelled<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_cancel_op: operation 29<br>
&gt; cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Op 29 for mysql:1<br>
&gt; (mysql:1:29): cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: send_direct_ack: ACK&#39;ing<br>
&gt; resource op mysql:1_monitor_180000 from<br>
&gt; 5:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7: lrm_invoke-lrmd-1332160807-83<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_te_message: Processing<br>
&gt; (N)ACK lrm_invoke-lrmd-1332160807-83 from cps2<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: match_graph_event: Action<br>
&gt; mysql:1_monitor_180000 (5) confirmed on cps2 (rc=0)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_pseudo_action: Pseudo action<br>
&gt; 42 fired and confirmed<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 4: cancel Rmgr:1_monitor_40000 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: do_lrm_invoke: PE requested op<br>
&gt; Rmgr:1_monitor_40000 (call=NA) be cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Scheduling Rmgr:1:33<br>
&gt; for removal<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Cancelling op 33 for<br>
&gt; Rmgr:1 (Rmgr:1:33)<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: cancel_op: operation monitor[33]<br>
&gt; on Rmgr:1 for client 27579, its parameters: CRM_meta_clone=[1]<br>
&gt; CRM_meta_notify_active_uname=[ ] CRM_meta_notify_slave_resource=[ ]<br>
&gt; CRM_meta_notify_active_resource=[ ] CRM_meta_interval=[40000]<br>
&gt; CRM_meta_notify_demote_uname=[ ] CRM_meta_globally_unique=[false]<br>
&gt; CRM_meta_master_node_max=[1] CRM_meta_notify_stop_resource=[ ]<br>
&gt; CRM_meta_notify_master_resource=[ ] CRM_meta_clone_node_max=[1]<br>
&gt; CRM_meta_notify_demote_resource=[ ] CRM_meta_clone_max=[2]<br>
&gt; CRM_meta_notify_start_resource=[Rmgr:0 Rmgr: cancelled<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_cancel_op: operation 33<br>
&gt; cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: cancel_op: Op 33 for Rmgr:1<br>
&gt; (Rmgr:1:33): cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: send_direct_ack: ACK&#39;ing<br>
&gt; resource op Rmgr:1_monitor_40000 from<br>
&gt; 4:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7: lrm_invoke-lrmd-1332160807-85<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_te_message: Processing<br>
&gt; (N)ACK lrm_invoke-lrmd-1332160807-85 from cps2<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: match_graph_event: Action<br>
&gt; Rmgr:1_monitor_40000 (4) confirmed on cps2 (rc=0)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_pseudo_action: Pseudo action<br>
&gt; 71 fired and confirmed<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_pseudo_action: Pseudo action<br>
&gt; 72 fired and confirmed<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: run_graph: Transition 4<br>
&gt; (Complete=0, Pending=1, Fired=6, Skipped=0, Incomplete=25,<br>
&gt; Source=/usr/var/lib/pengine/pe-input-1596.bz2): In-progress<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: delete_op_entry: async: Sending<br>
&gt; delete op for mysql:1_monitor_180000 (call=29)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_lrm_event: LRM operation<br>
&gt; mysql:1_monitor_180000 (call=29, status=1, cib-update=0, confirmed=true)<br>
&gt; Cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: delete_op_entry: async: Sending<br>
&gt; delete op for Rmgr:1_monitor_40000 (call=33)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_lrm_event: LRM operation<br>
&gt; Rmgr:1_monitor_40000 (call=33, status=1, cib-update=0, confirmed=true)<br>
&gt; Cancelled<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 146: notify mysql:1_pre_notify_promote_0 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_lrm_rsc_op: Performing<br>
&gt; key=146:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7 op=mysql:1_notify_0 )<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op: add an<br>
&gt; operation operation notify[35] on mysql:1 for client 27579, its parameters:<br>
&gt; CRM_meta_clone=[1] CRM_meta_notify_stop_uname=[ ]<br>
&gt; CRM_meta_notify_slave_resource=[mysql:1 ] CRM_meta_notify_active_resource=[<br>
&gt; ] CRM_meta_notify_demote_uname=[ ] CRM_meta_master_node_max=[1]<br>
&gt; CRM_meta_notify_stop_resource=[ ] CRM_meta_notify_master_resource=[ ]<br>
&gt; CRM_meta_clone_node_max=[1] CRM_meta_clone_max=[2] CRM_meta_notify=[true]<br>
&gt; CRM_meta_notify_start_resource=[ ] CRM_meta_notify_master_uname=[ ]<br>
&gt; crm_feature_set=[3.0.1] CRM_meta_globally_u to the operation list.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: rsc:mysql:1 notify[35] (pid<br>
&gt; 29570)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: run_graph: Transition 4<br>
&gt; (Complete=5, Pending=2, Fired=1, Skipped=0, Incomplete=24,<br>
&gt; Source=/usr/var/lib/pengine/pe-input-1596.bz2): In-progress<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: get_xpath_object: No match for<br>
&gt; //cib_update_result//diff-added//crm_config in<br>
&gt; /notify/cib_update_result/diff<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: te_update_diff: Processing diff<br>
&gt; (cib_delete): 0.538.74 -&gt; 0.538.75 (S_TRANSITION_ENGINE)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: te_update_diff: Deleted<br>
&gt; lrm_rsc_op mysql:1_monitor_180000 on 15f8a22d-9b1a-4ce3-bca2-05f654a9ed6a<br>
&gt; was for graph event 5<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: get_xpath_object: No match for<br>
&gt; //cib_update_result//diff-added//crm_config in<br>
&gt; /notify/cib_update_result/diff<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: te_update_diff: Processing diff<br>
&gt; (cib_delete): 0.538.75 -&gt; 0.538.76 (S_TRANSITION_ENGINE)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: te_update_diff: Deleted<br>
&gt; lrm_rsc_op Rmgr:1_monitor_40000 on 15f8a22d-9b1a-4ce3-bca2-05f654a9ed6a was<br>
&gt; for graph event 4<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 27: promote mysql:1_promote_0 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_lrm_rsc_op: Performing<br>
&gt; key=27:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7 op=mysql:1_promote_0 )<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op: add an<br>
&gt; operation operation promote[36] on mysql:1 for client 27579, its<br>
&gt; parameters: CRM_meta_clone=[1] CRM_meta_notify_slave_resource=[mysql:1 ]<br>
&gt; CRM_meta_notify_active_resource=[ ] CRM_meta_notify_demote_uname=[ ]<br>
&gt; CRM_meta_notify_start_resource=[ ] CRM_meta_master_node_max=[1]<br>
&gt; CRM_meta_notify_stop_resource=[ ] CRM_meta_notify_master_resource=[ ]<br>
&gt; CRM_meta_clone_node_max=[1] CRM_meta_clone_max=[2] CRM_meta_notify=[true]<br>
&gt; CRM_meta_notify_master_uname=[ ] CRM_meta_master_max=[1]<br>
&gt; crm_feature_set=[3.0.1] CRM_meta_globally_unique= to the operation list.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: rsc:mysql:1 promote[36] (pid<br>
&gt; 29595)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: run_graph: Transition 4<br>
&gt; (Complete=8, Pending=2, Fired=1, Skipped=0, Incomplete=21,<br>
&gt; Source=/usr/var/lib/pengine/pe-input-1596.bz2): In-progress<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: RA output:<br>
&gt; (mysql:1:promote:stdout) Entering promote<br>
&gt;<br>
&gt; MYSQLD_RA(mysql:1)[29595]:      2012/03/19_18:10:07 INFO: :Neha:<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: RA output:<br>
&gt; (mysql:1:promote:stdout) Entering check state<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: RA output:<br>
&gt; (mysql:1:promote:stdout) Check State: Returning 1<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: RA output:<br>
&gt; (mysql:1:promote:stdout) promoting MYSQLD as Master!!!!!!!!!!!<br>
&gt;<br>
&gt; IPaddr2(ClusterIP)[29567]:      2012/03/19_18:10:07 INFO: Adding IPv4<br>
&gt; address <a href="http://192.168.114.150/32" target="_blank">192.168.114.150/32</a> with broadcast address 192.168.114.150 to<br>
&gt; device bond0 (with label bond0:114:1)<br>
&gt; Mar 19 18:10:07 CPS2 pengine: [27584]: info: process_pe_message:<br>
&gt; Transition 4: PEngine Input stored in:<br>
&gt; /usr/var/lib/pengine/pe-input-1596.bz2<br>
&gt; IPaddr2(ClusterIP)[29567]:      2012/03/19_18:10:07 INFO: Bringing device<br>
&gt; bond0 up<br>
&gt; IPaddr2(ClusterIP)[29567]:      2012/03/19_18:10:07 INFO:<br>
&gt; /usr/lib/heartbeat/send_arp -i 200 -r 5 -p<br>
&gt; /usr/var/run/resource-agents/send_arp-192.168.114.150 bond0 192.168.114.150<br>
&gt; auto not_used not_used<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: Managed ClusterIP:start process<br>
&gt; 29567 exited with return code 0.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: operation start[34] on ClusterIP<br>
&gt; for client 27579: pid 29567 exited with return code 0<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: info: Invoked: crm_attribute<br>
&gt; -N CPS2 -n master-mysql:1 -l reboot -v 10<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug:<br>
&gt; init_client_ipc_comms_nodispatch: Attempting to talk on:<br>
&gt; /usr/var/run/crm/cib_rw<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug:<br>
&gt; init_client_ipc_comms_nodispatch: Attempting to talk on:<br>
&gt; /usr/var/run/crm/cib_callback<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug: cib_native_signon_raw:<br>
&gt; Connection to CIB successful<br>
&gt;<br>
&gt; .....<br>
&gt; .....<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: info: attrd_lazy_update:<br>
&gt; Connecting to cluster... 5 retries remaining<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug:<br>
&gt; init_client_ipc_comms_nodispatch: Attempting to talk on:<br>
&gt; /usr/var/run/crm/attrd<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug: attrd_update: Sent<br>
&gt; update: master-mysql:1=10 for CPS2<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: info: main: Update<br>
&gt; master-mysql:1=10 sent via attrd<br>
&gt; Mar 19 18:10:07 CPS2 crm_attribute: [29646]: debug: cib_native_signoff:<br>
&gt; Signing out of the CIB Service<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_lrm_event: LRM operation<br>
&gt; ClusterIP_start_0 (call=34, rc=0, cib-update=68, confirmed=true) ok<br>
&gt; Mar 19 18:10:07 CPS2 attrd: [27578]: debug: attrd_local_callback: update<br>
&gt; message from crm_attribute: master-mysql:1=10<br>
&gt; Mar 19 18:10:07 CPS2 attrd: [27578]: debug: attrd_local_callback:<br>
&gt; Supplied: 10, Current: 5, Stored: 5<br>
&gt; Mar 19 18:10:07 CPS2 attrd: [27578]: debug: attrd_local_callback: New<br>
&gt; value of master-mysql:1 is 10<br>
&gt; Mar 19 18:10:07 CPS2 attrd: [27578]: info: attrd_trigger_update: Sending<br>
&gt; flush op to all hosts for: master-mysql:1 (10)<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: Managed mysql:1:promote process<br>
&gt; 29595 exited with return code 0.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: operation promote[36] on mysql:1<br>
&gt; for client 27579: pid 29595 exited with return code 0<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: process_lrm_event: LRM operation<br>
&gt; mysql:1_promote_0 (call=36, rc=0, cib-update=69, confirmed=true) ok<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: get_xpath_object: No match for<br>
&gt; //cib_update_result//diff-added//crm_config in<br>
&gt; /notify/cib_update_result/diff<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: te_update_diff: Processing diff<br>
&gt; (cib_modify): 0.538.77 -&gt; 0.538.78 (S_TRANSITION_ENGINE)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: match_graph_event: Action<br>
&gt; ClusterIP_start_0 (12) confirmed on cps2 (rc=0)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 13: monitor ClusterIP_monitor_40000 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_lrm_rsc_op: Performing<br>
&gt; key=13:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7 op=ClusterIP_monitor_40000 )<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op: add an<br>
&gt; operation operation monitor[37] on ClusterIP for client 27579, its<br>
&gt; parameters: CRM_meta_name=[monitor] cidr_netmask=[32]<br>
&gt; crm_feature_set=[3.0.1] CRM_meta_timeout=[20000] CRM_meta_interval=[40000]<br>
&gt; nic=[bond0:114:1] ip=[192.168.114.150]  to the operation list.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: rsc:ClusterIP monitor[37] (pid<br>
&gt; 29650)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_pseudo_action: Pseudo action<br>
&gt; 69 fired and confirmed<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: run_graph: Transition 4<br>
&gt; (Complete=9, Pending=2, Fired=2, Skipped=0, Incomplete=19,<br>
&gt; Source=/usr/var/lib/pengine/pe-input-1596.bz2): In-progress<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: te_rsc_command: Initiating<br>
&gt; action 65: start Rmgr:1_start_0 on cps2 (local)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: info: do_lrm_rsc_op: Performing<br>
&gt; key=65:4:0:6c3bbe48-a3be-404f-9ca9-04360dbe5be7 op=Rmgr:1_start_0 )<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op:2396: copying<br>
&gt; parameters for rsc Rmgr:1<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: debug: on_msg_perform_op: add an<br>
&gt; operation operation start[38] on Rmgr:1 for client 27579, its parameters:<br>
&gt; CRM_meta_clone=[1] CRM_meta_notify_stop_uname=[ ]<br>
&gt; CRM_meta_notify_slave_resource=[Rmgr:1 ] CRM_meta_notify_active_resource=[<br>
&gt; ] CRM_meta_notify_demote_uname=[ ] CRM_meta_master_node_max=[1]<br>
&gt; CRM_meta_notify_stop_resource=[ ] CRM_meta_notify_master_resource=[ ]<br>
&gt; CRM_meta_clone_node_max=[1] CRM_meta_clone_max=[2] CRM_meta_notify=[true]<br>
&gt; CRM_meta_notify_start_resource=[Rmgr:1 ] CRM_meta_notify_master_uname=[ ]<br>
&gt; crm_feature_set=[3.0.1] CRM_meta_globall to the operation list.<br>
&gt; Mar 19 18:10:07 CPS2 lrmd: [27576]: info: rsc:Rmgr:1 start[38] (pid 29651)<br>
&gt; Mar 19 18:10:07 CPS2 crmd: [27579]: debug: run_graph: Transition 4<br>
&gt; (Complete=10, Pending=3, Fired=1, Skipped=0, Incomplete=18,<br>
&gt; Source=/usr/var/lib/pengine/pe-input-1596.bz2): In-progress<br>
&gt; Mar 19 18:10:07 CPS2 RM: [29651]: debug: RM_RA:Entering Main<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 RM: [29651]: info: value of OCF_RESOURCE_INSTANCE is<br>
&gt; Rmgr:1<br>
&gt;<br>
&gt; Mar 19 18:10:07 CPS2 RM: [29651]: info: envinorment STATE variable value<br>
&gt; is slave<br>
&gt;<br>
&gt; &quot;&quot;&quot;&quot;&quot;<br>
&gt;<br>
&gt; Can somebody help in this?<br>
&gt;<br>
&gt; Thanks and regards<br>
&gt; Neha<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;<br>
&gt;<br>
<br>
<br>
--<br>
esta es mi vida e me la vivo hasta que dios quiera<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://oss.clusterlabs.org/pipermail/pacemaker/attachments/20120319/e8bfbe51/attachment.html" target="_blank">http://oss.clusterlabs.org/pipermail/pacemaker/attachments/20120319/e8bfbe51/attachment.html</a>&gt;<br>

<br>
------------------------------<br>
<br>
_______________________________________________<br>
Pacemaker mailing list<br>
<a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
<br>
End of Pacemaker Digest, Vol 52, Issue 44<br>
*****************************************<br>
</blockquote></div><br><br clear="all"><br>-- <br>Cheers<br>Neha Chatrath<br>                          KEEP SMILING!!!!<br>