Hi Andrew,<br>I am adding the log messages which i get when I commit the crm configuration and crm_verify  -LM output for your consideration. My crm configuration is attached ..It is showing that the resources cannot run anywhere. What should I do??<br>

<br>crm_verify -LV snippet<br>-------------------------------<br>root@node1:~# crm_verify -LV<br>crm_verify[10393]: 2010/02/23_11:27:44 WARN: native_color: Resource vir-ip cannot run anywhere<br>crm_verify[10393]: 2010/02/23_11:27:44 WARN: native_color: Resource slony-fail cannot run anywhere<br>

crm_verify[10393]: 2010/02/23_11:27:44 WARN: native_color: Resource slony-fail2 cannot run anywhere<br>Warnings found during check: config may not be valid<br>root@node1:~# crm_verify -LV<br>crm_verify[10760]: 2010/02/23_11:32:50 WARN: native_color: Resource vir-ip cannot run anywhere<br>

crm_verify[10760]: 2010/02/23_11:32:50 WARN: native_color: Resource slony-fail cannot run anywhere<br>crm_verify[10760]: 2010/02/23_11:32:50 WARN: native_color: Resource slony-fail2 cannot run anywhere<br>Warnings found during check: config may not be valid<br>

--------------------------------------------------------------<br><br>Log snippet<br>-------------------------------------------------<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: - &lt;cib admin_epoch=&quot;0&quot; epoch=&quot;285&quot; num_updates=&quot;33&quot; &gt;<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: abort_transition_graph: need_abort:59 - Triggered transition abort (complete=1) : Non-status change<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -   &lt;configuration &gt;<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: need_abort: Aborting on change to admin_epoch<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -     &lt;constraints &gt;<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_state_transition: State transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC cause=C_FSA_INTERNAL origin=abort_transition_graph ]<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -       &lt;rsc_location id=&quot;vir-ip-with-pingd&quot; &gt;<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_state_transition: All 2 cluster nodes are eligible to run resources.<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -         &lt;rule score=&quot;-1000&quot; id=&quot;vir-ip-with-pingd-rule&quot; /&gt;<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_pe_invoke: Query 187: Requesting the current CIB: S_POLICY_ENGINE<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -       &lt;/rsc_location&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -     &lt;/constraints&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: -   &lt;/configuration&gt;<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: - &lt;/cib&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: + &lt;cib admin_epoch=&quot;0&quot; epoch=&quot;286&quot; num_updates=&quot;1&quot; &gt;<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +   &lt;configuration &gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +     &lt;constraints &gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +       &lt;rsc_location id=&quot;vir-ip-with-pingd&quot; &gt;<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +         &lt;rule score=&quot;-INFINITY&quot; id=&quot;vir-ip-with-pingd-rule&quot; /&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +       &lt;/rsc_location&gt;<br>

Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +     &lt;/constraints&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: +   &lt;/configuration&gt;<br>Feb 23 11:25:48 node1 cib: [1625]: info: log_data_element: cib:diff: + &lt;/cib&gt;<br>

Feb 23 11:25:48 node1 cib: [1625]: info: cib_process_request: Operation complete: op cib_replace for section constraints (origin=local/cibadmin/2, version=0.286.1): ok (rc=0)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_pe_invoke_callback: Invoking the PE: ref=pe_calc-dc-1266904548-176, seq=12, quorate=1<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>Feb 23 11:25:48 node1 pengine: [6277]: info: unpack_config: Node scores: &#39;red&#39; = -INFINITY, &#39;yellow&#39; = 0, &#39;green&#39; = 0<br>

Feb 23 11:25:48 node1 pengine: [6277]: info: determine_online_status: Node node2 is online<br>Feb 23 11:25:48 node1 pengine: [6277]: info: determine_online_status: Node node1 is online<br>Feb 23 11:25:48 node1 pengine: [6277]: info: unpack_rsc_op: slony-fail2_monitor_0 on node1 returned 0 (ok) instead of the expected value: 7 (not running)<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: unpack_rsc_op: Operation slony-fail2_monitor_0 found resource slony-fail2 active on node1<br>Feb 23 11:25:48 node1 pengine: [6277]: info: unpack_rsc_op: pgsql:1_monitor_0 on node1 returned 0 (ok) instead of the expected value: 7 (not running)<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: unpack_rsc_op: Operation pgsql:1_monitor_0 found resource pgsql:1 active on node1<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: native_print: vir-ip    (ocf::heartbeat:IPaddr2):    Started node1<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: native_print: slony-fail    (lsb:slony_failover):    Started node1<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: clone_print: Clone Set: pgclone<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: print_list:     Started: [ node2 node1 ]<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: native_print: slony-fail2    (lsb:slony_failover2):    Started node1<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: clone_print: Clone Set: pingclone<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: print_list:     Started: [ node2 node1 ]<br>

Feb 23 11:25:48 node1 pengine: [6277]: info: native_merge_weights: vir-ip: Rolling back scores from slony-fail<br>Feb 23 11:25:48 node1 pengine: [6277]: info: native_merge_weights: vir-ip: Rolling back scores from slony-fail2<br>

Feb 23 11:25:48 node1 pengine: [6277]: WARN: native_color: Resource vir-ip cannot run anywhere<br>Feb 23 11:25:48 node1 pengine: [6277]: WARN: native_color: Resource slony-fail cannot run anywhere<br>Feb 23 11:25:48 node1 pengine: [6277]: WARN: native_color: Resource slony-fail2 cannot run anywhere<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Stop resource vir-ip(node1)<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Stop resource slony-fail    (node1)<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Leave resource pgsql:0    (Started node2)<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Leave resource pgsql:1    (Started node1)<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Stop resource slony-fail2    (node1)<br>Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Leave resource pingd:0    (Started node2)<br>

Feb 23 11:25:48 node1 pengine: [6277]: notice: LogActions: Leave resource pingd:1    (Started node1)<br>Feb 23 11:25:48 node1 lrmd: [1626]: info: rsc:slony-fail:41: stop<br>Feb 23 11:25:48 node1 cib: [10242]: info: write_cib_contents: Archived previous version as /var/lib/heartbeat/crm/cib-8.raw<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: do_state_transition: State transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [ input=I_PE_SUCCESS cause=C_IPC_MESSAGE origin=handle_response ]<br>Feb 23 11:25:48 node1 lrmd: [1626]: info: rsc:slony-fail2:42: stop<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: unpack_graph: Unpacked transition 22: 4 actions in 4 synapses<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_te_invoke: Processing graph 22 (ref=pe_calc-dc-1266904548-176) derived from /var/lib/pengine/pe-warn-101.bz2<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: te_rsc_command: Initiating action 11: stop slony-fail_stop_0 on node1 (local)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_lrm_rsc_op: Performing key=11:22:0:fd31c6bc-df43-4481-8b69-2c54c50075fb op=slony-fail_stop_0 )<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: te_rsc_command: Initiating action 28: stop slony-fail2_stop_0 on node1 (local)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_lrm_rsc_op: Performing key=28:22:0:fd31c6bc-df43-4481-8b69-2c54c50075fb op=slony-fail2_stop_0 )<br>

Feb 23 11:25:48 node1 lrmd: [10244]: WARN: For LSB init script, no additional parameters are needed.<br>Feb 23 11:25:48 node1 lrmd: [10243]: WARN: For LSB init script, no additional parameters are needed.<br>Feb 23 11:25:48 node1 crmd: [1629]: info: process_lrm_event: LRM operation slony-fail_stop_0 (call=41, rc=0, cib-update=188, confirmed=true) complete ok<br>

Feb 23 11:25:48 node1 cib: [10242]: info: write_cib_contents: Wrote version 0.286.0 of the CIB to disk (digest: aaddbe7aeaf08365be5bbbdb4931295e)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: match_graph_event: Action slony-fail_stop_0 (11) confirmed on node1 (rc=0)<br>

Feb 23 11:25:48 node1 pengine: [6277]: WARN: process_pe_message: Transition 22: WARNINGs found during PE processing. PEngine Input stored in: /var/lib/pengine/pe-warn-101.bz2<br>Feb 23 11:25:48 node1 pengine: [6277]: info: process_pe_message: Configuration WARNINGs found during PE processing.  Please run &quot;crm_verify -L&quot; to identify issues.<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: process_lrm_event: LRM operation slony-fail2_stop_0 (call=42, rc=0, cib-update=189, confirmed=true) complete ok<br>Feb 23 11:25:48 node1 lrmd: [1626]: info: rsc:vir-ip:43: stop<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: match_graph_event: Action slony-fail2_stop_0 (28) confirmed on node1 (rc=0)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: te_rsc_command: Initiating action 10: stop vir-ip_stop_0 on node1 (local)<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: do_lrm_rsc_op: Performing key=10:22:0:fd31c6bc-df43-4481-8b69-2c54c50075fb op=vir-ip_stop_0 )<br>Feb 23 11:25:48 node1 crmd: [1629]: info: process_lrm_event: LRM operation vir-ip_monitor_15000 (call=31, rc=-2, cib-update=0, confirmed=true) Cancelled unknown exec error<br>

Feb 23 11:25:48 node1 cib: [10242]: info: retrieveCib: Reading cluster configuration from: /var/lib/heartbeat/crm/cib.gwOpFZ (digest: /var/lib/heartbeat/crm/cib.UtFyLu)<br>Feb 23 11:25:48 node1 IPaddr2[10249]: [10285]: INFO: ip -f inet addr delete <a href="http://192.168.10.10/24">192.168.10.10/24</a> dev eth0<br>

Feb 23 11:25:48 node1 IPaddr2[10249]: [10287]: INFO: ip -o -f inet addr show eth0<br>Feb 23 11:25:48 node1 crmd: [1629]: info: process_lrm_event: LRM operation vir-ip_stop_0 (call=43, rc=0, cib-update=190, confirmed=true) complete ok<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: match_graph_event: Action vir-ip_stop_0 (10) confirmed on node1 (rc=0)<br>Feb 23 11:25:48 node1 crmd: [1629]: info: te_pseudo_action: Pseudo action 6 fired and confirmed<br>Feb 23 11:25:48 node1 crmd: [1629]: info: run_graph: ====================================================<br>

Feb 23 11:25:48 node1 crmd: [1629]: notice: run_graph: Transition 22 (Complete=4, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pengine/pe-warn-101.bz2): Complete<br>Feb 23 11:25:48 node1 crmd: [1629]: info: te_graph_trigger: Transition 22 is now complete<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: notify_crmd: Transition 22 status: done - &lt;null&gt;<br>Feb 23 11:25:48 node1 crmd: [1629]: info: do_state_transition: State transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br>

Feb 23 11:25:48 node1 crmd: [1629]: info: do_state_transition: Starting PEngine Recheck Timer<br>Feb 23 11:27:11 node1 cib: [1625]: info: cib_stats: Processed 88 operations (8295.00us average, 0% utilization) in the last 10min<br>

------------------------------------------------------------<br><br>crm_mon snippet<br>------------------------------------------<br>============<br>Last updated: Tue Feb 23 11:27:56 2010<br>Stack: Heartbeat<br>Current DC: node1 (ac87f697-5b44-4720-a8af-12a6f2295930) - partition with quorum<br>

Version: 1.0.5-3840e6b5a305ccb803d29b468556739e75532d56<br>2 Nodes configured, unknown expected votes<br>5 Resources configured.<br>============<br><br>Online: [ node2 node1 ]<br><br>Clone Set: pgclone<br>    Started: [ node2 node1 ]<br>

Clone Set: pingclone<br>    Started: [ node2 node1 ]<br>-------------------------------------------------------------<br><br><br><div class="gmail_quote">On Tue, Feb 23, 2010 at 9:38 AM, Jayakrishnan <span dir="ltr">&lt;<a href="mailto:jayakrishnanlll@gmail.com">jayakrishnanlll@gmail.com</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Sir,<br>I am afraid to ask you but how can I tell pacemaker to compare as number instead of string.<br>

I changed -inf: to -10000 in pingd location constarint but same problem persists.<br>I also changer the global resource stickness to 10000. but still not working.<br>
<br>With thanks,<br><font color="#888888">Jayakrishnan.L</font><div><div></div><div class="h5"><br><br><div class="gmail_quote">On Tue, Feb 23, 2010 at 1:04 AM, Andrew Beekhof <span dir="ltr">&lt;<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div><div></div><div>On Mon, Feb 22, 2010 at 6:46 PM, Jayakrishnan &lt;<a href="mailto:jayakrishnanlll@gmail.com" target="_blank">jayakrishnanlll@gmail.com</a>&gt; wrote:<br>
&gt; Sir,<br>
&gt; I have setup a 2 node cluster with heartbeat 2.99  pacemaker 1.05. I am<br>
&gt; using Ubuntu 9.1. Both the packages are installed from ubuntu karmic<br>
&gt; repository.<br>
&gt; My packages are:<br>
&gt;<br>
&gt; heartbeat                   2.99.2+sles11r9-5ubuntu1<br>
&gt; heartbeat-common                     2.99.2+sles11r9-5ubuntu1<br>
&gt; heartbeat-common-dev                 2.99.2+sles11r9-5ubuntu1<br>
&gt; heartbeat-dev                        2.99.2+sles11r9-5ubuntu1<br>
&gt; libheartbeat2                        2.99.2+sles11r9-5ubuntu1<br>
&gt; libheartbeat2-dev                    2.99.2+sles11r9-5ubuntu1<br>
&gt; pacemaker-heartbeat                  1.0.5+hg20090813-0ubuntu4<br>
&gt; pacemaker-heartbeat-dev              1.0.5+hg20090813-0ubuntu4<br>
&gt;<br>
&gt; My <a href="http://ha.cf" target="_blank">ha.cf</a> file, crm configuration are all attached in the mail.<br>
&gt;<br>
&gt; I am making a postgres database cluster with slony replication. eth1 is my<br>
&gt; heartbeat link, a cross over cable is connected between the servers in eth1.<br>
&gt; eth0 is my external network where my cluster IP get assigned.<br>
&gt; server1--&gt; hostname node1<br>
&gt; node 1 192.168.10.129 eth1<br>
&gt; 192.168.1.1--&gt;eth0<br>
&gt;<br>
&gt;<br>
&gt; servver2 --&gt; hostname node2<br>
&gt; node2  192.168.10.130 eth1<br>
&gt; 192.168.1.2 --&gt; eth0<br>
&gt;<br>
&gt; Now when I pull out my eth1 cable, I need to make a failover to the other<br>
&gt; node. For that i have configured pingd as follows. But it is not working. My<br>
&gt; resources are not at all starting when I give rule as<br>
&gt; rule -inf: not_defined pingd or pingd lte0<br>
<br>
</div></div>You need to get 1.0.7 or tell pacemaker to do the comparison as a<br>
number instead of as a string.<br>
<div><div></div><div><br>
&gt;<br>
&gt; I tried changing the -inf: to inf: then the resources got started but<br>
&gt; resource failover is not taking place when i pull out the eth1 cable.<br>
&gt;<br>
&gt; Please check my configuration and kindly point out where I am missing.<br>
&gt; PLease see that I am using default resource stickness as INFINITY which is<br>
&gt; compulsory for slony replication.<br>
&gt;<br>
&gt; MY <a href="http://ha.cf" target="_blank">ha.cf</a> file<br>
&gt; ------------------------------------------------------------------<br>
&gt;<br>
&gt; autojoin none<br>
&gt; keepalive 2<br>
&gt; deadtime 15<br>
&gt; warntime 10<br>
&gt; initdead 64<br>
&gt; initdead 64<br>
&gt; bcast eth1<br>
&gt; auto_failback off<br>
&gt; node node1<br>
&gt; node node2<br>
&gt; crm respawn<br>
&gt; use_logd yes<br>
&gt; ____________________________________________<br>
&gt;<br>
&gt; My crm configuration<br>
&gt;<br>
&gt; node $id=&quot;3952b93e-786c-47d4-8c2f-a882e3d3d105&quot; node2 \<br>
&gt;         attributes standby=&quot;off&quot;<br>
&gt; node $id=&quot;ac87f697-5b44-4720-a8af-12a6f2295930&quot; node1 \<br>
&gt;         attributes standby=&quot;off&quot;<br>
&gt; primitive pgsql lsb:postgresql-8.4 \<br>
&gt;         meta target-role=&quot;Started&quot; resource-stickness=&quot;inherited&quot; \<br>
&gt;         op monitor interval=&quot;15s&quot; timeout=&quot;25s&quot; on-fail=&quot;standby&quot;<br>
&gt; primitive pingd ocf:pacemaker:pingd \<br>
&gt;         params name=&quot;pingd&quot; hostlist=&quot;192.168.10.1 192.168.10.75&quot; \<br>
&gt;         op monitor interval=&quot;15s&quot; timeout=&quot;5s&quot;<br>
&gt; primitive slony-fail lsb:slony_failover \<br>
&gt;         meta target-role=&quot;Started&quot;<br>
&gt; primitive slony-fail2 lsb:slony_failover2 \<br>
&gt;         meta target-role=&quot;Started&quot;<br>
&gt; primitive vir-ip ocf:heartbeat:IPaddr2 \<br>
&gt;         params ip=&quot;192.168.10.10&quot; nic=&quot;eth0&quot; cidr_netmask=&quot;24&quot;<br>
&gt; broadcast=&quot;192.168.10.255&quot; \<br>
&gt;         op monitor interval=&quot;15s&quot; timeout=&quot;25s&quot; on-fail=&quot;standby&quot; \<br>
&gt;         meta target-role=&quot;Started&quot;<br>
&gt; clone pgclone pgsql \<br>
&gt;         meta notify=&quot;true&quot; globally-unique=&quot;false&quot; interleave=&quot;true&quot;<br>
&gt; target-role=&quot;Started&quot;<br>
&gt; clone pingclone pingd \<br>
&gt;         meta globally-unique=&quot;false&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot;<br>
&gt; location vir-ip-with-pingd vir-ip \<br>
&gt;         rule $id=&quot;vir-ip-with-pingd-rule&quot; inf: not_defined pingd or pingd<br>
&gt; lte 0<br>
&gt; meta globally-unique=&quot;false&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot;<br>
&gt; colocation ip-with-slony inf: slony-fail vir-ip<br>
&gt; colocation ip-with-slony2 inf: slony-fail2 vir-ip<br>
&gt; order ip-b4-slony2 inf: vir-ip slony-fail2<br>
&gt; order slony-b4-ip inf: vir-ip slony-fail<br>
&gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt;         dc-version=&quot;1.0.5-3840e6b5a305ccb803d29b468556739e75532d56&quot; \<br>
&gt;         cluster-infrastructure=&quot;Heartbeat&quot; \<br>
&gt;         no-quorum-policy=&quot;ignore&quot; \<br>
&gt;         stonith-enabled=&quot;false&quot; \<br>
&gt;         last-lrm-refresh=&quot;1266851027&quot;<br>
&gt; rsc_defaults $id=&quot;rsc-options&quot; \<br>
&gt;         resource-stickiness=&quot;INFINITY&quot;<br>
&gt;<br>
&gt; _____________________________________<br>
&gt;<br>
&gt; My crm status:<br>
&gt; __________________________<br>
&gt;<br>
&gt; crm(live)# status<br>
&gt;<br>
&gt;<br>
&gt; ============<br>
&gt; Last updated: Mon Feb 22 23:15:56 2010<br>
&gt; Stack: Heartbeat<br>
&gt; Current DC: node2 (3952b93e-786c-47d4-8c2f-a882e3d3d105) - partition with<br>
&gt; quorum<br>
&gt; Version: 1.0.5-3840e6b5a305ccb803d29b468556739e75532d56<br>
&gt; 2 Nodes configured, unknown expected votes<br>
&gt; 5 Resources configured.<br>
&gt; ============<br>
&gt;<br>
&gt; Online: [ node2 node1 ]<br>
&gt;<br>
&gt; Clone Set: pgclone<br>
&gt;     Started: [ node1 node2 ]<br>
&gt; Clone Set: pingclone<br>
&gt;     Started: [ node2 node1 ]<br>
&gt;<br>
&gt; ============================<br>
&gt;<br>
&gt; please help me out.<br>
&gt; --<br></div></div></blockquote></div><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Regards,<br><br>Jayakrishnan. L<br><br>Visit: <a href="http://www.jayakrishnan.bravehost.com">www.jayakrishnan.bravehost.com</a><br><br>