<br>Sir,<br><br>You got the point...... I thought that there is some mistakes in my configurations after 2 weeks trying...  If I enable stonith and manage to shut down the failed machine, most of my problems will be solved.. Now I feel much confident...<br>

<br>But sir I need to clear the resource failures for my slony_failover script.. Because when the slony failover takes place it will give a warning message stating <br><br><span style="background-color: rgb(255, 255, 51);">Feb 16 14:50:01 node1 lrmd: [2477]: info: RA output: (slony-fail:start:stderr) &lt;stdin&gt;:4: NOTICE:  failedNode: set 1 has no other direct receivers - move now</span><br>

<br> to stderr or stdout and this warning messages are treated as resource failures by heartbeat-pacemaker. So If I want to add another script for second database failover, I am afraid the first script may block the execution of the second.. Now I have only one database replication for testing and the slony-failover script is running last while failovers..<br>

<br><br>And I still dont believe that I am chatting with the person who made the &quot;crm-cli&quot;.<br><br><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Dejan Muhamedagic</b> <span dir="ltr">&lt;<a href="mailto:dejanmm@fastmail.fm">dejanmm@fastmail.fm</a>&gt;</span><br>

Date: Thu, Feb 18, 2010 at 9:02 PM<br>Subject: Re: [Pacemaker] Need help!!! resources fail-over not taking place        properly...<br>To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br><br>
<br>
Hi,<br>
<div class="im"><br>
On Thu, Feb 18, 2010 at 08:22:26PM +0530, Jayakrishnan wrote:<br>
&gt; Hello Dejan,<br>
&gt;<br>
&gt; First of all thank you very much for your reply. I found that one of my node<br>
&gt; is having the permission problem. There the permission of /var/lib/pengine<br>
&gt; file was set to &quot;999:999&quot; I am not sure how!!!!!! However i changed it...<br>
&gt;<br>
&gt; sir, when I pull out the interface cable i am getting only this log message:<br>
&gt;<br>
&gt; Feb 18 16:55:58 node2 NetworkManager: &lt;info&gt; (eth0): carrier now OFF (device<br>
&gt; state 1)<br>
&gt;<br>
&gt; And the resource ip is not moving any where at all. It is still there in the<br>
&gt; same machine... I acn view that the IP is still assigned to the eth0<br>
&gt; interface via &quot;# ip addr show&quot;, even though the interface status is &#39;down.&#39;.<br>
&gt; Is this the split-brain?? If so how can I clear it??<br>
<br>
</div>With fencing (stonith). Please read some documentation available<br>
here: <a href="http://clusterlabs.org/wiki/Documentation" target="_blank">http://clusterlabs.org/wiki/Documentation</a><br>
<div class="im"><br>
&gt; Because of the on-fail=standy in pgsql part in my cib I am able to do a<br>
&gt; failover to another node when I manuallyu stop the postgres service in tha<br>
&gt; active machine. however even after restarting the postgres service via<br>
&gt; &quot;/etc/init.d/postgresql-8.4 start &quot; I have to run<br>
&gt; crm resource cleanup &lt;pgclone&gt;<br>
<br>
</div>Yes, that&#39;s necessary.<br>
<div class="im"><br>
&gt; to make the crm_mon or cluster identify that the service on. Till then It is<br>
&gt; showing as a failed action<br>
&gt;<br>
&gt; crm_mon snippet<br>
&gt; --------------------------------------------------------------------<br>
&gt; Last updated: Thu Feb 18 20:17:28 2010<br>
&gt; Stack: Heartbeat<br>
&gt; Current DC: node2 (3952b93e-786c-47d4-8c2f-a882e3d3d105) - partition with<br>
&gt; quorum<br>
&gt;<br>
&gt; Version: 1.0.5-3840e6b5a305ccb803d29b468556739e75532d56<br>
&gt; 2 Nodes configured, unknown expected votes<br>
&gt; 3 Resources configured.<br>
&gt; ============<br>
&gt;<br>
&gt; Node node2 (3952b93e-786c-47d4-8c2f-a882e3d3d105): standby (on-fail)<br>
&gt; Online: [ node1 ]<br>
&gt;<br>
&gt; vir-ip  (ocf::heartbeat:IPaddr2):       Started node1<br>
&gt; slony-fail      (lsb:slony_failover):   Started node1<br>
&gt; Clone Set: pgclone<br>
&gt;         Started: [ node1 ]<br>
&gt;         Stopped: [ pgsql:0 ]<br>
&gt;<br>
&gt; Failed actions:<br>
&gt;     pgsql:0_monitor_15000 (node=node2, call=33, rc=7, status=complete): not<br>
&gt; running<br>
&gt; --------------------------------------------------------------------------------<br>
&gt;<br>
&gt; Is there any way to run crm resource cleanup &lt;resource&gt; periodically??<br>
<br>
</div>Why would you want to do that? Do you expect your resources to<br>
fail regularly?<br>
<div class="im"><br>
&gt; I dont know if there is any mistake in pgsql ocf script sir.. I have given<br>
&gt; all parameters correctly but its is giving an error &quot; syntax error&quot; all the<br>
&gt; time when I use it..<br>
<br>
</div>Best to report such a case, it&#39;s either a configuration problem<br>
(did you read its metadata) or perhaps a bug in the RA.<br>
<br>
Thanks,<br>
<font color="#888888"><br>
Dejan<br>
</font><div><div></div><div class="h5"><br>
&gt; I put the same meta attributes as for the current lsb<br>
&gt; as shown below...<br>
&gt;<br>
&gt; Please help me out... should I reinstall the nodes again??<br>
&gt;<br>
&gt;<br>
&gt; On Thu, Feb 18, 2010 at 6:50 PM, Dejan Muhamedagic &lt;<a href="mailto:dejanmm@fastmail.fm">dejanmm@fastmail.fm</a>&gt;wrote:<br>
&gt;<br>
&gt; &gt; Hi,<br>
&gt; &gt;<br>
&gt; &gt; On Thu, Feb 18, 2010 at 05:09:09PM +0530, Jayakrishnan wrote:<br>
&gt; &gt; &gt; sir,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I have set up a two node cluster in Ubuntu 9.1. I have added a cluster-ip<br>
&gt; &gt; &gt; using ocf:heartbeat:IPaddr2, clonned lsb script &quot;postgresql-8.4&quot; and also<br>
&gt; &gt; &gt; added a manually created script for slony database replication.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Now every thing works fine but I am not able to use the ocf resource<br>
&gt; &gt; &gt; scripts. I mean fail over is not taking place or else even resource is<br>
&gt; &gt; not<br>
&gt; &gt; &gt; even taking. My <a href="http://ha.cf" target="_blank">ha.cf</a> file and cib configuration is attached with this<br>
&gt; &gt; mail<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; My <a href="http://ha.cf" target="_blank">ha.cf</a> file<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; autojoin none<br>
&gt; &gt; &gt; keepalive 2<br>
&gt; &gt; &gt; deadtime 15<br>
&gt; &gt; &gt; warntime 5<br>
&gt; &gt; &gt; initdead 64<br>
&gt; &gt; &gt; udpport 694<br>
&gt; &gt; &gt; bcast eth0<br>
&gt; &gt; &gt; auto_failback off<br>
&gt; &gt; &gt; node node1<br>
&gt; &gt; &gt; node node2<br>
&gt; &gt; &gt; crm respawn<br>
&gt; &gt; &gt; use_logd yes<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; My cib.xml configuration file in cli format:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; node $id=&quot;3952b93e-786c-47d4-8c2f-a882e3d3d105&quot; node2 \<br>
&gt; &gt; &gt;     attributes standby=&quot;off&quot;<br>
&gt; &gt; &gt; node $id=&quot;ac87f697-5b44-4720-a8af-12a6f2295930&quot; node1 \<br>
&gt; &gt; &gt;     attributes standby=&quot;off&quot;<br>
&gt; &gt; &gt; primitive pgsql lsb:postgresql-8.4 \<br>
&gt; &gt; &gt;     meta target-role=&quot;Started&quot; resource-stickness=&quot;inherited&quot; \<br>
&gt; &gt; &gt;     op monitor interval=&quot;15s&quot; timeout=&quot;25s&quot; on-fail=&quot;standby&quot;<br>
&gt; &gt; &gt; primitive slony-fail lsb:slony_failover \<br>
&gt; &gt; &gt;     meta target-role=&quot;Started&quot;<br>
&gt; &gt; &gt; primitive vir-ip ocf:heartbeat:IPaddr2 \<br>
&gt; &gt; &gt;     params ip=&quot;192.168.10.10&quot; nic=&quot;eth0&quot; cidr_netmask=&quot;24&quot;<br>
&gt; &gt; &gt; broadcast=&quot;192.168.10.255&quot; \<br>
&gt; &gt; &gt;     op monitor interval=&quot;15s&quot; timeout=&quot;25s&quot; on-fail=&quot;standby&quot; \<br>
&gt; &gt; &gt;     meta target-role=&quot;Started&quot;<br>
&gt; &gt; &gt; clone pgclone pgsql \<br>
&gt; &gt; &gt;     meta notify=&quot;true&quot; globally-unique=&quot;false&quot; interleave=&quot;true&quot;<br>
&gt; &gt; &gt; target-role=&quot;Started&quot;<br>
&gt; &gt; &gt; colocation ip-with-slony inf: slony-fail vir-ip<br>
&gt; &gt; &gt; order slony-b4-ip inf: vir-ip slony-fail<br>
&gt; &gt; &gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt; &gt; &gt;     dc-version=&quot;1.0.5-3840e6b5a305ccb803d29b468556739e75532d56&quot; \<br>
&gt; &gt; &gt;     cluster-infrastructure=&quot;Heartbeat&quot; \<br>
&gt; &gt; &gt;     no-quorum-policy=&quot;ignore&quot; \<br>
&gt; &gt; &gt;     stonith-enabled=&quot;false&quot; \<br>
&gt; &gt; &gt;     last-lrm-refresh=&quot;1266488780&quot;<br>
&gt; &gt; &gt; rsc_defaults $id=&quot;rsc-options&quot; \<br>
&gt; &gt; &gt;     resource-stickiness=&quot;INFINITY&quot;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I am assigning the cluster-ip (192.168.10.10) in eth0 with ip<br>
&gt; &gt; 192.168.10.129<br>
&gt; &gt; &gt; in one machine and 192.168.10.130 in another machine.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; When I pull out the eth0 interface cable fail-over is not taking place.<br>
&gt; &gt;<br>
&gt; &gt; That&#39;s split brain. More than a resource failure. Without<br>
&gt; &gt; stonith, you&#39;ll have both nodes running all resources.<br>
&gt; &gt;<br>
&gt; &gt; &gt; This is the log message i am getting while I pull out the cable:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; &quot;Feb 18 16:55:58 node2 NetworkManager: &lt;info&gt;  (eth0): carrier now OFF<br>
&gt; &gt; &gt; (device state 1)&quot;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; and after a miniute or two<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; log snippet:<br>
&gt; &gt; &gt; -------------------------------------------------------------------<br>
&gt; &gt; &gt; Feb 18 16:57:37 node2 cib: [21940]: info: cib_stats: Processed 3<br>
&gt; &gt; operations<br>
&gt; &gt; &gt; (13333.00us average, 0% utilization) in the last 10min<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: crm_timer_popped: PEngine<br>
&gt; &gt; Recheck<br>
&gt; &gt; &gt; Timer (I_PE_CALC) just popped!<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_state_transition: State<br>
&gt; &gt; &gt; transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC<br>
&gt; &gt; cause=C_TIMER_POPPED<br>
&gt; &gt; &gt; origin=crm_timer_popped ]<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: WARN: do_state_transition:<br>
&gt; &gt; Progressed<br>
&gt; &gt; &gt; to state S_POLICY_ENGINE after C_TIMER_POPPED<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_state_transition: All 2<br>
&gt; &gt; &gt; cluster nodes are eligible to run resources.<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_pe_invoke: Query 111:<br>
&gt; &gt; &gt; Requesting the current CIB: S_POLICY_ENGINE<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_pe_invoke_callback:<br>
&gt; &gt; Invoking<br>
&gt; &gt; &gt; the PE: ref=pe_calc-dc-1266492773-121, seq=2, quorate=1<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: unpack_config: On loss of<br>
&gt; &gt; &gt; CCM Quorum: Ignore<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: unpack_config: Node scores:<br>
&gt; &gt; &gt; &#39;red&#39; = -INFINITY, &#39;yellow&#39; = 0, &#39;green&#39; = 0<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: determine_online_status:<br>
&gt; &gt; Node<br>
&gt; &gt; &gt; node2 is online<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: unpack_rsc_op:<br>
&gt; &gt; &gt; slony-fail_monitor_0 on node2 returned 0 (ok) instead of the expected<br>
&gt; &gt; value:<br>
&gt; &gt; &gt; 7 (not running)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: unpack_rsc_op: Operation<br>
&gt; &gt; &gt; slony-fail_monitor_0 found resource slony-fail active on node2<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: unpack_rsc_op:<br>
&gt; &gt; &gt; pgsql:0_monitor_0 on node2 returned 0 (ok) instead of the expected value:<br>
&gt; &gt; 7<br>
&gt; &gt; &gt; (not running)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: unpack_rsc_op: Operation<br>
&gt; &gt; &gt; pgsql:0_monitor_0 found resource pgsql:0 active on node2<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: determine_online_status:<br>
&gt; &gt; Node<br>
&gt; &gt; &gt; node1 is online<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: native_print:<br>
&gt; &gt; &gt; vir-ip#011(ocf::heartbeat:IPaddr2):#011Started node2<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: native_print:<br>
&gt; &gt; &gt; slony-fail#011(lsb:slony_failover):#011Started node2<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: clone_print: Clone Set:<br>
&gt; &gt; &gt; pgclone<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: print_list: #011Started:<br>
&gt; &gt; [<br>
&gt; &gt; &gt; node2 node1 ]<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: RecurringOp:  Start<br>
&gt; &gt; &gt; recurring monitor (15s) for pgsql:1 on node1<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: LogActions: Leave<br>
&gt; &gt; resource<br>
&gt; &gt; &gt; vir-ip#011(Started node2)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: LogActions: Leave<br>
&gt; &gt; resource<br>
&gt; &gt; &gt; slony-fail#011(Started node2)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: LogActions: Leave<br>
&gt; &gt; resource<br>
&gt; &gt; &gt; pgsql:0#011(Started node2)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: notice: LogActions: Leave<br>
&gt; &gt; resource<br>
&gt; &gt; &gt; pgsql:1#011(Started node1)<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_state_transition: State<br>
&gt; &gt; &gt; transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>
&gt; &gt; &gt; cause=C_IPC_MESSAGE origin=handle_response ]<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: unpack_graph: Unpacked<br>
&gt; &gt; transition<br>
&gt; &gt; &gt; 26: 1 actions in 1 synapses<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: do_te_invoke: Processing graph<br>
&gt; &gt; 26<br>
&gt; &gt; &gt; (ref=pe_calc-dc-1266492773-121) derived from<br>
&gt; &gt; &gt; /var/lib/pengine/pe-input-125.bz2<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 crmd: [21944]: info: te_rsc_command: Initiating<br>
&gt; &gt; action<br>
&gt; &gt; &gt; 15: monitor pgsql:1_monitor_15000 on node1<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: ERROR: write_last_sequence:<br>
&gt; &gt; Cannout<br>
&gt; &gt; &gt; open series file /var/lib/pengine/pe-input.last for writing<br>
&gt; &gt;<br>
&gt; &gt; This is probably a permission problem. /var/lib/pengine should be<br>
&gt; &gt; owned by haclient:hacluster.<br>
&gt; &gt;<br>
&gt; &gt; &gt; Feb 18 17:02:53 node2 pengine: [21982]: info: process_pe_message:<br>
&gt; &gt; Transition<br>
&gt; &gt; &gt; 26: PEngine Input stored in: /var/lib/pengine/pe-input-125.bz2<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: match_graph_event: Action<br>
&gt; &gt; &gt; pgsql:1_monitor_15000 (15) confirmed on node1 (rc=0)<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: run_graph:<br>
&gt; &gt; &gt; ====================================================<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: notice: run_graph: Transition 26<br>
&gt; &gt; &gt; (Complete=1, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>
&gt; &gt; &gt; Source=/var/lib/pengine/pe-input-125.bz2): Complete<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: te_graph_trigger: Transition<br>
&gt; &gt; 26<br>
&gt; &gt; &gt; is now complete<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: notify_crmd: Transition 26<br>
&gt; &gt; &gt; status: done - &lt;null&gt;<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: do_state_transition: State<br>
&gt; &gt; &gt; transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS<br>
&gt; &gt; &gt; cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt; &gt; &gt; Feb 18 17:02:55 node2 crmd: [21944]: info: do_state_transition: Starting<br>
&gt; &gt; &gt; PEngine Recheck Timer<br>
&gt; &gt; &gt;<br>
&gt; &gt; ------------------------------------------------------------------------------<br>
&gt; &gt;<br>
&gt; &gt; Don&#39;t see anything in the logs about the IP address resource.<br>
&gt; &gt;<br>
&gt; &gt; &gt; Also I am not able to use the pgsql ocf script and hence I am using the<br>
&gt; &gt; init<br>
&gt; &gt;<br>
&gt; &gt; Why is that? Something wrong with pgsql? If so, then it should be<br>
&gt; &gt; fixed. It&#39;s always much better to use the OCF instead of LSB RA.<br>
&gt; &gt;<br>
&gt; &gt; Thanks,<br>
&gt; &gt;<br>
&gt; &gt; Dejan<br>
&gt; &gt;<br>
&gt; &gt; &gt; script and cloned it as  I need to run it on both nodes for slony data<br>
&gt; &gt; base<br>
&gt; &gt; &gt; replication.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I am using the heartbeat and pacemaker debs from the updated ubuntu<br>
&gt; &gt; karmic<br>
&gt; &gt; &gt; repo. (Heartbeat 2.99)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Please check my configuration and tell me where I am missing....[?][?][?]<br>
&gt; &gt; &gt; --<br>
&gt; &gt; &gt; Regards,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jayakrishnan. L<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Visit: <a href="http://www.jayakrishnan.bravehost.com" target="_blank">www.jayakrishnan.bravehost.com</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; Pacemaker mailing list<br>
&gt; &gt; &gt; <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Pacemaker mailing list<br>
&gt; &gt; <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Regards,<br>
&gt;<br>
&gt; Jayakrishnan. L<br>
&gt;<br>
&gt; Visit: <a href="http://www.jayakrishnan.bravehost.com" target="_blank">www.jayakrishnan.bravehost.com</a><br>
<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list<br>
&gt; <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
<br>
_______________________________________________<br>
Pacemaker mailing list<br>
<a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
</div></div></div><br><br clear="all"><br>-- <br>Regards,<br><br>Jayakrishnan. L<br><br>Visit: <a href="http://www.jayakrishnan.bravehost.com">www.jayakrishnan.bravehost.com</a><br><br>