Sorry Andrew<br><br>Can you post me your crm configure show again?<br><br>Thanks<br><br><div class="gmail_quote">Il giorno 30 marzo 2012 18:53, Andrew Martin <span dir="ltr">&lt;<a href="mailto:amartin@xes-inc.com">amartin@xes-inc.com</a>&gt;</span> ha scritto:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-size:12pt;font-family:Times New Roman"><font size="3">Hi Emmanuel,</font><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">
<br></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">Thanks, that is a good idea. I updated the colocation contraint as you described. After, the cluster remains in this state (with the filesystem not mounted and the VM not started):</div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Online: [ node2 node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"><br></font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_vmstore [p_drbd_vmstore]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_tools [p_drbd_mount1]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_crm [p_drbd_mount2]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Clone Set: cl_daemons [g_daemons]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Started: [ node2 node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Stopped: [ g_daemons:2 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">stonith-node1    (stonith:external/tripplitepdu):        Started node2</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">stonith-node2    (stonith:external/tripplitepdu):        Started node1</font></div><div><font size="3"><br></font></div><div><font size="3">I noticed that Pacemaker had not issued &quot;drbdadm connect&quot; for any of the DRBD resources on node2</font></div>
<div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"># service drbd status</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">drbd driver loaded OK; device status:</font></div>
<div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">version: 8.3.7 (api:88/proto:86-91)</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">GIT-hash: ea9e28dbff98e331a62bcbcc63a6135808fe2917 build by root@node2, 2012-02-02 12:29:26</font></div>
<div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">m:res      cs          ro                 ds                 p      mounted  fstype</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">0:vmstore  StandAlone  Secondary/Unknown  Outdated/DUnknown  r----</font></div>
<div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">1:mount1    StandAlone  Secondary/Unknown  Outdated/DUnknown  r----</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">2:mount2      StandAlone  Secondary/Unknown  Outdated/DUnknown  r----</font></div>
<div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"># drbdadm cstate all</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">StandAlone</font></div>
<div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">StandAlone</font></div><div style><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">StandAlone</font></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">
<br></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">After manually issuing &quot;drbdadm connect all&quot; on node2 the rest of the resources eventually started (several minutes later) on node1:</div>
<div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Online: [ node2 node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"><br></font></div><div>
<font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_vmstore [p_drbd_vmstore]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_mount1 [p_drbd_mount1]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Master/Slave Set: ms_drbd_mount2 [p_drbd_mount2]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Masters: [ node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Slaves: [ node2 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Resource Group: g_vm</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     p_fs_vmstore       (ocf::heartbeat:Filesystem):    Started node1</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     p_vm               (ocf::heartbeat:VirtualDomain): Started node1</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Clone Set: cl_daemons [g_daemons]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Started: [ node2 node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Stopped: [ g_daemons:2 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Clone Set: cl_sysadmin_notify [p_sysadmin_notify]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Started: [ node2 node1 ]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Stopped: [ p_sysadmin_notify:2 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">stonith-node1    (stonith:external/tripplitepdu):        Started node2</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">stonith-node2    (stonith:external/tripplitepdu):        Started node1</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"> Clone Set: cl_ping [p_ping]</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Started: [ node2 node1 ]</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">     Stopped: [ p_ping:2 ]</font></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><br></div></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">
The DRBD devices on node1 were all UpToDate, so it doesn&#39;t seem right that it would need to wait for node2 to be connected before it could continue promoting additional resources. I then restarted heartbeat on node2 to see if it would automatically connect the DRBD devices this time. After restarting it, the DRBD devices are not even configured:</div>
<div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif"># service drbd status</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">drbd driver loaded OK; device status:</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">version: 8.3.7 (api:88/proto:86-91)</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">GIT-hash: ea9e28dbff98e331a62bcbcc63a6135808fe2917 build by root@webapps2host, 2012-02-02 12:29:26</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">m:res      cs            ro  ds  p  mounted  fstype</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">0:vmstore  Unconfigured</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">1:mount1   Unconfigured</font></div><div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">2:mount2   Unconfigured</font></div>
<div style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><br></div></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">Looking at the log I found this part about the drbd primitives:</div><div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 lrmd: [10702]: info: operation monitor[2] on p_drbd_vmstore:1 for client 10705: pid 11065 exited with return code 7</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 crmd: [10705]: info: process_lrm_event: LRM operation p_drbd_vmstore:1_monitor_0 (call=2, rc=7, cib-update=11, confirmed=true) not running</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 lrmd: [10702]: info: operation monitor[4] on p_drbd_mount2:1 for client 10705: pid 11069 exited with return code 7</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 crmd: [10705]: info: process_lrm_event: LRM operation p_drbd_mount2:1_monitor_0 (call=4, rc=7, cib-update=12, confirmed=true) not running</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 lrmd: [10702]: info: operation monitor[3] on p_drbd_mount1:1 for client 10705: pid 11066 exited with return code 7</font></div>
<div><font face="&#39;courier new&#39;, courier, monaco, monospace, sans-serif">Mar 30 11:10:32 node2 crmd: [10705]: info: process_lrm_event: LRM operation p_drbd_mount1:1_monitor_0 (call=3, rc=7, cib-update=13, confirmed=true) not running</font></div>
<div style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><br></div></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">I am not sure what exit code 7 is - is it possible to manually run the monitor code or somehow obtain more debug about this? Here is the complete log after restarting heartbeat on node2:</div>
<div style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><a href="http://pastebin.com/KsHKi3GW" target="_blank">http://pastebin.com/KsHKi3GW</a></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">
<br></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">Thanks,</div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><br></div><div style="font-size:12pt;font-family:&#39;Times New Roman&#39;">
Andrew</div><br><hr style="font-size:12pt;font-family:&#39;Times New Roman&#39;"><div style="font-size:12pt;font-style:normal;font-family:Helvetica,Arial,sans-serif;text-decoration:none;font-weight:normal"><b>From: </b>&quot;emmanuel segura&quot; &lt;<a href="mailto:emi2fast@gmail.com" target="_blank">emi2fast@gmail.com</a>&gt;<br>
<b>To: </b>&quot;The Pacemaker cluster resource manager&quot; &lt;<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a>&gt;<br><b>Sent: </b>Friday, March 30, 2012 10:26:48 AM<br>
<b>Subject: </b>Re: [Pacemaker] Nodes will not promote DRBD resources to master on        failover<br><br>I think this constrain it&#39;s wrong<br>==================================================<br>colocation c_drbd_libvirt_vm inf: ms_drbd_vmstore:Master ms_drbd_mount1:Master ms_drbd_mount2:Master g_vm<br>
===================================================<br>
<br>change to <br>======================================================<br>colocation c_drbd_libvirt_vm inf: g_vm ms_drbd_vmstore:Master ms_drbd_mount1:Master ms_drbd_mount2:Master<br>=======================================================<br>

<br><div class="gmail_quote">Il giorno 30 marzo 2012 17:16, Andrew Martin <span dir="ltr">&lt;<a href="mailto:amartin@xes-inc.com" target="_blank">amartin@xes-inc.com</a>&gt;</span> ha scritto:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div><div style="font-size:12pt;font-family:Times New Roman">Hi Emmanuel,<div><br></div><div>Here is the output of crm configure show:</div><div><a href="http://pastebin.com/NA1fZ8dL" target="_blank">http://pastebin.com/NA1fZ8dL</a></div>

<div><br></div><div>Thanks,</div><div><br></div><div>Andrew</div><div><br><hr><div style="font-size:12pt;font-style:normal;font-family:Helvetica,Arial,sans-serif;text-decoration:none;font-weight:normal"><b>From: </b>&quot;emmanuel segura&quot; &lt;<a href="mailto:emi2fast@gmail.com" target="_blank">emi2fast@gmail.com</a>&gt;<br>

<b>To: </b>&quot;The Pacemaker cluster resource manager&quot; &lt;<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a>&gt;<br><b>Sent: </b>Friday, March 30, 2012 9:43:45 AM<br>
<b>Subject: </b>Re: [Pacemaker] Nodes will not promote DRBD resources to master on        failover<br>
<br>can you show me?<br><br>crm configure show<br><br><div class="gmail_quote">Il giorno 30 marzo 2012 16:10, Andrew Martin <span dir="ltr">&lt;<a href="mailto:amartin@xes-inc.com" target="_blank">amartin@xes-inc.com</a>&gt;</span> ha scritto:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div style="font-size:12pt;font-family:Times New Roman">Hi Andreas,<div><br></div><div>Here is a copy of my complete CIB:</div>


<div><a href="http://pastebin.com/v5wHVFuy" target="_blank">http://pastebin.com/v5wHVFuy</a></div><div><br></div><div>I&#39;ll work on generating a report using crm_report as well.</div><div><br></div><div>Thanks,</div><div>


<br></div><div>Andrew</div><div><br><hr><div style="font-size:12pt;font-style:normal;font-family:Helvetica,Arial,sans-serif;text-decoration:none;font-weight:normal"><b>From: </b>&quot;Andreas Kurz&quot; &lt;<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a>&gt;<br>


<b>To: </b><a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a><br><b>Sent: </b>Friday, March 30, 2012 4:41:16 AM<br><b>Subject: </b>Re: [Pacemaker] Nodes will not promote DRBD resources to master on failover<br>


<br>On 03/28/2012 04:56 PM, Andrew Martin wrote:<br>&gt; Hi Andreas,<br>&gt; <br>&gt; I disabled the DRBD init script and then restarted the slave node<br>&gt; (node2). After it came back up, DRBD did not start:<br>&gt; Node quorumnode (c4bf25d7-a6b7-4863-984d-aafd937c0da4): pending<br>


&gt; Online: [ node2 node1 ]<br>&gt; <br>&gt;  Master/Slave Set: ms_drbd_vmstore [p_drbd_vmstore]<br>&gt;      Masters: [ node1 ]<br>&gt;      Stopped: [ p_drbd_vmstore:1 ]<br>&gt;  Master/Slave Set: ms_drbd_mount1 [p_drbd_tools]<br>


&gt;      Masters: [ node1 ]<br>&gt;      Stopped: [ p_drbd_mount1:1 ]<br>&gt;  Master/Slave Set: ms_drbd_mount2 [p_drbdmount2]<br>&gt;      Masters: [ node1 ]<br>&gt;      Stopped: [ p_drbd_mount2:1 ]<br>&gt; ...<br>&gt; <br>


&gt; root@node2:~# service drbd status<br>&gt; drbd not loaded<br><br>Yes, expected unless Pacemaker starts DRBD<br><br>&gt; <br>&gt; Is there something else I need to change in the CIB to ensure that DRBD<br>&gt; is started? All of my DRBD devices are configured like this:<br>


&gt; primitive p_drbd_mount2 ocf:linbit:drbd \<br>&gt;         params drbd_resource=&quot;mount2&quot; \<br>&gt;         op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>&gt;         op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>


&gt; ms ms_drbd_mount2 p_drbd_mount2 \<br>&gt;         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>&gt; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br><br>That should be enough ... unable to say more without seeing the complete<br>


configuration ... too much fragments of information ;-)<br><br>Please provide (e.g. pastebin) your complete cib (cibadmin -Q) when<br>cluster is in that state ... or even better create a crm_report archive<br><br>&gt; <br>


&gt; Here is the output from the syslog (grep -i drbd /var/log/syslog):<br>&gt; Mar 28 09:24:47 node2 crmd: [3213]: info: do_lrm_rsc_op: Performing<br>&gt; key=12:315:7:24416169-73ba-469b-a2e3-56a22b437cbc<br>&gt; op=p_drbd_vmstore:1_monitor_0 )<br>


&gt; Mar 28 09:24:47 node2 lrmd: [3210]: info: rsc:p_drbd_vmstore:1 probe[2]<br>&gt; (pid 3455)<br>&gt; Mar 28 09:24:47 node2 crmd: [3213]: info: do_lrm_rsc_op: Performing<br>&gt; key=13:315:7:24416169-73ba-469b-a2e3-56a22b437cbc<br>


&gt; op=p_drbd_mount1:1_monitor_0 )<br>&gt; Mar 28 09:24:48 node2 lrmd: [3210]: info: rsc:p_drbd_mount1:1 probe[3]<br>&gt; (pid 3456)<br>&gt; Mar 28 09:24:48 node2 crmd: [3213]: info: do_lrm_rsc_op: Performing<br>&gt; key=14:315:7:24416169-73ba-469b-a2e3-56a22b437cbc<br>


&gt; op=p_drbd_mount2:1_monitor_0 )<br>&gt; Mar 28 09:24:48 node2 lrmd: [3210]: info: rsc:p_drbd_mount2:1 probe[4]<br>&gt; (pid 3457)<br>&gt; Mar 28 09:24:48 node2 Filesystem[3458]: [3517]: WARNING: Couldn&#39;t find<br>

&gt; device [/dev/drbd0]. Expected /dev/??? to exist<br>
&gt; Mar 28 09:24:48 node2 crm_attribute: [3563]: info: Invoked:<br>&gt; crm_attribute -N node2 -n master-p_drbd_mount2:1 -l reboot -D<br>&gt; Mar 28 09:24:48 node2 crm_attribute: [3557]: info: Invoked:<br>&gt; crm_attribute -N node2 -n master-p_drbd_vmstore:1 -l reboot -D<br>


&gt; Mar 28 09:24:48 node2 crm_attribute: [3562]: info: Invoked:<br>&gt; crm_attribute -N node2 -n master-p_drbd_mount1:1 -l reboot -D<br>&gt; Mar 28 09:24:48 node2 lrmd: [3210]: info: operation monitor[4] on<br>&gt; p_drbd_mount2:1 for client 3213: pid 3457 exited with return code 7<br>


&gt; Mar 28 09:24:48 node2 lrmd: [3210]: info: operation monitor[2] on<br>&gt; p_drbd_vmstore:1 for client 3213: pid 3455 exited with return code 7<br>&gt; Mar 28 09:24:48 node2 crmd: [3213]: info: process_lrm_event: LRM<br>


&gt; operation p_drbd_mount2:1_monitor_0 (call=4, rc=7, cib-update=10,<br>&gt; confirmed=true) not running<br>&gt; Mar 28 09:24:48 node2 lrmd: [3210]: info: operation monitor[3] on<br>&gt; p_drbd_mount1:1 for client 3213: pid 3456 exited with return code 7<br>


&gt; Mar 28 09:24:48 node2 crmd: [3213]: info: process_lrm_event: LRM<br>&gt; operation p_drbd_vmstore:1_monitor_0 (call=2, rc=7, cib-update=11,<br>&gt; confirmed=true) not running<br>&gt; Mar 28 09:24:48 node2 crmd: [3213]: info: process_lrm_event: LRM<br>


&gt; operation p_drbd_mount1:1_monitor_0 (call=3, rc=7, cib-update=12,<br>&gt; confirmed=true) not running<br><br>No errors, just probing ... so for any reason Pacemaker does not like to<br>start it ... use crm_simulate to find out why ... or provide information<br>


as requested above.<br><br>Regards,<br>Andreas<br><br>-- <br>Need help with Pacemaker?<br><a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a><br><br>&gt; <br>&gt; Thanks,<br>&gt; <br>&gt; Andrew<br>


&gt; <br>&gt; ------------------------------------------------------------------------<br>&gt; *From: *&quot;Andreas Kurz&quot; &lt;<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a>&gt;<br>&gt; *To: *<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a><br>


&gt; *Sent: *Wednesday, March 28, 2012 9:03:06 AM<br>&gt; *Subject: *Re: [Pacemaker] Nodes will not promote DRBD resources to<br>&gt; master on failover<br>&gt; <br>&gt; On 03/28/2012 03:47 PM, Andrew Martin wrote:<br>&gt;&gt; Hi Andreas,<br>


&gt;&gt;<br>&gt;&gt;&gt; hmm ... what is that fence-peer script doing? If you want to use<br>&gt;&gt;&gt; resource-level fencing with the help of dopd, activate the<br>&gt;&gt;&gt; drbd-peer-outdater script in the line above ... and double check if the<br>


&gt;&gt;&gt; path is correct<br>&gt;&gt; fence-peer is just a wrapper for drbd-peer-outdater that does some<br>&gt;&gt; additional logging. In my testing dopd has been working well.<br>&gt; <br>&gt; I see<br>&gt; <br>&gt;&gt;<br>


&gt;&gt;&gt;&gt; I am thinking of making the following changes to the CIB (as per the<br>&gt;&gt;&gt;&gt; official DRBD<br>&gt;&gt;&gt;&gt; guide<br>&gt;&gt;<br>&gt; <a href="http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html" target="_blank">http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html</a>) in<br>


&gt;&gt;&gt;&gt; order to add the DRBD lsb service and require that it start before the<br>&gt;&gt;&gt;&gt; ocf:linbit:drbd resources. Does this look correct?<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Where did you read that? No, deactivate the startup of DRBD on system<br>


&gt;&gt;&gt; boot and let Pacemaker manage it completely.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; primitive p_drbd-init lsb:drbd op monitor interval=&quot;30&quot;<br>&gt;&gt;&gt;&gt; colocation c_drbd_together inf:<br>&gt;&gt;&gt;&gt; p_drbd-init ms_drbd_vmstore:Master ms_drbd_mount1:Master<br>


&gt;&gt;&gt;&gt; ms_drbd_mount2:Master<br>&gt;&gt;&gt;&gt; order drbd_init_first inf: ms_drbd_vmstore:promote<br>&gt;&gt;&gt;&gt; ms_drbd_mount1:promote ms_drbd_mount2:promote p_drbd-init:start<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; This doesn&#39;t seem to require that drbd be also running on the node where<br>


&gt;&gt;&gt;&gt; the ocf:linbit:drbd resources are slave (which it would need to do to be<br>&gt;&gt;&gt;&gt; a DRBD SyncTarget) - how can I ensure that drbd is running everywhere?<br>&gt;&gt;&gt;&gt; (clone cl_drbd p_drbd-init ?)<br>


&gt;&gt;&gt;<br>&gt;&gt;&gt; This is really not needed.<br>&gt;&gt; I was following the official DRBD Users Guide:<br>&gt;&gt; <a href="http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html" target="_blank">http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html</a><br>


&gt;&gt;<br>&gt;&gt; If I am understanding your previous message correctly, I do not need to<br>&gt;&gt; add a lsb primitive for the drbd daemon? It will be<br>&gt;&gt; started/stopped/managed automatically by my ocf:linbit:drbd resources<br>


&gt;&gt; (and I can remove the /etc/rc* symlinks)?<br>&gt; <br>&gt; Yes, you don&#39;t need that LSB script when using Pacemaker and should not<br>&gt; let init start it.<br>&gt; <br>&gt; Regards,<br>&gt; Andreas<br>&gt; <br>


&gt; -- <br>&gt; Need help with Pacemaker?<br>&gt; <a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a><br>&gt; <br>&gt;&gt;<br>&gt;&gt; Thanks,<br>&gt;&gt;<br>&gt;&gt; Andrew<br>&gt;&gt;<br>


&gt;&gt; ------------------------------------------------------------------------<br>&gt;&gt; *From: *&quot;Andreas Kurz&quot; &lt;<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a> &lt;mailto:<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a>&gt;&gt;<br>


&gt;&gt; *To: *<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a> &lt;mailto:<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a>&gt;<br>


&gt;&gt; *Sent: *Wednesday, March 28, 2012 7:27:34 AM<br>&gt;&gt; *Subject: *Re: [Pacemaker] Nodes will not promote DRBD resources to<br>&gt;&gt; master on failover<br>&gt;&gt;<br>&gt;&gt; On 03/28/2012 12:13 AM, Andrew Martin wrote:<br>


&gt;&gt;&gt; Hi Andreas,<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Thanks, I&#39;ve updated the colocation rule to be in the correct order. I<br>&gt;&gt;&gt; also enabled the STONITH resource (this was temporarily disabled before<br>


&gt;&gt;&gt; for some additional testing). DRBD has its own network connection over<br>&gt;&gt;&gt; the br1 interface (<a href="http://192.168.5.0/24" target="_blank">192.168.5.0/24</a> network), a direct crossover cable<br>


&gt;&gt;&gt; between node1 and node2:<br>&gt;&gt;&gt; global { usage-count no; }<br>&gt;&gt;&gt; common {<br>&gt;&gt;&gt;         syncer { rate 110M; }<br>&gt;&gt;&gt; }<br>&gt;&gt;&gt; resource vmstore {<br>&gt;&gt;&gt;         protocol C;<br>


&gt;&gt;&gt;         startup {<br>&gt;&gt;&gt;                 wfc-timeout  15;<br>&gt;&gt;&gt;                 degr-wfc-timeout 60;<br>&gt;&gt;&gt;         }<br>&gt;&gt;&gt;         handlers {<br>&gt;&gt;&gt;                 #fence-peer &quot;/usr/lib/heartbeat/drbd-peer-outdater -t 5&quot;;<br>


&gt;&gt;&gt;                 fence-peer &quot;/usr/local/bin/fence-peer&quot;;<br>&gt;&gt;<br>&gt;&gt; hmm ... what is that fence-peer script doing? If you want to use<br>&gt;&gt; resource-level fencing with the help of dopd, activate the<br>


&gt;&gt; drbd-peer-outdater script in the line above ... and double check if the<br>&gt;&gt; path is correct<br>&gt;&gt;<br>&gt;&gt;&gt;                 split-brain &quot;/usr/lib/drbd/notify-split-brain.sh<br>&gt;&gt;&gt; <a href="mailto:me@example.com" target="_blank">me@example.com</a> &lt;mailto:<a href="mailto:me@example.com" target="_blank">me@example.com</a>&gt;&quot;;<br>


&gt;&gt;&gt;         }<br>&gt;&gt;&gt;         net {<br>&gt;&gt;&gt;                 after-sb-0pri discard-zero-changes;<br>&gt;&gt;&gt;                 after-sb-1pri discard-secondary;<br>&gt;&gt;&gt;                 after-sb-2pri disconnect;<br>


&gt;&gt;&gt;                 cram-hmac-alg md5;<br>&gt;&gt;&gt;                 shared-secret &quot;xxxxx&quot;;<br>&gt;&gt;&gt;         }<br>&gt;&gt;&gt;         disk {<br>&gt;&gt;&gt;                 fencing resource-only;<br>


&gt;&gt;&gt;         }<br>&gt;&gt;&gt;         on node1 {<br>&gt;&gt;&gt;                 device /dev/drbd0;<br>&gt;&gt;&gt;                 disk /dev/sdb1;<br>&gt;&gt;&gt;                 address <a href="http://192.168.5.10:7787" target="_blank">192.168.5.10:7787</a>;<br>


&gt;&gt;&gt;                 meta-disk internal;<br>&gt;&gt;&gt;         }<br>&gt;&gt;&gt;         on node2 {<br>&gt;&gt;&gt;                 device /dev/drbd0;<br>&gt;&gt;&gt;                 disk /dev/sdf1;<br>&gt;&gt;&gt;                 address <a href="http://192.168.5.11:7787" target="_blank">192.168.5.11:7787</a>;<br>


&gt;&gt;&gt;                 meta-disk internal;<br>&gt;&gt;&gt;         }<br>&gt;&gt;&gt; }<br>&gt;&gt;&gt; # and similar for mount1 and mount2<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Also, here is my <a href="http://ha.cf" target="_blank">ha.cf</a>. It uses both the direct link between the nodes<br>


&gt;&gt;&gt; (br1) and the shared LAN network on br0 for communicating:<br>&gt;&gt;&gt; autojoin none<br>&gt;&gt;&gt; mcast br0 239.0.0.43 694 1 0<br>&gt;&gt;&gt; bcast br1<br>&gt;&gt;&gt; warntime 5<br>&gt;&gt;&gt; deadtime 15<br>


&gt;&gt;&gt; initdead 60<br>&gt;&gt;&gt; keepalive 2<br>&gt;&gt;&gt; node node1<br>&gt;&gt;&gt; node node2<br>&gt;&gt;&gt; node quorumnode<br>&gt;&gt;&gt; crm respawn<br>&gt;&gt;&gt; respawn hacluster /usr/lib/heartbeat/dopd<br>


&gt;&gt;&gt; apiauth dopd gid=haclient uid=hacluster<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I am thinking of making the following changes to the CIB (as per the<br>&gt;&gt;&gt; official DRBD<br>&gt;&gt;&gt; guide<br>&gt;&gt;<br>


&gt; <a href="http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html" target="_blank">http://www.drbd.org/users-guide/s-pacemaker-crm-drbd-backed-service.html</a>) in<br>&gt;&gt;&gt; order to add the DRBD lsb service and require that it start before the<br>


&gt;&gt;&gt; ocf:linbit:drbd resources. Does this look correct?<br>&gt;&gt;<br>&gt;&gt; Where did you read that? No, deactivate the startup of DRBD on system<br>&gt;&gt; boot and let Pacemaker manage it completely.<br>&gt;&gt;<br>


&gt;&gt;&gt; primitive p_drbd-init lsb:drbd op monitor interval=&quot;30&quot;<br>&gt;&gt;&gt; colocation c_drbd_together inf:<br>&gt;&gt;&gt; p_drbd-init ms_drbd_vmstore:Master ms_drbd_mount1:Master<br>&gt;&gt;&gt; ms_drbd_mount2:Master<br>


&gt;&gt;&gt; order drbd_init_first inf: ms_drbd_vmstore:promote<br>&gt;&gt;&gt; ms_drbd_mount1:promote ms_drbd_mount2:promote p_drbd-init:start<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; This doesn&#39;t seem to require that drbd be also running on the node where<br>


&gt;&gt;&gt; the ocf:linbit:drbd resources are slave (which it would need to do to be<br>&gt;&gt;&gt; a DRBD SyncTarget) - how can I ensure that drbd is running everywhere?<br>&gt;&gt;&gt; (clone cl_drbd p_drbd-init ?)<br>


&gt;&gt;<br>&gt;&gt; This is really not needed.<br>&gt;&gt;<br>&gt;&gt; Regards,<br>&gt;&gt; Andreas<br>&gt;&gt;<br>&gt;&gt; --<br>&gt;&gt; Need help with Pacemaker?<br>&gt;&gt; <a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a><br>


&gt;&gt;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Thanks,<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Andrew<br>&gt;&gt;&gt; ------------------------------------------------------------------------<br>&gt;&gt;&gt; *From: *&quot;Andreas Kurz&quot; &lt;<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a> &lt;mailto:<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a>&gt;&gt;<br>


&gt;&gt;&gt; *To: *<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a><br>&gt; &lt;mailto:*<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a>&gt;<br>


&gt;&gt;&gt; *Sent: *Monday, March 26, 2012 5:56:22 PM<br>&gt;&gt;&gt; *Subject: *Re: [Pacemaker] Nodes will not promote DRBD resources to<br>&gt;&gt;&gt; master on failover<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; On 03/24/2012 08:15 PM, Andrew Martin wrote:<br>


&gt;&gt;&gt;&gt; Hi Andreas,<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; My complete cluster configuration is as follows:<br>&gt;&gt;&gt;&gt; ============<br>&gt;&gt;&gt;&gt; Last updated: Sat Mar 24 13:51:55 2012<br>&gt;&gt;&gt;&gt; Last change: Sat Mar 24 13:41:55 2012<br>


&gt;&gt;&gt;&gt; Stack: Heartbeat<br>&gt;&gt;&gt;&gt; Current DC: node2 (9100538b-7a1f-41fd-9c1a-c6b4b1c32b18) - partition<br>&gt;&gt;&gt;&gt; with quorum<br>&gt;&gt;&gt;&gt; Version: 1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c<br>


&gt;&gt;&gt;&gt; 3 Nodes configured, unknown expected votes<br>&gt;&gt;&gt;&gt; 19 Resources configured.<br>&gt;&gt;&gt;&gt; ============<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Node quorumnode (c4bf25d7-a6b7-4863-984d-aafd937c0da4): OFFLINE<br>


&gt; (standby)<br>&gt;&gt;&gt;&gt; Online: [ node2 node1 ]<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_vmstore [p_drbd_vmstore]<br>&gt;&gt;&gt;&gt;      Masters: [ node2 ]<br>&gt;&gt;&gt;&gt;      Slaves: [ node1 ]<br>


&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount1 [p_drbd_mount1]<br>&gt;&gt;&gt;&gt;      Masters: [ node2 ]<br>&gt;&gt;&gt;&gt;      Slaves: [ node1 ]<br>&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount2 [p_drbd_mount2]<br>


&gt;&gt;&gt;&gt;      Masters: [ node2 ]<br>&gt;&gt;&gt;&gt;      Slaves: [ node1 ]<br>&gt;&gt;&gt;&gt;  Resource Group: g_vm<br>&gt;&gt;&gt;&gt;      p_fs_vmstore(ocf::heartbeat:Filesystem):Started node2<br>&gt;&gt;&gt;&gt;      p_vm(ocf::heartbeat:VirtualDomain):Started node2<br>


&gt;&gt;&gt;&gt;  Clone Set: cl_daemons [g_daemons]<br>&gt;&gt;&gt;&gt;      Started: [ node2 node1 ]<br>&gt;&gt;&gt;&gt;      Stopped: [ g_daemons:2 ]<br>&gt;&gt;&gt;&gt;  Clone Set: cl_sysadmin_notify [p_sysadmin_notify]<br>


&gt;&gt;&gt;&gt;      Started: [ node2 node1 ]<br>&gt;&gt;&gt;&gt;      Stopped: [ p_sysadmin_notify:2 ]<br>&gt;&gt;&gt;&gt;  stonith-node1(stonith:external/tripplitepdu):Started node2<br>&gt;&gt;&gt;&gt;  stonith-node2(stonith:external/tripplitepdu):Started node1<br>


&gt;&gt;&gt;&gt;  Clone Set: cl_ping [p_ping]<br>&gt;&gt;&gt;&gt;      Started: [ node2 node1 ]<br>&gt;&gt;&gt;&gt;      Stopped: [ p_ping:2 ]<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; node $id=&quot;6553a515-273e-42fe-ab9e-00f74bd582c3&quot; node1 \<br>


&gt;&gt;&gt;&gt;         attributes standby=&quot;off&quot;<br>&gt;&gt;&gt;&gt; node $id=&quot;9100538b-7a1f-41fd-9c1a-c6b4b1c32b18&quot; node2 \<br>&gt;&gt;&gt;&gt;         attributes standby=&quot;off&quot;<br>&gt;&gt;&gt;&gt; node $id=&quot;c4bf25d7-a6b7-4863-984d-aafd937c0da4&quot; quorumnode \<br>


&gt;&gt;&gt;&gt;         attributes standby=&quot;on&quot;<br>&gt;&gt;&gt;&gt; primitive p_drbd_mount2 ocf:linbit:drbd \<br>&gt;&gt;&gt;&gt;         params drbd_resource=&quot;mount2&quot; \<br>&gt;&gt;&gt;&gt;         op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>


&gt;&gt;&gt;&gt;         op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>&gt;&gt;&gt;&gt; primitive p_drbd_mount1 ocf:linbit:drbd \<br>&gt;&gt;&gt;&gt;         params drbd_resource=&quot;mount1&quot; \<br>&gt;&gt;&gt;&gt;         op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>


&gt;&gt;&gt;&gt;         op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>&gt;&gt;&gt;&gt; primitive p_drbd_vmstore ocf:linbit:drbd \<br>&gt;&gt;&gt;&gt;         params drbd_resource=&quot;vmstore&quot; \<br>

&gt;&gt;&gt;&gt;         op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>
&gt;&gt;&gt;&gt;         op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>&gt;&gt;&gt;&gt; primitive p_fs_vmstore ocf:heartbeat:Filesystem \<br>&gt;&gt;&gt;&gt;         params device=&quot;/dev/drbd0&quot; directory=&quot;/vmstore&quot; fstype=&quot;ext4&quot; \<br>


&gt;&gt;&gt;&gt;         op start interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>&gt;&gt;&gt;&gt;         op stop interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>&gt;&gt;&gt;&gt;         op monitor interval=&quot;20s&quot; timeout=&quot;40s&quot;<br>


&gt;&gt;&gt;&gt; primitive p_libvirt-bin upstart:libvirt-bin \<br>&gt;&gt;&gt;&gt;         op monitor interval=&quot;30&quot;<br>&gt;&gt;&gt;&gt; primitive p_ping ocf:pacemaker:ping \<br>&gt;&gt;&gt;&gt;         params name=&quot;p_ping&quot; host_list=&quot;192.168.1.10 192.168.1.11&quot;<br>


&gt;&gt;&gt;&gt; multiplier=&quot;1000&quot; \<br>&gt;&gt;&gt;&gt;         op monitor interval=&quot;20s&quot;<br>&gt;&gt;&gt;&gt; primitive p_sysadmin_notify ocf:heartbeat:MailTo \<br>&gt;&gt;&gt;&gt;         params email=&quot;<a href="mailto:me@example.com" target="_blank">me@example.com</a> &lt;mailto:<a href="mailto:me@example.com" target="_blank">me@example.com</a>&gt;&quot; \<br>


&gt;&gt;&gt;&gt;         params subject=&quot;Pacemaker Change&quot; \<br>&gt;&gt;&gt;&gt;         op start interval=&quot;0&quot; timeout=&quot;10&quot; \<br>&gt;&gt;&gt;&gt;         op stop interval=&quot;0&quot; timeout=&quot;10&quot; \<br>


&gt;&gt;&gt;&gt;         op monitor interval=&quot;10&quot; timeout=&quot;10&quot;<br>&gt;&gt;&gt;&gt; primitive p_vm ocf:heartbeat:VirtualDomain \<br>&gt;&gt;&gt;&gt;         params config=&quot;/vmstore/config/vm.xml&quot; \<br>


&gt;&gt;&gt;&gt;         meta allow-migrate=&quot;false&quot; \<br>&gt;&gt;&gt;&gt;         op start interval=&quot;0&quot; timeout=&quot;120s&quot; \<br>&gt;&gt;&gt;&gt;         op stop interval=&quot;0&quot; timeout=&quot;120s&quot; \<br>


&gt;&gt;&gt;&gt;         op monitor interval=&quot;10&quot; timeout=&quot;30&quot;<br>&gt;&gt;&gt;&gt; primitive stonith-node1 stonith:external/tripplitepdu \<br>&gt;&gt;&gt;&gt;         params pdu_ipaddr=&quot;192.168.1.12&quot; pdu_port=&quot;1&quot; pdu_username=&quot;xxx&quot;<br>


&gt;&gt;&gt;&gt; pdu_password=&quot;xxx&quot; hostname_to_stonith=&quot;node1&quot;<br>&gt;&gt;&gt;&gt; primitive stonith-node2 stonith:external/tripplitepdu \<br>&gt;&gt;&gt;&gt;         params pdu_ipaddr=&quot;192.168.1.12&quot; pdu_port=&quot;2&quot; pdu_username=&quot;xxx&quot;<br>


&gt;&gt;&gt;&gt; pdu_password=&quot;xxx&quot; hostname_to_stonith=&quot;node2&quot;<br>&gt;&gt;&gt;&gt; group g_daemons p_libvirt-bin<br>&gt;&gt;&gt;&gt; group g_vm p_fs_vmstore p_vm<br>&gt;&gt;&gt;&gt; ms ms_drbd_mount2 p_drbd_mount2 \<br>


&gt;&gt;&gt;&gt;         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>&gt;&gt;&gt;&gt; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>&gt;&gt;&gt;&gt; ms ms_drbd_mount1 p_drbd_mount1 \<br>


&gt;&gt;&gt;&gt;         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>&gt;&gt;&gt;&gt; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>&gt;&gt;&gt;&gt; ms ms_drbd_vmstore p_drbd_vmstore \<br>


&gt;&gt;&gt;&gt;         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>&gt;&gt;&gt;&gt; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>&gt;&gt;&gt;&gt; clone cl_daemons g_daemons<br>


&gt;&gt;&gt;&gt; clone cl_ping p_ping \<br>&gt;&gt;&gt;&gt;         meta interleave=&quot;true&quot;<br>&gt;&gt;&gt;&gt; clone cl_sysadmin_notify p_sysadmin_notify<br>&gt;&gt;&gt;&gt; location l-st-node1 stonith-node1 -inf: node1<br>


&gt;&gt;&gt;&gt; location l-st-node2 stonith-node2 -inf: node2<br>&gt;&gt;&gt;&gt; location l_run_on_most_connected p_vm \<br>&gt;&gt;&gt;&gt;         rule $id=&quot;l_run_on_most_connected-rule&quot; p_ping: defined p_ping<br>


&gt;&gt;&gt;&gt; colocation c_drbd_libvirt_vm inf: ms_drbd_vmstore:Master<br>&gt;&gt;&gt;&gt; ms_drbd_mount1:Master ms_drbd_mount2:Master g_vm<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; As Emmanuel already said, g_vm has to be in the first place in this<br>


&gt;&gt;&gt; collocation constraint .... g_vm must be colocated with the drbd masters.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; order o_drbd-fs-vm inf: ms_drbd_vmstore:promote ms_drbd_mount1:promote<br>&gt;&gt;&gt;&gt; ms_drbd_mount2:promote cl_daemons:start g_vm:start<br>


&gt;&gt;&gt;&gt; property $id=&quot;cib-bootstrap-options&quot; \<br>&gt;&gt;&gt;&gt;         dc-version=&quot;1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c&quot; \<br>&gt;&gt;&gt;&gt;         cluster-infrastructure=&quot;Heartbeat&quot; \<br>


&gt;&gt;&gt;&gt;         stonith-enabled=&quot;false&quot; \<br>&gt;&gt;&gt;&gt;         no-quorum-policy=&quot;stop&quot; \<br>&gt;&gt;&gt;&gt;         last-lrm-refresh=&quot;1332539900&quot; \<br>&gt;&gt;&gt;&gt;         cluster-recheck-interval=&quot;5m&quot; \<br>


&gt;&gt;&gt;&gt;         crmd-integration-timeout=&quot;3m&quot; \<br>&gt;&gt;&gt;&gt;         shutdown-escalation=&quot;5m&quot;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; The STONITH plugin is a custom plugin I wrote for the Tripp-Lite<br>


&gt;&gt;&gt;&gt; PDUMH20ATNET that I&#39;m using as the STONITH device:<br>&gt;&gt;&gt;&gt; <a href="http://www.tripplite.com/shared/product-pages/en/PDUMH20ATNET.pdf" target="_blank">http://www.tripplite.com/shared/product-pages/en/PDUMH20ATNET.pdf</a><br>


&gt;&gt;&gt;<br>&gt;&gt;&gt; And why don&#39;t using it? .... stonith-enabled=&quot;false&quot;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; As you can see, I left the DRBD service to be started by the operating<br>


&gt;&gt;&gt;&gt; system (as an lsb script at boot time) however Pacemaker controls<br>&gt;&gt;&gt;&gt; actually bringing up/taking down the individual DRBD devices.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Don&#39;t start drbd on system boot, give Pacemaker the full control.<br>


&gt;&gt;&gt;<br>&gt;&gt;&gt; The<br>&gt;&gt;&gt;&gt; behavior I observe is as follows: I issue &quot;crm resource migrate p_vm&quot; on<br>&gt;&gt;&gt;&gt; node1 and failover successfully to node2. During this time, node2 fences<br>


&gt;&gt;&gt;&gt; node1&#39;s DRBD devices (using dopd) and marks them as Outdated. Meanwhile<br>&gt;&gt;&gt;&gt; node2&#39;s DRBD devices are UpToDate. I then shutdown both nodes and then<br>&gt;&gt;&gt;&gt; bring them back up. They reconnect to the cluster (with quorum), and<br>


&gt;&gt;&gt;&gt; node1&#39;s DRBD devices are still Outdated as expected and node2&#39;s DRBD<br>&gt;&gt;&gt;&gt; devices are still UpToDate, as expected. At this point, DRBD starts on<br>&gt;&gt;&gt;&gt; both nodes, however node2 will not set DRBD as master:<br>


&gt;&gt;&gt;&gt; Node quorumnode (c4bf25d7-a6b7-4863-984d-aafd937c0da4): OFFLINE<br>&gt; (standby)<br>&gt;&gt;&gt;&gt; Online: [ node2 node1 ]<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_vmstore [p_drbd_vmstore]<br>


&gt;&gt;&gt;&gt;      Slaves: [ node1 node2 ]<br>&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount1 [p_drbd_mount1]<br>&gt;&gt;&gt;&gt;      Slaves: [ node1 node 2 ]<br>&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount2 [p_drbd_mount2]<br>


&gt;&gt;&gt;&gt;      Slaves: [ node1 node2 ]<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; There should really be no interruption of the drbd replication on vm<br>&gt;&gt;&gt; migration that activates the dopd ... drbd has its own direct network<br>


&gt;&gt;&gt; connection?<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Please share your <a href="http://ha.cf" target="_blank">ha.cf</a> file and your drbd configuration. Watch out for<br>&gt;&gt;&gt; drbd messages in your kernel log file, that should give you additional<br>


&gt;&gt;&gt; information when/why the drbd connection was lost.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Regards,<br>&gt;&gt;&gt; Andreas<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; --<br>&gt;&gt;&gt; Need help with Pacemaker?<br>&gt;&gt;&gt; <a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a><br>


&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; I am having trouble sorting through the logging information because<br>&gt;&gt;&gt;&gt; there is so much of it in /var/log/daemon.log, but I can&#39;t  find an<br>&gt;&gt;&gt;&gt; error message printed about why it will not promote node2. At this point<br>


&gt;&gt;&gt;&gt; the DRBD devices are as follows:<br>&gt;&gt;&gt;&gt; node2: cstate = WFConnection dstate=UpToDate<br>&gt;&gt;&gt;&gt; node1: cstate = StandAlone dstate=Outdated<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; I don&#39;t see any reason why node2 can&#39;t become DRBD master, or am I<br>


&gt;&gt;&gt;&gt; missing something? If I do &quot;drbdadm connect all&quot; on node1, then the<br>&gt;&gt;&gt;&gt; cstate on both nodes changes to &quot;Connected&quot; and node2 immediately<br>&gt;&gt;&gt;&gt; promotes the DRBD resources to master. Any ideas on why I&#39;m observing<br>


&gt;&gt;&gt;&gt; this incorrect behavior?<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Any tips on how I can better filter through the pacemaker/heartbeat logs<br>&gt;&gt;&gt;&gt; or how to get additional useful debug information?<br>


&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Thanks,<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Andrew<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; ------------------------------------------------------------------------<br>&gt;&gt;&gt;&gt; *From: *&quot;Andreas Kurz&quot; &lt;<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a><br>


&gt; &lt;mailto:<a href="mailto:andreas@hastexo.com" target="_blank">andreas@hastexo.com</a>&gt;&gt;<br>&gt;&gt;&gt;&gt; *To: *<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a><br>


&gt;&gt; &lt;mailto:*<a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a>&gt;<br>&gt;&gt;&gt;&gt; *Sent: *Wednesday, 1 February, 2012 4:19:25 PM<br>&gt;&gt;&gt;&gt; *Subject: *Re: [Pacemaker] Nodes will not promote DRBD resources to<br>


&gt;&gt;&gt;&gt; master on failover<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; On 01/25/2012 08:58 PM, Andrew Martin wrote:<br>&gt;&gt;&gt;&gt;&gt; Hello,<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; Recently I finished configuring a two-node cluster with pacemaker 1.1.6<br>


&gt;&gt;&gt;&gt;&gt; and heartbeat 3.0.5 on nodes running Ubuntu 10.04. This cluster<br>&gt; includes<br>&gt;&gt;&gt;&gt;&gt; the following resources:<br>&gt;&gt;&gt;&gt;&gt; - primitives for DRBD storage devices<br>&gt;&gt;&gt;&gt;&gt; - primitives for mounting the filesystem on the DRBD storage<br>


&gt;&gt;&gt;&gt;&gt; - primitives for some mount binds<br>&gt;&gt;&gt;&gt;&gt; - primitive for starting apache<br>&gt;&gt;&gt;&gt;&gt; - primitives for starting samba and nfs servers (following instructions<br>&gt;&gt;&gt;&gt;&gt; here &lt;<a href="http://www.linbit.com/fileadmin/tech-guides/ha-nfs.pdf" target="_blank">http://www.linbit.com/fileadmin/tech-guides/ha-nfs.pdf</a>&gt;)<br>


&gt;&gt;&gt;&gt;&gt; - primitives for exporting nfs shares (ocf:heartbeat:exportfs)<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; not enough information ... please share at least your complete cluster<br>&gt;&gt;&gt;&gt; configuration<br>


&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Regards,<br>&gt;&gt;&gt;&gt; Andreas<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; --<br>&gt;&gt;&gt;&gt; Need help with Pacemaker?<br>&gt;&gt;&gt;&gt; <a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a><br>


&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; Perhaps this is best described through the output of crm_mon:<br>&gt;&gt;&gt;&gt;&gt; Online: [ node1 node2 ]<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount1 [p_drbd_mount1] (unmanaged)<br>


&gt;&gt;&gt;&gt;&gt;      p_drbd_mount1:0     (ocf::linbit:drbd):     Started node2<br>&gt;&gt;&gt; (unmanaged)<br>&gt;&gt;&gt;&gt;&gt;      p_drbd_mount1:1     (ocf::linbit:drbd):     Started node1<br>&gt;&gt;&gt;&gt;&gt; (unmanaged) FAILED<br>


&gt;&gt;&gt;&gt;&gt;  Master/Slave Set: ms_drbd_mount2 [p_drbd_mount2]<br>&gt;&gt;&gt;&gt;&gt;      p_drbd_mount2:0       (ocf::linbit:drbd):     Master node1<br>&gt;&gt;&gt;&gt;&gt; (unmanaged) FAILED<br>&gt;&gt;&gt;&gt;&gt;      Slaves: [ node2 ]<br>


&gt;&gt;&gt;&gt;&gt;  Resource Group: g_core<br>&gt;&gt;&gt;&gt;&gt;      p_fs_mount1 (ocf::heartbeat:Filesystem):    Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_fs_mount2   (ocf::heartbeat:Filesystem):    Started node1<br>


&gt;&gt;&gt;&gt;&gt;      p_ip_nfs   (ocf::heartbeat:IPaddr2):       Started node1<br>&gt;&gt;&gt;&gt;&gt;  Resource Group: g_apache<br>&gt;&gt;&gt;&gt;&gt;      p_fs_mountbind1    (ocf::heartbeat:Filesystem):    Started node1<br>


&gt;&gt;&gt;&gt;&gt;      p_fs_mountbind2    (ocf::heartbeat:Filesystem):    Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_fs_mountbind3    (ocf::heartbeat:Filesystem):    Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_fs_varwww        (ocf::heartbeat:Filesystem):    Started node1<br>


&gt;&gt;&gt;&gt;&gt;      p_apache   (ocf::heartbeat:apache):        Started node1<br>&gt;&gt;&gt;&gt;&gt;  Resource Group: g_fileservers<br>&gt;&gt;&gt;&gt;&gt;      p_lsb_smb  (lsb:smbd):     Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_lsb_nmb  (lsb:nmbd):     Started node1<br>


&gt;&gt;&gt;&gt;&gt;      p_lsb_nfsserver    (lsb:nfs-kernel-server):        Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_exportfs_mount1   (ocf::heartbeat:exportfs):      Started node1<br>&gt;&gt;&gt;&gt;&gt;      p_exportfs_mount2     (ocf::heartbeat:exportfs):      Started<br>


&gt; node1<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; I have read through the Pacemaker Explained<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;<br>&gt; &lt;<a href="http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html-single/Pacemaker_Explained" target="_blank">http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html-single/Pacemaker_Explained</a>&gt;<br>


&gt;&gt;&gt;&gt;&gt; documentation, however could not find a way to further debug these<br>&gt;&gt;&gt;&gt;&gt; problems. First, I put node1 into standby mode to attempt failover to<br>&gt;&gt;&gt;&gt;&gt; the other node (node2). Node2 appeared to start the transition to<br>


&gt;&gt;&gt;&gt;&gt; master, however it failed to promote the DRBD resources to master (the<br>&gt;&gt;&gt;&gt;&gt; first step). I have attached a copy of this session in commands.log and<br>&gt;&gt;&gt;&gt;&gt; additional excerpts from /var/log/syslog during important steps. I have<br>


&gt;&gt;&gt;&gt;&gt; attempted everything I can think of to try and start the DRBD resource<br>&gt;&gt;&gt;&gt;&gt; (e.g. start/stop/promote/manage/cleanup under crm resource, restarting<br>&gt;&gt;&gt;&gt;&gt; heartbeat) but cannot bring it out of the slave state. However, if<br>


&gt; I set<br>&gt;&gt;&gt;&gt;&gt; it to unmanaged and then run drbdadm primary all in the terminal,<br>&gt;&gt;&gt;&gt;&gt; pacemaker is satisfied and continues starting the rest of the<br>&gt; resources.<br>&gt;&gt;&gt;&gt;&gt; It then failed when attempting to mount the filesystem for mount2, the<br>


&gt;&gt;&gt;&gt;&gt; p_fs_mount2 resource. I attempted to mount the filesystem myself<br>&gt; and was<br>&gt;&gt;&gt;&gt;&gt; successful. I then unmounted it and ran cleanup on p_fs_mount2 and then<br>&gt;&gt;&gt;&gt;&gt; it mounted. The rest of the resources started as expected until the<br>


&gt;&gt;&gt;&gt;&gt; p_exportfs_mount2 resource, which failed as follows:<br>&gt;&gt;&gt;&gt;&gt; p_exportfs_mount2     (ocf::heartbeat:exportfs):      started node2<br>&gt;&gt;&gt;&gt;&gt; (unmanaged) FAILED<br>&gt;&gt;&gt;&gt;&gt;<br>


&gt;&gt;&gt;&gt;&gt; I ran cleanup on this and it started, however when running this test<br>&gt;&gt;&gt;&gt;&gt; earlier today no command could successfully start this exportfs<br>&gt;&gt; resource.<br>&gt;&gt;&gt;&gt;&gt;<br>


&gt;&gt;&gt;&gt;&gt; How can I configure pacemaker to better resolve these problems and be<br>&gt;&gt;&gt;&gt;&gt; able to bring the node up successfully on its own? What can I check to<br>&gt;&gt;&gt;&gt;&gt; determine why these failures are occuring? /var/log/syslog did not seem<br>


&gt;&gt;&gt;&gt;&gt; to contain very much useful information regarding why the failures<br>&gt;&gt;&gt;&gt; occurred.<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; Thanks,<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; Andrew<br>


&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;&gt; This body part will be downloaded on demand.<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>


&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; _______________________________________________<br>&gt;&gt;&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


&gt;&gt; &lt;mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a>&gt;<br>&gt;&gt;&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>


&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt;&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>


&gt;&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; _______________________________________________<br>


&gt;&gt;&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>&gt;&gt; &lt;mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a>&gt;<br>


&gt;&gt;&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>&gt;&gt;&gt;&gt;<br>&gt;&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>


&gt;&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>&gt;&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>


&gt;&gt;&gt;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; _______________________________________________<br>&gt;&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


&gt;&gt; &lt;mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a>&gt;<br>&gt;&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>


&gt;&gt;&gt;<br>&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>


&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>&gt;&gt;&gt;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; _______________________________________________<br>

&gt;&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
&gt;&gt; &lt;mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a>&gt;<br>&gt;&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>


&gt;&gt;&gt;<br>&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>


&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; _______________________________________________<br>&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


&gt;&gt; &lt;mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a>&gt;<br>&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>


&gt;&gt;<br>&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>


&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; _______________________________________________<br>&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>&gt;&gt;<br>&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>


&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>


&gt; <br>&gt; <br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>&gt; <br>&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>


&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>


&gt; <br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>


&gt; <br>&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>


&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br><br><br><br>_______________________________________________<br>Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>


<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br><br>Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>


Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>


</div><br></div></div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><span><font color="#888888"><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>
<br>_______________________________________________<br>Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>

<br>Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>

Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br></font></span></div><br></div></div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>
<br>_______________________________________________<br>Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br></font></span></div><br></div></div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>