<div dir="ltr">First of all, setting the 3rd host to be a standby (this was done before any of the resources were created) didn&#39;t stop Pacemaker attempting to start the resources there (that fails as MySQL isn&#39;t installed on that server)....<div>
<br></div><div><div>[root@drbd1 billy]# pcs status</div><div>Last updated: Wed Jul 10 13:56:20 2013</div><div>Last change: Wed Jul 10 13:55:16 2013 via cibadmin on drbd1.localdomain</div><div>Stack: cman</div><div>Current DC: drbd1.localdomain - partition with quorum</div>
<div>Version: 1.1.8-7.el6-394e906</div><div>3 Nodes configured, unknown expected votes</div><div>5 Resources configured.</div><div><br></div><div><br></div><div>Node drbd3.localdomain: standby</div><div>Online: [ drbd1.localdomain drbd2.localdomain ]</div>
<div><br></div><div>Full list of resources:</div><div><br></div><div> Master/Slave Set: ms_drbd_mysql [p_drbd_mysql]</div><div>     Masters: [ drbd1.localdomain ]</div><div>     Slaves: [ drbd2.localdomain ]</div><div> Resource Group: g_mysql</div>
<div>     p_fs_mysql (ocf::heartbeat:Filesystem):    Started drbd1.localdomain</div><div>     p_ip_mysql (ocf::heartbeat:IPaddr2):       Started drbd1.localdomain</div><div>     p_mysql    (ocf::heartbeat:mysql): Started drbd1.localdomain</div>
<div><br></div><div>Failed actions:</div><div>    p_mysql_monitor_0 (node=drbd3.localdomain, call=18, rc=5, status=complete): not installed</div></div><div><br></div><div>... </div><div><br></div><div style>Is that a bug?</div>
<div style><br></div><div style>It does at least let me &quot;pcs resource move&quot; my resources and they switch between drbd1 and drbd2.</div><div style><br></div><div style>While the resources are running on drbd1, &quot;ifdown&quot; its network connection. What I&#39;d hope would happen in that scenario is that it would be recognised that there&#39;s still a quorum (drbd2 + drbd3) and the resources would be migrated to drbd2; instead the resources are stopped...</div>
<div style><br></div><div style><div>[root@drbd2 billy]# pcs status</div><div>Last updated: Wed Jul 10 14:03:03 2013</div><div>Last change: Wed Jul 10 13:59:19 2013 via crm_resource on drbd1.localdomain</div><div>Stack: cman</div>
<div>Current DC: drbd2.localdomain - partition with quorum</div><div>Version: 1.1.8-7.el6-394e906</div><div>3 Nodes configured, unknown expected votes</div><div>5 Resources configured.</div><div><br></div><div><br></div><div>
Node drbd3.localdomain: standby</div><div>Online: [ drbd2.localdomain ]</div><div>OFFLINE: [ drbd1.localdomain ]</div><div><br></div><div>Full list of resources:</div><div><br></div><div> Master/Slave Set: ms_drbd_mysql [p_drbd_mysql]</div>
<div>     Masters: [ drbd2.localdomain ]</div><div>     Stopped: [ p_drbd_mysql:1 ]</div><div> Resource Group: g_mysql</div><div>     p_fs_mysql (ocf::heartbeat:Filesystem):    Stopped</div><div>     p_ip_mysql (ocf::heartbeat:IPaddr2):       Stopped</div>
<div>     p_mysql    (ocf::heartbeat:mysql): Stopped</div><div><br></div><div>Failed actions:</div><div>    p_mysql_monitor_0 (node=drbd3.localdomain, call=18, rc=5, status=complete): not installed</div><div><br></div></div>
<div style>...</div><div style><br></div><div style>When I look at the log files, I see that there&#39;s an attempt to fence drbd1 even though I have &lt;nvpair id=&quot;cib-bootstrap-options-stonith-enabled&quot; name=&quot;stonith-enabled&quot; value=&quot;false&quot;/&gt; in the CIB. Why would the cluster still be attempting to STONITH?</div>
<div style><br></div><div style>The CIB and the log files from the time I dropped the network connection can be found at <a href="http://clusterdb.com/upload/pacemaker_logs.zip">http://clusterdb.com/upload/pacemaker_logs.zip</a></div>
<div style><br></div><div style>Thanks for the help, Andrew.</div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On 10 July 2013 12:02, Andrew Beekhof <span dir="ltr">&lt;<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im"><br>
On 09/07/2013, at 3:59 PM, Andrew Morgan &lt;<a href="mailto:andrewjamesmorgan@gmail.com">andrewjamesmorgan@gmail.com</a>&gt; wrote:<br>
<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On 9 July 2013 04:11, Andrew Beekhof &lt;<a href="mailto:andrew@beekhof.net">andrew@beekhof.net</a>&gt; wrote:<br>
&gt;<br>
&gt; On 08/07/2013, at 11:35 PM, Andrew Morgan &lt;<a href="mailto:andrewjamesmorgan@gmail.com">andrewjamesmorgan@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; Thanks Florian.<br>
&gt; &gt;<br>
&gt; &gt; The problem I have is that I&#39;d like to define a HA configuration that isn&#39;t dependent on a specific set of fencing hardware (or any fencing hardware at all for that matter) and as the stack has the quorum capability included I&#39;m hoping that this is an option.<br>

&gt; &gt;<br>
&gt; &gt; I&#39;ve not been able to find any quorum commands within pcs; the closest I&#39;ve found is setting a node to &quot;standby&quot; but when I do that, it appears to have lost its quorum vote<br>
&gt;<br>
&gt; This is not the case.<br>
&gt;<br>
&gt; My test was to have 3 nodes, node 3 defined as being on standby. My resources were running on node 2. I then dropped the network connection on node 2 hoping that node 1 and node 3 would maintain a quorum and that the resources would start on node 1 - instead the resources were stopped.<br>

<br>
</div>I&#39;d like to see logs of that.  Because I&#39;m having a really hard time believing it.<br>
<div class="im"><br>
&gt;<br>
&gt; I have quorum enabled but on pcs status it says that the number of votes required is unknown - is there something else that I need to configure?<br>
<br>
</div>Something sounds very wrong with your cluster.<br>
<div class="HOEnZb"><div class="h5"><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; &gt; - this seems at odds with the help text....<br>
&gt; &gt;<br>
&gt; &gt; standby &lt;node&gt;<br>
&gt; &gt;         Put specified node into standby mode (the node specified will no longer be able to host resources<br>
&gt; &gt;<br>
&gt; &gt; Regards, Andrew.<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; On 8 July 2013 10:23, Florian Crouzat &lt;<a href="mailto:gentoo@floriancrouzat.net">gentoo@floriancrouzat.net</a>&gt; wrote:<br>
&gt; &gt; Le 08/07/2013 09:49, Andrew Morgan a écrit :<br>
&gt; &gt;<br>
&gt; &gt; I&#39;m attempting to implement a 3 node cluster where only 2 nodes are<br>
&gt; &gt; there to actually run the services and the 3rd is there to form a quorum<br>
&gt; &gt; (so that the cluster stays up when one of the 2 &#39;workload&#39; nodes fails).<br>
&gt; &gt;<br>
&gt; &gt; To this end, I added a location avoids contraint so that the services<br>
&gt; &gt; (including drbd) don&#39;t get placed on the 3rd node (drbd3)...<br>
&gt; &gt;<br>
&gt; &gt; pcs constraint location ms_drbd avoids drbd3.localdomain<br>
&gt; &gt;<br>
&gt; &gt; the problem is that this constraint doesn&#39;t appear to be enforced and I<br>
&gt; &gt; see failed actions where Pacemaker has attempted to start the services<br>
&gt; &gt; on drbd3. In most cases I can just ignore the error but if I attempt to<br>
&gt; &gt; migrate the services using &quot;pcs move&quot; then it causes a fatal startup<br>
&gt; &gt; loop for drbd. If I migrate by adding an extra location contraint<br>
&gt; &gt; preferring the other workload node then I can migrate ok.<br>
&gt; &gt;<br>
&gt; &gt; I&#39;m using Oracle Linux 6.4; drbd83-utils 8.3.11; corosync 1.4.1; cman<br>
&gt; &gt; 3.0.12.1; Pacemaker 1.1.8 &amp; pcs 1.1.8<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; I&#39;m no quorum-node expert but I believe your initial design isn&#39;t optimal.<br>
&gt; &gt; You could probably even run with only two nodes (real nodes) and no-quorum-policy=ignore + fencing (for data integrity) [1]<br>
&gt; &gt; This is what most (all?) people with two nodes clusters do.<br>
&gt; &gt;<br>
&gt; &gt; But if you really believe you need to be quorate, then I think you need to define your third node as quorum-node in corosync/cman (not sure how since EL6.4 and CMAN) and I cannot find a valid link. IIRC with such definition, you won&#39;t need the location constraints.<br>

&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; [1] <a href="http://clusterlabs.org/doc/en-US/Pacemaker/1.1-plugin/html/Clusters_from_Scratch/_perform_a_failover.html#_quorum_and_two_node_clusters" target="_blank">http://clusterlabs.org/doc/en-US/Pacemaker/1.1-plugin/html/Clusters_from_Scratch/_perform_a_failover.html#_quorum_and_two_node_clusters</a><br>

&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; Cheers,<br>
&gt; &gt; Florian Crouzat<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt;<br>
&gt; &gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; &gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; &gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt;<br>
&gt; &gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; &gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; &gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>