<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">2014-05-27 7:34 GMT+02:00 Andrew Beekhof <span dir="ltr">&lt;<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>&gt;</span>:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class=""><br>
On 27 May 2014, at 3:12 pm, Gao,Yan &lt;<a href="mailto:ygao@suse.com">ygao@suse.com</a>&gt; wrote:<br>
<br>
&gt; On 05/27/14 08:07, Andrew Beekhof wrote:<br>
&gt;&gt;<br>
&gt;&gt; On 26 May 2014, at 10:47 pm, Christian Ciach &lt;<a href="mailto:dereineda@gmail.com">dereineda@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; I am sorry to get back to this topic, but I&#39;m genuinely curious:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Why is &quot;demote&quot; an option for the ticket &quot;loss-policy&quot; for multi-site-clusters but not for the normal &quot;no-quorum-policy&quot; of local clusters? This seems like a missing feature to me.<br>

&gt;&gt;<br>
&gt;&gt; Or one feature too many.<br>
&gt;&gt; Perhaps Yan can explain why he wanted demote as an option for the loss-policy.<br>
&gt; Loss-policy=&quot;demote&quot; is a kind of natural default if the &quot;Master&quot; mode<br>
&gt; of a resource requires a ticket like:<br>
&gt; &lt;rsc_ticket rsc=&quot;ms1&quot; rsc-role=&quot;Master&quot; ticket=&quot;ticketA&quot;/&gt;<br>
&gt;<br>
&gt; The idea is for running stateful resource instances across clusters. And<br>
&gt; loss-policy=&quot;demote&quot; provides the possibility if there&#39;s the need to<br>
&gt; still run the resource in slave mode for any reason when losing the<br>
&gt; ticket, rather than stopping it or fencing the node hosting it.<br>
<br>
</div>I guess the same logic applies to the single cluster use-case too and we should allow no-quorum-policy=demote.<br>
<br></blockquote><div><br></div><div>Thank you for mentioning this. This was my thought as well.<br><br></div><div>At the moment we &quot;simulate&quot; this behaviour by using a primitive resource where &quot;started&quot; means &quot;master&quot; and &quot;stopped&quot; means &quot;slave&quot;. This way we can use &quot;no-quorum-policy=stop&quot; to actually switch the resource to slave on quorum loss. This seems hacky, so I would appreciate if this could be done in a proper way some time in the future.<br>
</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
One question though... do we still stop non-master/slave resources for loss-policy=demote?<br>
<div class=""><div class="h5"><br>
&gt;<br>
&gt; Regards,<br>
&gt;  Yan<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Best regards<br>
&gt;&gt;&gt; Christian<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 2014-04-07 9:54 GMT+02:00 Christian Ciach &lt;<a href="mailto:dereineda@gmail.com">dereineda@gmail.com</a>&gt;:<br>
&gt;&gt;&gt; Hello,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I am using Corosync 2.0 with Pacemaker 1.1 on Ubuntu Server 14.04 (daily builds until final release).<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; My problem is as follows: I have a 2-node (plus a quorum-node) cluster to manage a multistate-resource. One node should be the master and the other one the slave. It is absolutely not allowed to have two masters at the same time. To prevent a split-brain situation, I am also using a third node as a quorum-only node (set to standby). There is no redundant connection because the nodes are connected over the internet.<br>

&gt;&gt;&gt;<br>
&gt;&gt;&gt; If one of the two nodes managing the resource becomes disconnected, it loses quorum. In this case, I want this resource to become a slave, but the resource should never be stopped completely! This leaves me with a problem: &quot;no-quorum-policy=stop&quot; will stop the resource, while &quot;no-quorum-policy=ignore&quot; will keep this resource in a master-state. I already tried to demote the resource manually inside the monitor-action of the OCF-agent, but pacemaker will promote the resource immediately again.<br>

&gt;&gt;&gt;<br>
&gt;&gt;&gt; I am aware that I am trying the manage a multi-site-cluster and there is something like the booth-daemon, which sounds like the solution to my problem. But unfortunately I need the location-constraints of pacemaker based on the score of the OCF-agent. As far as I know location-constraints are not possible when using booth, because the 2-node-cluster is essentially split into two 1-node-clusters. Is this correct?<br>

&gt;&gt;&gt;<br>
&gt;&gt;&gt; To conclude: Is it possible to demote a resource on quorum loss instead of stopping it? Is booth an option if I need to manage the location of the master based on the score returned by the OCF-agent?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt;&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;<br>
&gt;<br>
&gt; --<br>
&gt; Gao,Yan &lt;<a href="mailto:ygao@suse.com">ygao@suse.com</a>&gt;<br>
&gt; Software Engineer<br>
&gt; China Server Team, SUSE.<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br></div></div>