<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Jun 22, 2014 at 1:51 AM, Digimer <span dir="ltr">&lt;<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Excellent.<br>
<br>
  Please note; With IPMI-only fencing, you may find that killing all power to the node will cause fencing to fail, as the IPMI&#39;s BMC will lose power as well (unless it has it&#39;s own battery, but most don&#39;t).<br>

<br>
  If you find this, then the solution I would recommend is to get a pair of switched PDUs (I like the APC brand AP7900, very fast and the fence_apc_snmp agent is very well tested). With this, you can then setup STONITH levels;<br>

<br>
<a href="http://clusterlabs.org/wiki/STONITH_Levels" target="_blank">http://clusterlabs.org/wiki/<u></u>STONITH_Levels</a><br>
<br>
  With this, if the IPMI fails, Pacemaker will move on and try fencing by cutting power to the lost node, providing a backup method of fencing. If you use stacked switches, put the PDUs on one switch and the IPMI interface on the other switch, and you will provide reliable fencing in a failed-switch state, too.<br>

<br>
  Cheers!<div><div class="h5"><br></div></div></blockquote></div><br></div><div class="gmail_extra">Good points. At the moment this is a lab environment so it is not crucial, but I&#39;ll take in mind for production use.<br>
<br></div><div class="gmail_extra">One point: after doing some tests and creating failures of nodes for test I see this behaviour about the special fencing resource<br><br>normal behaviour<br>[root@srvmgmt02 ~]# crm_mon -1<br>
...<br></div><div class="gmail_extra">[snip]<br></div><div class="gmail_extra"> fence_srvmgmt01    (stonith:fence_intelmodular):    Started srvmgmt01.localdomain.local <br> fence_srvmgmt02    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br>
</div><div class="gmail_extra"><br>after fencing of srvmgmt01 (because of drbd problem deliberately produced by me on it)<br>[root@srvmgmt02 ~]# crm_mon -1<br>...<br></div><div class="gmail_extra">[snip]<br></div><div class="gmail_extra">
 fence_srvmgmt01    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br> fence_srvmgmt02    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br><br></div><div class="gmail_extra">
and the output above remains true while srvmgmt01 is rebooting but also after it has completed startup and joins the cluster.<br></div><div class="gmail_extra">So I presume I have to set an location constraint rule so that it can only run on its node, correct?<br>
<br></div><div class="gmail_extra">something llike<br></div><div class="gmail_extra">pcs constraint location fence_srvmgmt01 prefers srvmgmt01.localdomain.local=INFINITY<br>pcs constraint location fence_srvmgmt02 prefers srvmgmt02.localdomain.local=INFINITY<br>
</div><div class="gmail_extra"><br></div><div class="gmail_extra">Gianluca<br></div></div>