<div dir="ltr"><br>Hi Everyone,<br><br>This is my first post, please let me know if I am missing any standard/essential information to help with debugging...<br><br>I have a 2-node cluster with node-level fencing.  The cluster appears to be configured with &quot;Blind Faith&quot; but my nodes are still killing each other if the host is up but the cluster is not running on it, to produce this I:<br>

<br>Power-on both nodes<br>Stop the cluster on both node [pcs cluster stop]<br>Start the cluster on a single node  [pcs cluster start]<br><br>After starting the cluster I get this message the cluster logs:<br><br>Jun 13 09:59:48 [15756] <a href="http://dev-drbd01.london.mintel.ad">dev-drbd01.london.mintel.ad</a>    pengine:  warning: unpack_nodes: Blind faith: not fencing unseen nodes<br>

Jun 13 09:59:48 [15756] <a href="http://dev-drbd01.london.mintel.ad">dev-drbd01.london.mintel.ad</a>    pengine:     info: determine_online_status_fencing: Node ha-nfs1 is active<br>Jun 13 09:59:48 [15756] <a href="http://dev-drbd01.london.mintel.ad">dev-drbd01.london.mintel.ad</a>    pengine:     info: determine_online_status: Node ha-nfs1 is online<br>

Jun 13 09:59:48 [15756] <a href="http://dev-drbd01.london.mintel.ad">dev-drbd01.london.mintel.ad</a>    pengine:  warning: pe_fence_node: Node ha-nfs2 will be fenced because the peer has not been seen by the cluster<br><br>

Am I miss-understanding the meaning of &quot;Blind faith&quot; or is something mis-configured?  Both my nodes are:<br><br>Centos 6.5 (Final)  (uname -a:  Linux <a href="http://dev-drbd01.london.mintel.ad">dev-drbd01.london.mintel.ad</a> 2.6.32-431.17.1.el6.x86_64 #1 SMP Wed May 7 23:32:49 UTC 2014 x86_64 x86_64 x86_64 GNU/Linu<br>

pacemakerd --version  (  Pacemaker 1.1.10-14.el6_5.3  )<br><br>Here is my cluster configuration:<br><br><br>pcs resource create nfsDRBD       ocf:linbit:drbd           drbd_resource=nfs op monitor interval=8s meta migration-thresholds=0<br>

pcs resource create nfsLVM        ocf:heartbeat:LVM         volgrpname=&quot;vg_drbd&quot; op monitor interval=7s meta migration-thresholds=0<br>pcs resource create nfsDir        ocf:heartbeat:Filesystem  device=/dev/vg_drbd/lv_nfs_home directory=/data/nfs/home fstype=ext4 run_fsck=force op monitor interval=6s meta migration-thresholds=0<br>

pcs resource create nfsService    lsb:nfs op monitor        interval=5s meta migration-thresholds=0<br>pcs resource create nfsIP         ocf:heartbeat:IPaddr2     ip=a.b.c.d cidr_netmask=32 op monitor interval=9s meta migration-thresholds=0<br>

pcs resource create network_ping  ocf:pacemaker:ping        name=network_ping multiplier=5 host_list=&quot;a.b.c.d w.x.y.z&quot; attempts=3 timeout=1 failure_score=10 op monitor interval=4s<br>pcs resource clone  network_ping                            op meta interleave=true<br>

<br>pcs resource master nfsDRBD_ms nfsDRBD master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true target-role=Started is-managed=true<br>pcs resource group add nfsGroup nfsLVM nfsDir nfsService nfsIP<br>
<br>
pcs constraint order promote nfsDRBD_ms then start nfsGroup kind=Mandatory symmetrical=false<br>pcs constraint order stop nfsGroup then demote nfsDRBD_ms kind=Optional symmetrical=false<br>pcs constraint colocation add nfsGroup with master nfsDRBD_ms INFINITY<br>

<br>pcs property set no-quorum-policy=ignore<br>pcs property set expected-quorum-votes=1<br>pcs property set stonith-enabled=true<br>pcs property set default-resource-stickiness=200<br>pcs property set batch-limit=1<br>pcs property set startup-fencing=false<br>

<br>pcs stonith create ha-nfs1_poweroff fence_virsh action=off ipaddr=a.b.c.d login=stonith secure=yes identity_file=/data/stonith_id_rsa port=dev-drbd01.london pcmk_host_map=&quot;ha-nfs1:dev-drbd01.london&quot; op meta priority=200<br>

pcs stonith create ha-nfs2_poweroff fence_virsh action=off ipaddr=w.x.y.z login=stonith secure=yes identity_file=/data/stonith_id_rsa port=dev-drbd02.london pcmk_host_map=&quot;ha-nfs2:dev-drbd02.london&quot; op meta priority=200<br>

<br>pcs stonith level add 1 ha-nfs1 ha-nfs1_poweroff<br>pcs stonith level add 1 ha-nfs2 ha-nfs2_poweroff<br><br>pcs constraint location ha-nfs1_poweroff prefers ha-nfs1=-INFINITY<br>pcs constraint location ha-nfs2_poweroff prefers ha-nfs2=-INFINITY<br>

pcs constraint location nfsDRBD rule role=Master defined network_ping<div><div><div style="font-family:arial,sans-serif;font-size:13.333333969116211px"></div></div></div><br clear="all"><div>Jason H<br></div>
</div>

<pre><pre><font face="Verdana" size="1">
Mintel Group Ltd | 11 Pilgrim Street | London | EC4V 6RN
Registered in England: Number 1475918. | VAT Number: GB 232 9342 72

Contact details for our other offices can be found at <a href="http://www.mintel.com/office-locations" target="_blank">http://www.mintel.com/office-locations</a>.

This email and any attachments may include content that is confidential, privileged <br> or otherwise protected under applicable law. Unauthorised disclosure, copying, distribution <br> or use of the contents is prohibited and may be unlawful. If you have received this email in error,<br> including without appropriate authorisation, then please reply to the sender about the error <br> and delete this email and any attachments.</font></pre>