<html><body>
<p><font size="2" face="sans-serif">Hi Andrew,</font><br>
<br>
<font size="2" face="sans-serif">Thank you for your quick response.</font><br>
<br>
<font size="2" face="sans-serif">I removed the on-fail=&quot;standby&quot; items and re-tested but the problem persists. The cibadmin -Q I gave you was actually from after I did the STONITH on ha4 and ha3_fabric_ping tried to come up but failed. In hindsight, maybe I should have made that clear or given you cibadmin -Q from while the cluster is sitting there waiting for me to STONITH and ha3_fabric_ping won't start. Any other ideas on why this would fail or even just a way a to get around this problem? I just need to prevent the node from fencing and trying to bring up the cluster resources if it cannot ping 10.10.0.1. Heartbeat had ping_group but I know of no similar feature with Corosync/Pacemaker. </font><br>
<br>
<font size="2" face="sans-serif">Thanks again for your time.</font><br>
<br>
<font size="2" face="sans-serif"><b>Info from while the cluster was waiting for me to fence:</b></font><br>
<font size="2" face="sans-serif">When I ran crm_simulate on it this is what I got:</font><br>
<font size="2" face="sans-serif">[root@ha3 ~]# crm_simulate -x /tmp/cib.xml </font><br>
<br>
<font size="2" face="sans-serif">Current cluster status:</font><br>
<font size="2" face="sans-serif">Node ha4 (168427535): UNCLEAN (offline)</font><br>
<font size="2" face="sans-serif">Online: [ ha3 ]</font><br>
<br>
<font size="2" face="sans-serif">&nbsp;ha3_fabric_ping        (ocf::pacemaker:ping):        Stopped </font><br>
<font size="2" face="sans-serif">&nbsp;ha4_fabric_ping        (ocf::pacemaker:ping):        Stopped </font><br>
<font size="2" face="sans-serif">&nbsp;fencing_route_to_ha3        (stonith:meatware):        Stopped </font><br>
<font size="2" face="sans-serif">&nbsp;fencing_route_to_ha4        (stonith:meatware):        Stopped </font><br>
<br>
<br>
<font size="2" face="sans-serif">[root@ha3 ~]# crm_mon -1</font><br>
<font size="2" face="sans-serif">Last updated: Wed Jun 11 21:48:16 2014</font><br>
<font size="2" face="sans-serif">Last change: Wed Jun 11 21:38:54 2014 via crmd on ha3</font><br>
<font size="2" face="sans-serif">Stack: corosync</font><br>
<font size="2" face="sans-serif">Current DC: ha3 (168427534) - partition with quorum</font><br>
<font size="2" face="sans-serif">Version: 1.1.10-9d39a6b</font><br>
<font size="2" face="sans-serif">2 Nodes configured</font><br>
<font size="2" face="sans-serif">4 Resources configured</font><br>
<br>
<br>
<font size="2" face="sans-serif">Node ha4 (168427535): UNCLEAN (offline)</font><br>
<font size="2" face="sans-serif">Online: [ ha3 ]</font><br>
<br>
<br>
<font size="2" face="sans-serif"><u>cibadmin -Q</u></font><br>
<font size="2" face="sans-serif">&lt;cib epoch=&quot;208&quot; num_updates=&quot;11&quot; admin_epoch=&quot;0&quot; validate-with=&quot;pacemaker-1.2&quot; cib-last-written=&quot;Wed Jun 11 21:38:54 2014&quot; crm_feature_set=&quot;3.0.8&quot; update-origin=&quot;ha3&quot; update-client=&quot;crmd&quot; have-quorum=&quot;1&quot; dc-uuid=&quot;168427534&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &lt;configuration&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;crm_config&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;cluster_property_set id=&quot;cib-bootstrap-options&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;symmetric-cluster&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-symmetric-cluster&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stonith-enabled&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-stonith-enabled&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stonith-action&quot; value=&quot;reboot&quot; id=&quot;cib-bootstrap-options-stonith-action&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;no-quorum-policy&quot; value=&quot;ignore&quot; id=&quot;cib-bootstrap-options-no-quorum-policy&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stop-orphan-resources&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-stop-orphan-resources&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stop-orphan-actions&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-stop-orphan-actions&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;default-action-timeout&quot; value=&quot;20s&quot; id=&quot;cib-bootstrap-options-default-action-timeout&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-dc-version&quot; name=&quot;dc-version&quot; value=&quot;1.1.10-9d39a6b&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-cluster-infrastructure&quot; name=&quot;cluster-infrastructure&quot; value=&quot;corosync&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/cluster_property_set&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/crm_config&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;nodes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;node id=&quot;168427534&quot; uname=&quot;ha3&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;node id=&quot;168427535&quot; uname=&quot;ha4&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/nodes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;resources&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;ha3_fabric_ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot; type=&quot;ping&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;host_list&quot; value=&quot;10.10.0.1&quot; id=&quot;ha3_fabric_ping-instance_attributes-host_list&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;failure_score&quot; value=&quot;1&quot; id=&quot;ha3_fabric_ping-instance_attributes-failure_score&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; timeout=&quot;60s&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha3_fabric_ping-start-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-start-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-start-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; interval=&quot;15s&quot; requires=&quot;nothing&quot; timeout=&quot;15s&quot; id=&quot;ha3_fabric_ping-monitor-15s&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-monitor-15s-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-monitor-15s-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;stop&quot; on-fail=&quot;fence&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha3_fabric_ping-stop-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-stop-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-stop-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/primitive&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;ha4_fabric_ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot; type=&quot;ping&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;host_list&quot; value=&quot;10.10.0.1&quot; id=&quot;ha4_fabric_ping-instance_attributes-host_list&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;failure_score&quot; value=&quot;1&quot; id=&quot;ha4_fabric_ping-instance_attributes-failure_score&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; timeout=&quot;60s&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha4_fabric_ping-start-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-start-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-start-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; interval=&quot;15s&quot; requires=&quot;nothing&quot; timeout=&quot;15s&quot; id=&quot;ha4_fabric_ping-monitor-15s&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-monitor-15s-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-monitor-15s-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;stop&quot; on-fail=&quot;fence&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha4_fabric_ping-stop-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-stop-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-stop-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/primitive&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;fencing_route_to_ha3&quot; class=&quot;stonith&quot; type=&quot;meatware&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;hostlist&quot; value=&quot;ha3&quot; id=&quot;fencing_route_to_ha3-instance_attributes-hostlist&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha3-start-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-start-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha3-start-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha3-monitor-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-monitor-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha3-monitor-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/primitive&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;fencing_route_to_ha4&quot; class=&quot;stonith&quot; type=&quot;meatware&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;hostlist&quot; value=&quot;ha4&quot; id=&quot;fencing_route_to_ha4-instance_attributes-hostlist&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha4-start-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-start-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha4-start-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha4-monitor-0&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-monitor-0-instance_attributes&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha4-monitor-0-instance_attributes-prereq&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/primitive&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/resources&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;constraints&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha3_fabric_ping_location&quot; rsc=&quot;ha3_fabric_ping&quot; score=&quot;INFINITY&quot; node=&quot;ha3&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha3_fabric_ping_not_location&quot; rsc=&quot;ha3_fabric_ping&quot; score=&quot;-INFINITY&quot; node=&quot;ha4&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha4_fabric_ping_location&quot; rsc=&quot;ha4_fabric_ping&quot; score=&quot;INFINITY&quot; node=&quot;ha4&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha4_fabric_ping_not_location&quot; rsc=&quot;ha4_fabric_ping&quot; score=&quot;-INFINITY&quot; node=&quot;ha3&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha4_location&quot; rsc=&quot;fencing_route_to_ha4&quot; score=&quot;INFINITY&quot; node=&quot;ha3&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha4_not_location&quot; rsc=&quot;fencing_route_to_ha4&quot; score=&quot;-INFINITY&quot; node=&quot;ha4&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha3_location&quot; rsc=&quot;fencing_route_to_ha3&quot; score=&quot;INFINITY&quot; node=&quot;ha4&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha3_not_location&quot; rsc=&quot;fencing_route_to_ha3&quot; score=&quot;-INFINITY&quot; node=&quot;ha3&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_order id=&quot;ha3_fabric_ping_before_fencing_route_to_ha4&quot; score=&quot;INFINITY&quot; first=&quot;ha3_fabric_ping&quot; first-action=&quot;start&quot; then=&quot;fencing_route_to_ha4&quot; then-action=&quot;start&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;rsc_order id=&quot;ha4_fabric_ping_before_fencing_route_to_ha3&quot; score=&quot;INFINITY&quot; first=&quot;ha4_fabric_ping&quot; first-action=&quot;start&quot; then=&quot;fencing_route_to_ha3&quot; then-action=&quot;start&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/constraints&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;rsc_defaults&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;meta_attributes id=&quot;rsc-options&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;resource-stickiness&quot; value=&quot;INFINITY&quot; id=&quot;rsc-options-resource-stickiness&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;migration-threshold&quot; value=&quot;0&quot; id=&quot;rsc-options-migration-threshold&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;is-managed&quot; value=&quot;true&quot; id=&quot;rsc-options-is-managed&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/meta_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/rsc_defaults&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &lt;/configuration&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &lt;status&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;node_state id=&quot;168427534&quot; uname=&quot;ha3&quot; in_ccm=&quot;true&quot; crmd=&quot;online&quot; crm-debug-origin=&quot;do_update_resource&quot; join=&quot;member&quot; expected=&quot;member&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;lrm id=&quot;168427534&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resources&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;ha3_fabric_ping&quot; type=&quot;ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;ha3_fabric_ping_last_0&quot; operation_key=&quot;ha3_fabric_ping_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;4:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; transition-magic=&quot;0:7;4:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; call-id=&quot;5&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402540735&quot; last-rc-change=&quot;1402540735&quot; exec-time=&quot;42&quot; queue-time=&quot;0&quot; op-digest=&quot;91b00b3fe95f23582466d18e42c4fd58&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;ha4_fabric_ping&quot; type=&quot;ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;ha4_fabric_ping_last_0&quot; operation_key=&quot;ha4_fabric_ping_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;5:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; transition-magic=&quot;0:7;5:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; call-id=&quot;9&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402540735&quot; last-rc-change=&quot;1402540735&quot; exec-time=&quot;10&quot; queue-time=&quot;0&quot; op-digest=&quot;91b00b3fe95f23582466d18e42c4fd58&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;fencing_route_to_ha3&quot; type=&quot;meatware&quot; class=&quot;stonith&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;fencing_route_to_ha3_last_0&quot; operation_key=&quot;fencing_route_to_ha3_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;6:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; transition-magic=&quot;0:7;6:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; call-id=&quot;13&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402540735&quot; last-rc-change=&quot;1402540735&quot; exec-time=&quot;1&quot; queue-time=&quot;0&quot; op-digest=&quot;502fbd7a2366c2be772d7fbecc9e0351&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;fencing_route_to_ha4&quot; type=&quot;meatware&quot; class=&quot;stonith&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;fencing_route_to_ha4_last_0&quot; operation_key=&quot;fencing_route_to_ha4_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;7:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; transition-magic=&quot;0:7;7:0:7:7901aff3-92ef-40e6-9193-5f396f4a06f1&quot; call-id=&quot;17&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402540735&quot; last-rc-change=&quot;1402540735&quot; exec-time=&quot;0&quot; queue-time=&quot;0&quot; op-digest=&quot;5be26fbcfd648e3d545d0115645dde76&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resources&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/lrm&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;transient_attributes id=&quot;168427534&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;status-168427534&quot;&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-shutdown&quot; name=&quot;shutdown&quot; value=&quot;0&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-probe_complete&quot; name=&quot;probe_complete&quot; value=&quot;true&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &nbsp; &lt;/transient_attributes&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;/node_state&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &nbsp; &lt;node_state id=&quot;168427535&quot; in_ccm=&quot;true&quot; crmd=&quot;offline&quot; join=&quot;down&quot; crm-debug-origin=&quot;do_state_transition&quot;/&gt;</font><br>
<font size="2" face="sans-serif">&nbsp; &lt;/status&gt;</font><br>
<font size="2" face="sans-serif">&lt;/cib&gt;</font><br>
<br>
<br>
<font size="2" face="sans-serif"><u>/var/log/messages</u></font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 systemd: Starting LSB: Starts and stops Pacemaker Cluster Manager....</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemaker: Starting Pacemaker Cluster Manager</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: mcp_read_config: Configured corosync to accept connections from group 1000: OK (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: main: Starting Pacemaker 1.1.10 (Build: 9d39a6b): &nbsp;agent-manpages ncurses libqb-logging libqb-ipc lha-fencing nagios &nbsp;corosync-native libesmtp</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: cluster_connect_quorum: Quorum acquired</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: crm_update_peer_state: pcmk_quorum_notification: Node ha3[168427534] - state is now member (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pacemakerd[12480]: notice: crm_update_peer_state: pcmk_quorum_notification: Node (null)[168427535] - state is now member (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 pengine[12486]: warning: crm_is_writable: /var/lib/pacemaker/pengine should be owned and r/w by group haclient</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: warning: crm_is_writable: /var/lib/pacemaker/cib should be owned and r/w by group haclient</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 stonith-ng[12483]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 crmd[12487]: notice: main: CRM Git Version: 9d39a6b</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 crmd[12487]: warning: crm_is_writable: /var/lib/pacemaker/pengine should be owned and r/w by group haclient</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 crmd[12487]: warning: crm_is_writable: /var/lib/pacemaker/cib should be owned and r/w by group haclient</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: crm_update_peer_state: attrd_peer_change_cb: Node (null)[168427534] - state is now member (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 attrd[12485]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 stonith-ng[12483]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 stonith-ng[12483]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 stonith-ng[12483]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 stonith-ng[12483]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:32 ha3 cib[12482]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: cluster_connect_quorum: Quorum acquired</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: crm_update_peer_state: pcmk_quorum_notification: Node ha3[168427534] - state is now member (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 stonith-ng[12483]: notice: setup_cib: Watching for stonith topology changes</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 stonith-ng[12483]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: crm_update_peer_state: pcmk_quorum_notification: Node (null)[168427535] - state is now member (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: do_started: The local CRM is operational</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:33 ha3 crmd[12487]: notice: do_state_transition: State transition S_STARTING -&gt; S_PENDING [ input=I_PENDING cause=C_FSA_INTERNAL origin=do_started ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:34 ha3 stonith-ng[12483]: notice: stonith_device_register: Added 'fencing_route_to_ha4' to the device list (1 active devices)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:37 ha3 pacemaker: Starting Pacemaker Cluster Manager[ &nbsp;OK &nbsp;]</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:37 ha3 systemd: Started LSB: Starts and stops Pacemaker Cluster Manager..</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 crmd[12487]: warning: do_log: FSA: Input I_DC_TIMEOUT from crm_timer_popped() received in state S_PENDING</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 crmd[12487]: notice: do_state_transition: State transition S_ELECTION -&gt; S_INTEGRATION [ input=I_ELECTION_DC cause=C_TIMER_POPPED origin=election_timeout_popped ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: Diff: --- 0.206.0</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: Diff: +++ 0.207.1 6c3024691ae3d5b4c93705a5f2130993</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: -- &lt;cib admin_epoch=&quot;0&quot; epoch=&quot;206&quot; num_updates=&quot;0&quot;/&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: ++ &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-dc-version&quot; name=&quot;dc-version&quot; value=&quot;1.1.10-9d39a6b&quot;/&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 crmd[12487]: warning: do_log: FSA: Input I_ELECTION_DC from do_election_check() received in state S_INTEGRATION</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: log_cib_diff: cib:diff: Local-only Change: 0.208.1</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: -- &lt;cib admin_epoch=&quot;0&quot; epoch=&quot;207&quot; num_updates=&quot;1&quot;/&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 cib[12482]: notice: cib:diff: ++ &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-cluster-infrastructure&quot; name=&quot;cluster-infrastructure&quot; value=&quot;corosync&quot;/&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: write_attribute: Sent update 2 with 1 changes for terminate, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: write_attribute: Sent update 3 with 1 changes for shutdown, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: attrd_cib_callback: Update 2 for terminate[ha3]=(null): OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:54 ha3 attrd[12485]: notice: attrd_cib_callback: Update 3 for shutdown[ha3]=0: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 0: /var/lib/pacemaker/pengine/pe-warn-82.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 4: monitor ha3_fabric_ping_monitor_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (12) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: f9cbe911-8a32-4abf-9d7a-08e34167c203 (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith-ng[12483]: notice: corosync_node_name: Unable to get node name for nodeid 168427534</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith-ng[12483]: notice: get_node_name: Defaulting to uname -n for the local corosync node name</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith: [12503]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith: [12508]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith: [12508]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 stonith: [12508]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_monitor_0 (call=5, rc=7, cib-update=27, confirmed=true) not running</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 5: monitor ha4_fabric_ping_monitor_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha4_fabric_ping_monitor_0 (call=9, rc=7, cib-update=28, confirmed=true) not running</font><br>
<font 
size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 6: monitor fencing_route_to_ha3_monitor_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 7: monitor fencing_route_to_ha4_monitor_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 3: probe_complete probe_complete on ha3 (local) - no waiting</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 attrd[12485]: notice: write_attribute: Sent update 4 with 1 changes for probe_complete, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:38:55 ha3 attrd[12485]: notice: attrd_cib_callback: Update 4 for probe_complete[ha3]=true: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: stonith_action_async_done: Child process 12506 performing action 'reboot' timed out with signal 15</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: error: log_operation: Operation 'reboot' [12506] (call 2 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: warning: log_operation: fencing_route_to_ha4:12506 [ Performing: stonith -t meatware -T reset ha4 ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.f9cbe911: No route to host</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 2/12:0:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: No route to host (-113)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 2 for ha4 failed (No route to host): aborting transition.</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=f9cbe911-8a32-4abf-9d7a-08e34167c203) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 crmd[12487]: notice: run_graph: Transition 0 (Complete=7, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-82.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 1: /var/lib/pacemaker/pengine/pe-warn-83.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: 281b0cc2-f1cc-485f-aa03-c50704fc97f9 (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith: [12536]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith: [12536]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:39:55 ha3 stonith: [12536]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: notice: stonith_action_async_done: Child process 12535 performing action 'reboot' timed out with signal 15</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: error: log_operation: Operation 'reboot' [12535] (call 3 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: warning: log_operation: fencing_route_to_ha4:12535 [ Performing: stonith -t meatware -T reset ha4 ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.281b0cc2: No route to host</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 3/8:1:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: No route to host (-113)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 3 for ha4 failed (No route to host): aborting transition.</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=281b0cc2-f1cc-485f-aa03-c50704fc97f9) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 crmd[12487]: notice: run_graph: Transition 1 (Complete=1, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-83.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 2: /var/lib/pacemaker/pengine/pe-warn-83.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: 1adec92a-c8f0-4087-9e51-e24c947ca171 (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith: [12543]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith: [12545]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith: [12545]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:40:55 ha3 stonith: [12545]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: stonith_action_async_done: Child process 12544 performing action 'reboot' timed out with signal 15</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: error: log_operation: Operation 'reboot' [12544] (call 4 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: warning: log_operation: fencing_route_to_ha4:12544 [ Performing: stonith -t meatware -T reset ha4 ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.1adec92a: No route to host</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 4/8:2:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: No route to host (-113)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 4 for ha4 failed (No route to host): aborting transition.</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=1adec92a-c8f0-4087-9e51-e24c947ca171) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 crmd[12487]: notice: run_graph: Transition 2 (Complete=1, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-83.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 3: /var/lib/pacemaker/pengine/pe-warn-83.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: 1511d2cb-2ab9-4a06-9676-807ed8b27f2b (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith: [12548]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith: [12548]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:41:55 ha3 stonith: [12548]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: notice: stonith_action_async_done: Child process 12547 performing action 'reboot' timed out with signal 15</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: error: log_operation: Operation 'reboot' [12547] (call 5 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: warning: log_operation: fencing_route_to_ha4:12547 [ Performing: stonith -t meatware -T reset ha4 ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.1511d2cb: No route to host</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 5/8:3:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: No route to host (-113)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 5 for ha4 failed (No route to host): aborting transition.</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=1511d2cb-2ab9-4a06-9676-807ed8b27f2b) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 crmd[12487]: notice: run_graph: Transition 3 (Complete=1, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-83.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 4: /var/lib/pacemaker/pengine/pe-warn-83.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: 4de370d1-dab3-4f8f-82cf-969899d6008c (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith: [12550]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith: [12552]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith: [12552]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:42:55 ha3 stonith: [12552]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: stonith_action_async_done: Child process 12551 performing action 'reboot' timed out with signal 15</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: error: log_operation: Operation 'reboot' [12551] (call 6 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: warning: log_operation: fencing_route_to_ha4:12551 [ Performing: stonith -t meatware -T reset ha4 ]</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.4de370d1: No route to host</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 6/8:4:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: No route to host (-113)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 6 for ha4 failed (No route to host): aborting transition.</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=4de370d1-dab3-4f8f-82cf-969899d6008c) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 crmd[12487]: notice: run_graph: Transition 4 (Complete=1, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-83.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 pengine[12486]: warning: stage6: Scheduling Node ha4 for STONITH</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; ha3_fabric_ping        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 pengine[12486]: warning: process_pe_message: Calculated Transition 5: /var/lib/pacemaker/pengine/pe-warn-83.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 crmd[12487]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: handle_request: Client crmd.12487.3b5db081 wants to fence (reboot) 'ha4' with device '(any)'</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: e766648d-20f0-4b94-b001-4873f9f8bb37 (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith-ng[12483]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith: [12554]: info: parse config info info=ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith: [12554]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.</font><br>
<font size="2" face="sans-serif">Jun 11 21:43:55 ha3 stonith: [12554]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 stonith: [12554]: info: node Meatware-reset: ha4</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 stonith-ng[12483]: notice: log_operation: Operation 'reboot' [12553] (call 7 from crmd.12487) for host 'ha4' with device 'fencing_route_to_ha4' returned: 0 (OK)</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 stonith-ng[12483]: notice: remote_op_done: Operation reboot of ha4 by ha3 for crmd.12487@ha3.e766648d: OK</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 crmd[12487]: notice: tengine_stonith_callback: Stonith operation 7/8:5:0:7901aff3-92ef-40e6-9193-5f396f4a06f1: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 crmd[12487]: notice: crm_update_peer_state: send_stonith_update: Node ha4[0] - state is now lost (was (null))</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 crmd[12487]: notice: tengine_stonith_notify: Peer ha4 was terminated (reboot) by ha3 for ha3: OK (ref=e766648d-20f0-4b94-b001-4873f9f8bb37) by client crmd.12487</font><br>
<font size="2" face="sans-serif">Jun 11 21:44:47 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 4: start ha3_fabric_ping_start_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: write_attribute: Sent update 5 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: attrd_cib_callback: Update 5 for pingd[ha3]=0: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 ping(ha3_fabric_ping)[12560]: WARNING: pingd is less than failure_score(1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_start_0 (call=18, rc=1, cib-update=43, confirmed=true) unknown error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: warning: status_from_rc: Action 4 (ha3_fabric_ping_start_0) on ha3 failed (target: 0 vs. rc: 1): Error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541107)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541107)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: notice: run_graph: Transition 5 (Complete=4, Pending=0, Fired=0, Skipped=2, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-83.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: write_attribute: Sent update 6 with 1 changes for fail-count-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: write_attribute: Sent update 7 with 1 changes for last-failure-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 6: /var/lib/pacemaker/pengine/pe-input-315.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: attrd_cib_callback: Update 6 for fail-count-ha3_fabric_ping[ha3]=INFINITY: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 attrd[12485]: notice: attrd_cib_callback: Update 7 for last-failure-ha3_fabric_ping[ha3]=1402541107: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 7: /var/lib/pacemaker/pengine/pe-input-316.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 1: stop ha3_fabric_ping_stop_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_stop_0 (call=19, rc=0, cib-update=47, confirmed=true) ok</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:07 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 5: start ha3_fabric_ping_start_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:12 ha3 attrd[12485]: notice: write_attribute: Sent update 8 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:12 ha3 attrd[12485]: notice: attrd_cib_callback: Update 8 for pingd[ha3]=(null): OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 ping(ha3_fabric_ping)[12607]: WARNING: pingd is less than failure_score(1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_start_0 (call=20, rc=1, cib-update=48, confirmed=true) unknown error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: warning: status_from_rc: Action 5 (ha3_fabric_ping_start_0) on ha3 failed (target: 0 vs. rc: 1): Error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541127)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541127)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: notice: run_graph: Transition 7 (Complete=3, Pending=0, Fired=0, Skipped=2, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-316.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 attrd[12485]: notice: write_attribute: Sent update 9 with 1 changes for last-failure-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 8: /var/lib/pacemaker/pengine/pe-input-317.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 attrd[12485]: notice: attrd_cib_callback: Update 9 for last-failure-ha3_fabric_ping[ha3]=1402541127: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 9: /var/lib/pacemaker/pengine/pe-input-318.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 1: stop ha3_fabric_ping_stop_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_stop_0 (call=21, rc=0, cib-update=51, confirmed=true) ok</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:27 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 5: start ha3_fabric_ping_start_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:32 ha3 attrd[12485]: notice: write_attribute: Sent update 10 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:32 ha3 attrd[12485]: notice: attrd_cib_callback: Update 10 for pingd[ha3]=(null): OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 ping(ha3_fabric_ping)[12654]: WARNING: pingd is less than failure_score(1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_start_0 (call=22, rc=1, cib-update=52, confirmed=true) unknown error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: warning: status_from_rc: Action 5 (ha3_fabric_ping_start_0) on ha3 failed (target: 0 vs. rc: 1): Error</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541147)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541147)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: notice: run_graph: Transition 9 (Complete=3, Pending=0, Fired=0, Skipped=2, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-318.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 attrd[12485]: notice: write_attribute: Sent update 11 with 1 changes for last-failure-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 10: /var/lib/pacemaker/pengine/pe-input-319.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 attrd[12485]: notice: attrd_cib_callback: Update 11 for last-failure-ha3_fabric_ping[ha3]=1402541147: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 11: /var/lib/pacemaker/pengine/pe-input-320.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 1: stop ha3_fabric_ping_stop_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_stop_0 (call=23, rc=0, cib-update=55, confirmed=true) ok</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:47 ha3 crmd[12487]: notice: te_rsc_command: Initiating action 5: start ha3_fabric_ping_start_0 on ha3 (local)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:52 ha3 attrd[12485]: notice: write_attribute: Sent update 12 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:45:52 ha3 attrd[12485]: notice: attrd_cib_callback: Update 12 for pingd[ha3]=(null): OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 ping(ha3_fabric_ping)[12700]: WARNING: pingd is less than failure_score(1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 crmd[12487]: notice: process_lrm_event: LRM operation ha3_fabric_ping_start_0 (call=24, rc=1, cib-update=56, confirmed=true) unknown error</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 crmd[12487]: warning: status_from_rc: Action 5 (ha3_fabric_ping_start_0) on ha3 failed (target: 0 vs. rc: 1): Error</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541167)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 crmd[12487]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402541167)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 crmd[12487]: notice: run_graph: Transition 11 (Complete=3, Pending=0, Fired=0, Skipped=2, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-320.bz2): Stopped</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 attrd[12485]: notice: write_attribute: Sent update 13 with 1 changes for last-failure-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: process_pe_message: Calculated Transition 12: /var/lib/pacemaker/pengine/pe-input-321.bz2</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 attrd[12485]: notice: attrd_cib_callback: Update 13 for last-failure-ha3_fabric_ping[ha3]=1402541167: OK (0)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: unpack_config: On loss of CCM Quorum: Ignore</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: LogActions: Recover ha3_fabric_ping        (Started ha3)</font><br>
<font size="2" face="sans-serif">Jun 11 21:46:07 ha3 pengine[12486]: notice: LogActions: Start &nbsp; fencing_route_to_ha4        (ha3)</font><br>
<br>
<font size="2" face="sans-serif">Paul Cain</font><br>
<br>
<img width="16" height="16" src="cid:3__=08BBF666DF9D41E98f9e8a93df938@us.ibm.com" border="0" alt="Inactive hide details for Andrew Beekhof ---06/11/2014 07:20:44 PM---On 12 Jun 2014, at 4:55 am, Paul E Cain &lt;pecain@us.ibm.com"><font size="2" color="#424282" face="sans-serif">Andrew Beekhof ---06/11/2014 07:20:44 PM---On 12 Jun 2014, at 4:55 am, Paul E Cain &lt;pecain@us.ibm.com&gt; wrote: &gt; Hello,</font><br>
<br>
<font size="1" color="#5F5F5F" face="sans-serif">From:        </font><font size="1" face="sans-serif">Andrew Beekhof &lt;andrew@beekhof.net&gt;</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">The Pacemaker cluster resource manager &lt;pacemaker@oss.clusterlabs.org&gt;</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Date:        </font><font size="1" face="sans-serif">06/11/2014 07:20 PM</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Subject:        </font><font size="1" face="sans-serif">Re: [Pacemaker] When stonith is enabled,        resources won't start until after stonith,        even though requires=&quot;nothing&quot; and prereq=&quot;nothing&quot; on RHEL 7 with        pacemaker-1.1.11 compiled from source.</font><br>
<hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br>
<br>
<br>
<tt><font size="2"><br>
On 12 Jun 2014, at 4:55 am, Paul E Cain &lt;pecain@us.ibm.com&gt; wrote:<br>
<br>
&gt; Hello,<br>
&gt; <br>
&gt; Overview<br>
&gt; I'm experimenting with a small two-node Pacemaker cluster on two RHEL 7 VMs. One of the things I need to do is ensure that my cluster can connect to a certain IP address 10.10.0.1 because once I add the actual resources that will need to be HA those resources will need access to 10.10.0.1 for the cluster to functional normally. To do that, I have one ocf:pacemaker:ping resource for each node to check that connectivity. If the ping fails, the node should go into standby mode and get fenced if possible. Additionally, when a node first comes up I want that connectivity check to happen before the fencing agents come up or a STONITH happens because a node should not try to take over cluster resources if it cannot connect to 10.10.0.1. To do this, I tried adding requires=&quot;nothing&quot; and prereq=&quot;nothing&quot; to all the operations for both pinging resources. I also have two meatware fencing agents to use for testing. I'm using order constraints so they don't start until after the ping resources. <br>
&gt; <br>
&gt; Cluster When Functioning Normally <br>
&gt; [root@ha3 ~]# crm_mon -1<br>
&gt; Last updated: Wed Jun 11 13:10:54 2014<br>
&gt; Last change: Wed Jun 11 13:10:35 2014 via crmd on ha3<br>
&gt; Stack: corosync<br>
&gt; Current DC: ha3 (168427534) - partition with quorum<br>
&gt; Version: 1.1.10-9d39a6b<br>
&gt; 2 Nodes configured<br>
&gt; 4 Resources configured<br>
&gt; <br>
&gt; <br>
&gt; Online: [ ha3 ha4 ]<br>
&gt; <br>
&gt; &nbsp;ha3_fabric_ping                 (ocf::pacemaker:ping):                 Started ha3 <br>
&gt; &nbsp;ha4_fabric_ping                 (ocf::pacemaker:ping):                 Started ha4 <br>
&gt; &nbsp;fencing_route_to_ha3                 (stonith:meatware):                 Started ha4 <br>
&gt; &nbsp;fencing_route_to_ha4                 (stonith:meatware):                 Started ha3 <br>
&gt; <br>
&gt; <br>
&gt; Testing<br>
&gt; However, when I tested this by only starting up pacemaker on ha3 and also preventing ha3 from connecting to 10.10.0.1, I found that ha3 would not start until after ha4 was STONITHed. What I was aiming for was for ha3_fabric_ping to fail to start, which would prevent the fencing agent from starting and therefore prevent any STONITH.<br>
&gt; <br>
&gt; <br>
&gt; Question<br>
&gt; Any ideas why this is not working as expected? It's my understanding that requires=&quot;nothing&quot; should allow ha3_fabric_ping to start even before any fencing operations. Maybe I'm misunderstanding something. <br>
<br>
<br>
Its because the entire node is in standby mode.<br>
Running crm_simulate with the cib.xml below shows:<br>
<br>
Node ha3 (168427534): standby (on-fail)<br>
<br>
In the config I see:<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&lt;op name=&quot;monitor&quot; interval=&quot;15s&quot; requires=&quot;nothing&quot; on-fail=&quot;standby&quot; timeout=&quot;15s&quot; id=&quot;ha3_fabric_ping-monitor-15s&quot;&gt;<br>
<br>
and:<br>
<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&lt;lrm_rsc_op id=&quot;ha3_fabric_ping_last_failure_0&quot; operation_key=&quot;ha3_fabric_ping_start_0&quot; operation=&quot;start&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;4:1:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:1;4:1:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;18&quot; rc-code=&quot;1&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509641&quot; last-rc-change=&quot;1402509641&quot; exec-time=&quot;20043&quot; queue-time=&quot;0&quot; op-digest=&quot;ddf4bee6852a62c7efcf52cf7471d629&quot;/&gt;<br>
<br>
Note: &nbsp;rc-code=&quot;1&quot; <br>
<br>
The combination put the node into standby and prevented resources starting.<br>
<br>
&gt; <br>
&gt; Thanks for any help you can offer.<br>
&gt; <br>
&gt; Below is shows the software versions, cibadmin -Q, the /var/log/messages on ha3 during my test, and my corosync.conf file.<br>
&gt; <br>
&gt; Tell me if you need any more information.<br>
&gt; <br>
&gt; Software Versions (All Compiled From Source From The Website of the Respective Projects)<br>
&gt; Cluster glue 1.0.11<br>
&gt; libqb 0.17.0<br>
&gt; Corosync 2.3.3<br>
&gt; Pacemaker 1.1.11<br>
&gt; Resources Agents 3.9.5<br>
&gt; crmsh 2.0<br>
&gt; <br>
&gt; cibadmin -Q<br>
&gt; &lt;cib epoch=&quot;204&quot; num_updates=&quot;18&quot; admin_epoch=&quot;0&quot; validate-with=&quot;pacemaker-1.2&quot; cib-last-written=&quot;Wed Jun 11 12:56:50 2014&quot; crm_feature_set=&quot;3.0.8&quot; update-origin=&quot;ha3&quot; update-client=&quot;crm_resource&quot; have-quorum=&quot;1&quot; dc-uuid=&quot;168427534&quot;&gt;<br>
&gt; &nbsp; &lt;configuration&gt;<br>
&gt; &nbsp; &nbsp; &lt;crm_config&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;cluster_property_set id=&quot;cib-bootstrap-options&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;symmetric-cluster&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-symmetric-cluster&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stonith-enabled&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-stonith-enabled&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stonith-action&quot; value=&quot;reboot&quot; id=&quot;cib-bootstrap-options-stonith-action&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;no-quorum-policy&quot; value=&quot;ignore&quot; id=&quot;cib-bootstrap-options-no-quorum-policy&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stop-orphan-resources&quot; value=
&quot;true&quot; id=&quot;cib-bootstrap-options-stop-orphan-resources&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;stop-orphan-actions&quot; value=&quot;true&quot; id=&quot;cib-bootstrap-options-stop-orphan-actions&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;default-action-timeout&quot; value=&quot;20s&quot; id=&quot;cib-bootstrap-options-default-action-timeout&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-dc-version&quot; name=&quot;dc-version&quot; value=&quot;1.1.10-9d39a6b&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;cib-bootstrap-options-cluster-infrastructure&quot; name=&quot;cluster-infrastructure&quot; value=&quot;corosync&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/cluster_property_set&gt;<br>
&gt; &nbsp; &nbsp; &lt;/crm_config&gt;<br>
&gt; &nbsp; &nbsp; &lt;nodes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;node id=&quot;168427534&quot; uname=&quot;ha3&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;node id=&quot;168427535&quot; uname=&quot;ha4&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &lt;/nodes&gt;<br>
&gt; &nbsp; &nbsp; &lt;resources&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;ha3_fabric_ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot; type=&quot;ping&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;host_list&quot; value=&quot;10.10.0.1&quot; id=&quot;ha3_fabric_ping-instance_attributes-host_list&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;failure_score&quot; value=&quot;1&quot; id=&quot;ha3_fabric_ping-instance_attributes-failure_score&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; timeout=&quot;60s&quot; requires=&quot;nothing&quot; on-fail=&quot;standby&quot; interval=&quot;0&quot; id=&quot;ha3_fabric_ping-start-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-start-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-start-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; interval=&quot;15s&quot; requires=&quot;nothing&quot; on-fail=&quot;standby&quot; timeout=&quot;15s&quot; id=&quot;ha3_fabric_ping-monitor-15s&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-monitor-15s-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-monitor-15s-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;stop&quot; on-fail=&quot;fence&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha3_fabric_ping-stop-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha3_fabric_ping-stop-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha3_fabric_ping-stop-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;meta_attributes id=&quot;ha3_fabric_ping-meta_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;ha3_fabric_ping-meta_attributes-requires&quot; name=&quot;requires&quot; value=&quot;nothing&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/meta_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/primitive&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;ha4_fabric_ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot; type=&quot;ping&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;host_list&quot; value=&quot;10.10.0.1&quot; id=&quot;ha4_fabric_ping-instance_attributes-host_list&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;failure_score&quot; value=&quot;1&quot; id=&quot;ha4_fabric_ping-instance_attributes-failure_score&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; timeout=&quot;60s&quot; requires=&quot;nothing&quot; on-fail=&quot;standby&quot; interval=&quot;0&quot; id=&quot;ha4_fabric_ping-start-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-start-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-start-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; interval=&quot;15s&quot; requires=&quot;nothing&quot; on-fail=&quot;standby&quot; timeout=&quot;15s&quot; id=&quot;ha4_fabric_ping-monitor-15s&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-monitor-15s-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-monitor-15s-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;stop&quot; on-fail=&quot;fence&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;ha4_fabric_ping-stop-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;ha4_fabric_ping-stop-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;ha4_fabric_ping-stop-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;meta_attributes id=&quot;ha4_fabric_ping-meta_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;ha4_fabric_ping-meta_attributes-requires&quot; name=&quot;requires&quot; value=&quot;nothing&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/meta_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/primitive&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;fencing_route_to_ha3&quot; class=&quot;stonith&quot; type=&quot;meatware&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;hostlist&quot; value=&quot;ha3&quot; id=&quot;fencing_route_to_ha3-instance_attributes-hostlist&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha3-start-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-start-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha3-start-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha3-monitor-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha3-monitor-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha3-monitor-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/primitive&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;primitive id=&quot;fencing_route_to_ha4&quot; class=&quot;stonith&quot; type=&quot;meatware&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;hostlist&quot; value=&quot;ha4&quot; id=&quot;fencing_route_to_ha4-instance_attributes-hostlist&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;start&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha4-start-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-start-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha4-start-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;op name=&quot;monitor&quot; requires=&quot;nothing&quot; interval=&quot;0&quot; id=&quot;fencing_route_to_ha4-monitor-0&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;fencing_route_to_ha4-monitor-0-instance_attributes&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;prereq&quot; value=&quot;nothing&quot; id=&quot;fencing_route_to_ha4-monitor-0-instance_attributes-prereq&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/op&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/operations&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/primitive&gt;<br>
&gt; &nbsp; &nbsp; &lt;/resources&gt;<br>
&gt; &nbsp; &nbsp; &lt;constraints&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha3_fabric_ping_location&quot; rsc=&quot;ha3_fabric_ping&quot; score=&quot;INFINITY&quot; node=&quot;ha3&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha3_fabric_ping_not_location&quot; rsc=&quot;ha3_fabric_ping&quot; score=&quot;-INFINITY&quot; node=&quot;ha4&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha4_fabric_ping_location&quot; rsc=&quot;ha4_fabric_ping&quot; score=&quot;INFINITY&quot; node=&quot;ha4&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;ha4_fabric_ping_not_location&quot; rsc=&quot;ha4_fabric_ping&quot; score=&quot;-INFINITY&quot; node=&quot;ha3&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha4_location&quot; rsc=&quot;fencing_route_to_ha4&quot; score=&quot;INFINITY&quot; node=&quot;ha3&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha4_not_location&quot; rsc=&quot;fencing_route_to_ha4&quot; score=&quot;-INFINITY&quot; node=&quot;ha4&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha3_location&quot; rsc=&quot;fencing_route_to_ha3&quot; score=&quot;INFINITY&quot; node=&quot;ha4&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_location id=&quot;fencing_route_to_ha3_not_location&quot; rsc=&quot;fencing_route_to_ha3&quot; score=&quot;-INFINITY&quot; node=&quot;ha3&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_order id=&quot;ha3_fabric_ping_before_fencing_route_to_ha4&quot; score=&quot;INFINITY&quot; first=&quot;ha3_fabric_ping&quot; first-action=&quot;start&quot; then=&quot;fencing_route_to_ha4&quot; then-action=&quot;start&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;rsc_order id=&quot;ha4_fabric_ping_before_fencing_route_to_ha3&quot; score=&quot;INFINITY&quot; first=&quot;ha4_fabric_ping&quot; first-action=&quot;start&quot; then=&quot;fencing_route_to_ha3&quot; then-action=&quot;start&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &lt;/constraints&gt;<br>
&gt; &nbsp; &nbsp; &lt;rsc_defaults&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;meta_attributes id=&quot;rsc-options&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;resource-stickiness&quot; value=&quot;INFINITY&quot; id=&quot;rsc-options-resource-stickiness&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;migration-threshold&quot; value=&quot;0&quot; id=&quot;rsc-options-migration-threshold&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair name=&quot;is-managed&quot; value=&quot;true&quot; id=&quot;rsc-options-is-managed&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/meta_attributes&gt;<br>
&gt; &nbsp; &nbsp; &lt;/rsc_defaults&gt;<br>
&gt; &nbsp; &lt;/configuration&gt;<br>
&gt; &nbsp; &lt;status&gt;<br>
&gt; &nbsp; &nbsp; &lt;node_state id=&quot;168427534&quot; uname=&quot;ha3&quot; in_ccm=&quot;true&quot; crmd=&quot;online&quot; crm-debug-origin=&quot;do_update_resource&quot; join=&quot;member&quot; expected=&quot;member&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;lrm id=&quot;168427534&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resources&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;ha3_fabric_ping&quot; type=&quot;ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;ha3_fabric_ping_last_0&quot; operation_key=&quot;ha3_fabric_ping_stop_0&quot; operation=&quot;stop&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;4:3:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:0;4:3:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;19&quot; rc-code=&quot;0&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509661&quot; last-rc-change=&quot;1402509661&quot; exec-time=&quot;12&quot; queue-time=&quot;0&quot; op-digest=&quot;91b00b3fe95f23582466d18e42c4fd58&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;ha3_fabric_ping_last_failure_0&quot; operation_key=&quot;ha3_fabric_ping_start_0&quot; operation=&quot;start&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;4:1:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:1;4:1:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;18&quot; rc-code=&quot;1&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509641&quot; last-rc-change=&quot;1402509641&quot; exec-time=&quot;20043&quot; queue-time=&quot;0&quot; op-digest=&quot;ddf4bee6852a62c7efcf52cf7471d629&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;ha4_fabric_ping&quot; type=&quot;ping&quot; class=&quot;ocf&quot; provider=&quot;pacemaker&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;ha4_fabric_ping_last_0&quot; operation_key=&quot;ha4_fabric_ping_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;5:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:7;5:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;9&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509565&quot; last-rc-change=&quot;1402509565&quot; exec-time=&quot;10&quot; queue-time=&quot;0&quot; op-digest=&quot;91b00b3fe95f23582466d18e42c4fd58&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;fencing_route_to_ha3&quot; type=&quot;meatware&quot; class=&quot;stonith&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;fencing_route_to_ha3_last_0&quot; operation_key=&quot;fencing_route_to_ha3_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;6:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:7;6:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;13&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509565&quot; last-rc-change=&quot;1402509565&quot; exec-time=&quot;1&quot; queue-time=&quot;0&quot; op-digest=&quot;502fbd7a2366c2be772d7fbecc9e0351&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_resource id=&quot;fencing_route_to_ha4&quot; type=&quot;meatware&quot; class=&quot;stonith&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;lrm_rsc_op id=&quot;fencing_route_to_ha4_last_0&quot; operation_key=&quot;fencing_route_to_ha4_monitor_0&quot; operation=&quot;monitor&quot; crm-debug-origin=&quot;do_update_resource&quot; crm_feature_set=&quot;3.0.8&quot; transition-key=&quot;7:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; transition-magic=&quot;0:7;7:0:7:0ebf14dc-cfcf-425a-a507-65ed0ee060aa&quot; call-id=&quot;17&quot; rc-code=&quot;7&quot; op-status=&quot;0&quot; interval=&quot;0&quot; last-run=&quot;1402509565&quot; last-rc-change=&quot;1402509565&quot; exec-time=&quot;0&quot; queue-time=&quot;0&quot; op-digest=&quot;5be26fbcfd648e3d545d0115645dde76&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resource&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/lrm_resources&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/lrm&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;transient_attributes id=&quot;168427534&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;instance_attributes id=&quot;status-168427534&quot;&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-shutdown&quot; name=&quot;shutdown&quot; value=&quot;0&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-probe_complete&quot; name=&quot;probe_complete&quot; value=&quot;true&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-fail-count-ha3_fabric_ping&quot; name=&quot;fail-count-ha3_fabric_ping&quot; value=&quot;INFINITY&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &lt;nvpair id=&quot;status-168427534-last-failure-ha3_fabric_ping&quot; name=&quot;last-failure-ha3_fabric_ping&quot; value=&quot;1402509661&quot;/&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &nbsp; &lt;/instance_attributes&gt;<br>
&gt; &nbsp; &nbsp; &nbsp; &lt;/transient_attributes&gt;<br>
&gt; &nbsp; &nbsp; &lt;/node_state&gt;<br>
&gt; &nbsp; &nbsp; &lt;node_state id=&quot;168427535&quot; in_ccm=&quot;false&quot; crmd=&quot;offline&quot; join=&quot;down&quot; crm-debug-origin=&quot;send_stonith_update&quot; uname=&quot;ha4&quot; expected=&quot;down&quot;/&gt;<br>
&gt; &nbsp; &lt;/status&gt;<br>
&gt; &lt;/cib&gt;<br>
&gt; [root@ha3 ~]# <br>
&gt; <br>
&gt; <br>
&gt; /var/log/messages from when pacemaker started on ha3 to when ha3_fabric_ping failed.<br>
&gt; Jun 11 12:59:01 ha3 systemd: Starting LSB: Starts and stops Pacemaker Cluster Manager....<br>
&gt; Jun 11 12:59:01 ha3 pacemaker: Starting Pacemaker Cluster Manager<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: mcp_read_config: Configured corosync to accept connections from group 1000: OK (1)<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: main: Starting Pacemaker 1.1.10 (Build: 9d39a6b): &nbsp;agent-manpages ncurses libqb-logging libqb-ipc lha-fencing nagios &nbsp;corosync-native libesmtp<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: cluster_connect_quorum: Quorum acquired<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: crm_update_peer_state: pcmk_quorum_notification: Node ha3[168427534] - state is now member (was (null))<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535<br>
&gt; Jun 11 12:59:01 ha3 pacemakerd[5007]: notice: crm_update_peer_state: pcmk_quorum_notification: Node (null)[168427535] - state is now member (was (null))<br>
&gt; Jun 11 12:59:02 ha3 pengine[5013]: warning: crm_is_writable: /var/lib/pacemaker/pengine should be owned and r/w by group haclient<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: warning: crm_is_writable: /var/lib/pacemaker/cib should be owned and r/w by group haclient<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync<br>
&gt; Jun 11 12:59:02 ha3 stonith-ng[5010]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync<br>
&gt; Jun 11 12:59:02 ha3 crmd[5014]: notice: main: CRM Git Version: 9d39a6b<br>
&gt; Jun 11 12:59:02 ha3 crmd[5014]: warning: crm_is_writable: /var/lib/pacemaker/pengine should be owned and r/w by group haclient<br>
&gt; Jun 11 12:59:02 ha3 crmd[5014]: warning: crm_is_writable: /var/lib/pacemaker/cib should be owned and r/w by group haclient<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: crm_update_peer_state: attrd_peer_change_cb: Node (null)[168427534] - state is now member (was (null))<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 attrd[5012]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:02 ha3 stonith-ng[5010]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 stonith-ng[5010]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 stonith-ng[5010]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 stonith-ng[5010]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:02 ha3 cib[5009]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: crm_cluster_connect: Connecting to cluster infrastructure: corosync<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427534<br>
&gt; Jun 11 12:59:03 ha3 stonith-ng[5010]: notice: setup_cib: Watching for stonith topology changes<br>
&gt; Jun 11 12:59:03 ha3 stonith-ng[5010]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: cluster_connect_quorum: Quorum acquired<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: crm_update_peer_state: pcmk_quorum_notification: Node ha3[168427534] - state is now member (was (null))<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427535<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: get_node_name: Could not obtain a node name for corosync nodeid 168427535<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: crm_update_peer_state: pcmk_quorum_notification: Node (null)[168427535] - state is now member (was (null))<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: do_started: The local CRM is operational<br>
&gt; Jun 11 12:59:03 ha3 crmd[5014]: notice: do_state_transition: State transition S_STARTING -&gt; S_PENDING [ input=I_PENDING cause=C_FSA_INTERNAL origin=do_started ]<br>
&gt; Jun 11 12:59:04 ha3 stonith-ng[5010]: notice: stonith_device_register: Added 'fencing_route_to_ha4' to the device list (1 active devices)<br>
&gt; Jun 11 12:59:06 ha3 pacemaker: Starting Pacemaker Cluster Manager[ &nbsp;OK &nbsp;]<br>
&gt; Jun 11 12:59:06 ha3 systemd: Started LSB: Starts and stops Pacemaker Cluster Manager..<br>
&gt; Jun 11 12:59:24 ha3 crmd[5014]: warning: do_log: FSA: Input I_DC_TIMEOUT from crm_timer_popped() received in state S_PENDING<br>
&gt; Jun 11 12:59:24 ha3 crmd[5014]: notice: do_state_transition: State transition S_ELECTION -&gt; S_INTEGRATION [ input=I_ELECTION_DC cause=C_TIMER_POPPED origin=election_timeout_popped ]<br>
&gt; Jun 11 12:59:24 ha3 crmd[5014]: warning: do_log: FSA: Input I_ELECTION_DC from do_election_check() received in state S_INTEGRATION<br>
&gt; Jun 11 12:59:24 ha3 cib[5009]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:24 ha3 cib[5009]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: write_attribute: Sent update 2 with 1 changes for terminate, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: write_attribute: Sent update 3 with 1 changes for shutdown, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: attrd_cib_callback: Update 2 for terminate[ha3]=(null): OK (0)<br>
&gt; Jun 11 12:59:24 ha3 attrd[5012]: notice: attrd_cib_callback: Update 3 for shutdown[ha3]=0: OK (0)<br>
&gt; Jun 11 12:59:25 ha3 pengine[5013]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 12:59:25 ha3 pengine[5013]: warning: stage6: Scheduling Node ha4 for STONITH<br>
&gt; Jun 11 12:59:25 ha3 pengine[5013]: notice: LogActions: Start &nbsp; ha3_fabric_ping                 (ha3)<br>
&gt; Jun 11 12:59:25 ha3 pengine[5013]: notice: LogActions: Start &nbsp; fencing_route_to_ha4                 (ha3)<br>
&gt; Jun 11 12:59:25 ha3 pengine[5013]: warning: process_pe_message: Calc ulated Transition 0: /var/lib/pacemaker/pengine/pe-warn-80.bz2<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 4: monitor ha3_fabric_ping_monitor_0 on ha3 (local)<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_fence_node: Executing reboot fencing operation (12) on ha4 (timeout=60000)<br>
&gt; Jun 11 12:59:25 ha3 stonith-ng[5010]: notice: handle_request: Client crmd.5014.dbbbf194 wants to fence (reboot) 'ha4' with device '(any)'<br>
&gt; Jun 11 12:59:25 ha3 stonith-ng[5010]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: b3ab6141-9612-4024-82b2-350e74bbb33d (0)<br>
&gt; Jun 11 12:59:25 ha3 stonith-ng[5010]: notice: corosync_node_name: Unable to get node name for nodeid 168427534<br>
&gt; Jun 11 12:59:25 ha3 stonith-ng[5010]: notice: get_node_name: Defaulting to uname -n for the local corosync node name<br>
&gt; Jun 11 12:59:25 ha3 stonith: [5027]: info: parse config info info=ha4<br>
&gt; Jun 11 12:59:25 ha3 stonith-ng[5010]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list<br>
&gt; Jun 11 12:59:25 ha3 stonith: [5031]: info: parse config info info=ha4<br>
&gt; Jun 11 12:59:25 ha3 stonith: [5031]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.<br>
&gt; Jun 11 12:59:25 ha3 stonith: [5031]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: process_lrm_event: LRM operation ha3_fabric_ping_monitor_0 (call=5, rc=7, cib-update=25, confirmed=true) not running<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 5: monitor ha4_fabric_ping_monitor_0 on ha3 (local)<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: process_lrm_event: LRM operation ha4_fabric_ping_monitor_0 (call=9, rc=7, cib-update=26, confirmed=true) not running<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 6: monitor fencing_route_to_ha3_monitor_0 on ha3 (local)<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 7: monitor fencing_route_to_ha4_monitor_0 on ha3 (local)<br>
&gt; Jun 11 12:59:25 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 3: probe_complete probe_complete on ha3 (local) - no waiting<br>
&gt; Jun 11 12:59:25 ha3 attrd[5012]: notice: write_attribute: Sent update 4 with 1 changes for probe_complete, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 12:59:25 ha3 attrd[5012]: notice: attrd_cib_callback: Update 4 for probe_complete[ha3]=true: OK (0)<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: stonith_action_async_done: Child process 5030 performing action 'reboot' timed out with signal 15<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: error: log_operation: Operation 'reboot' [5030] (call 2 from crmd.5014) for host 'ha4' with device 'fencing_route_to_ha4' returned: -62 (Timer expired)<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: warning: log_operation: fencing_route_to_ha4:5030 [ Performing: stonith -t meatware -T reset ha4 ]<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: stonith_choose_peer: Couldn't find anyone to fence ha4 with &lt;any&gt;<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: error: remote_op_done: Operation reboot of ha4 by ha3 for crmd.5014@ha3.b3ab6141: No route to host<br>
&gt; Jun 11 13:00:25 ha3 crmd[5014]: notice: tengine_stonith_callback: Stonith operation 2/12:0:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa: No route to host (-113)<br>
&gt; Jun 11 13:00:25 ha3 crmd[5014]: notice: tengine_stonith_callback: Stonith operation 2 for ha4 failed (No route to host): aborting transition.<br>
&gt; Jun 11 13:00:25 ha3 crmd[5014]: notice: tengine_stonith_notify: Peer ha4 was not terminated (reboot) by ha3 for ha3: No route to host (ref=b3ab6141-9612-4024-82b2-350e74bbb33d) by client crmd.5014<br>
&gt; Jun 11 13:00:25 ha3 crmd[5014]: notice: run_graph: Transition 0 (Complete=7, Pending=0, Fired=0, Skipped=5, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-80.bz2): Stopped<br>
&gt; Jun 11 13:00:25 ha3 pengine[5013]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 13:00:25 ha3 pengine[5013]: warning: stage6: Scheduling Node ha4 for STONITH<br>
&gt; Jun 11 13:00:25 ha3 pengine[5013]: notice: LogActions: Start &nbsp; ha3_fabric_ping                 (ha3)<br>
&gt; Jun 11 13:00:25 ha3 pengine[5013]: notice: LogActions: Start &nbsp; fencing_route_to_ha4                 (ha3)<br>
&gt; Jun 11 13:00:25 ha3 pengine[5013]: warning: process_pe_message: Calculated Transition 1: /var/lib/pacemaker/pengine/pe-warn-81.bz2<br>
&gt; Jun 11 13:00:25 ha3 crmd[5014]: notice: te_fence_node: Executing reboot fencing operation (8) on ha4 (timeout=60000)<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: handle_request: Client crmd.5014.dbbbf194 wants to fence (reboot) 'ha4' with device '(any)'<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: initiate_remote_stonith_op: Initiating remote operation reboot for ha4: eae78d4c-8d80-47fe-93e9-1a9261ec38a4 (0)<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list<br>
&gt; Jun 11 13:00:25 ha3 stonith-ng[5010]: notice: can_fence_host_with_device: fencing_route_to_ha4 can fence ha4: dynamic-list<br>
&gt; Jun 11 13:00:25 ha3 stonith: [5057]: info: parse config info info=ha4<br>
&gt; Jun 11 13:00:25 ha3 stonith: [5057]: CRIT: OPERATOR INTERVENTION REQUIRED to reset ha4.<br>
&gt; Jun 11 13:00:25 ha3 stonith: [5057]: CRIT: Run &quot;meatclient -c ha4&quot; AFTER power-cycling the machine.<br>
&gt; Jun 11 13:00:41 ha3 stonith: [5057]: info: node Meatware-reset: ha4<br>
&gt; Jun 11 13:00:41 ha3 stonith-ng[5010]: notice: log_operation: Operation 'reboot' [5056] (call 3 from crmd.5014) for host 'ha4' with device 'fencing_route_to_ha4' returned: 0 (OK)<br>
&gt; Jun 11 13:00:41 ha3 stonith-ng[5010]: notice: remote_op_done: Operation reboot of ha4 by ha3 for crmd.5014@ha3.eae78d4c: OK<br>
&gt; Jun 11 13:00:41 ha3 crmd[5014]: notice: tengine_stonith_callback: Stonith operation 3/8:1:0:0ebf14dc-cfcf-425a-a507-65ed0ee060aa: OK (0)<br>
&gt; Jun 11 13:00:41 ha3 crmd[5014]: notice: crm_update_peer_state: send_stonith_update: Node ha4[0] - state is now lost (was (null))<br>
&gt; Jun 11 13:00:41 ha3 crmd[5014]: notice: tengine_stonith_notify: Peer ha4 was terminated (reboot) by ha3 for ha3: OK (ref=eae78d4c-8d80-47fe-93e9-1a9261ec38a4) by client crmd.5014<br>
&gt; Jun 11 13:00:41 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 4: start ha3_fabric_ping_start_0 on ha3 (local)<br>
&gt; Jun 11 13:01:01 ha3 systemd: Starting Session 22 of user root.<br>
&gt; Jun 11 13:01:01 ha3 systemd: Started Session 22 of user root.<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: write_attribute: Sent update 5 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: attrd_cib_callback: Update 5 for pingd[ha3]=0: OK (0)<br>
&gt; Jun 11 13:01:01 ha3 ping(ha3_fabric_ping)[5060]: WARNING: pingd is less than failure_score(1)<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: process_lrm_event: LRM operation ha3_fabric_ping_start_0 (call=18, rc=1, cib-update=37, confirmed=true) unknown error<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: warning: status_from_rc: Action 4 (ha3_fabric_ping_start_0) on ha3 failed (target: 0 vs. rc: 1): Error<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402509661)<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: warning: update_failcount: Updating failcount for ha3_fabric_ping on ha3 after failed start: rc=1 (update=INFINITY, time=1402509661)<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: run_graph: Transition 1 (Complete=4, Pending=0, Fired=0, Skipped=2, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-81.bz2): Stopped<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: write_attribute: Sent update 6 with 1 changes for fail-count-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: write_attribute: Sent update 7 with 1 changes for last-failure-ha3_fabric_ping, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: LogActions: Stop &nbsp; &nbsp;ha3_fabric_ping                 (ha3)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: process_pe_message: Calculated Transition 2: /var/lib/pacemaker/pengine/pe-input-304.bz2<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: attrd_cib_callback: Update 6 for fail-count-ha3_fabric_ping[ha3]=INFINITY: OK (0)<br>
&gt; Jun 11 13:01:01 ha3 attrd[5012]: notice: attrd_cib_callback: Update 7 for last-failure-ha3_fabric_ping[ha3]=1402509661: OK (0)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: LogActions: Stop &nbsp; &nbsp;ha3_fabric_ping                 (ha3)<br>
&gt; Jun 11 13:01:01 ha3 pengine[5013]: notice: process_pe_message: Calculated Transition 3: /var/lib/pacemaker/pengine/pe-input-305.bz2<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: te_rsc_command: Initiating action 4: stop ha3_fabric_ping_stop_0 on ha3 (local)<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: process_lrm_event: LRM operation ha3_fabric_ping_stop_0 (call=19, rc=0, cib-update=41, confirmed=true) ok<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: run_graph: Transition 3 (Complete=2, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-305.bz2): Complete<br>
&gt; Jun 11 13:01:01 ha3 crmd[5014]: notice: do_state_transition: State transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt; Jun 11 13:01:06 ha3 attrd[5012]: notice: write_attribute: Sent update 8 with 1 changes for pingd, id=&lt;n/a&gt;, set=(null)<br>
&gt; Jun 11 13:01:06 ha3 crmd[5014]: notice: do_state_transition: State transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC cause=C_FSA_INTERNAL origin=abort_transition_graph ]<br>
&gt; Jun 11 13:01:06 ha3 pengine[5013]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
&gt; Jun 11 13:01:06 ha3 pengine[5013]: warning: unpack_rsc_op_failure: Processing failed op start for ha3_fabric_ping on ha3: unknown error (1)<br>
&gt; Jun 11 13:01:06 ha3 pengine[5013]: notice: process_pe_message: Calculated Transition 4: /var/lib/pacemaker/pengine/pe-input-306.bz2<br>
&gt; Jun 11 13:01:06 ha3 crmd[5014]: notice: run_graph: Transition 4 (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-306.bz2): Complete<br>
&gt; Jun 11 13:01:06 ha3 crmd[5014]: notice: do_state_transition: State transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt; Jun 11 13:01:06 ha3 attrd[5012]: notice: attrd_cib_callback: Update 8 for pingd[ha3]=(null): OK (0)<br>
&gt; <br>
&gt; /etc/corosync/corosync.conf<br>
&gt; # Please read the corosync.conf.5 manual page<br>
&gt; totem {<br>
&gt; version: 2<br>
&gt; <br>
&gt; crypto_cipher: none<br>
&gt; crypto_hash: none<br>
&gt; <br>
&gt; interface {<br>
&gt; ringnumber: 0<br>
&gt; bindnetaddr: 10.10.0.0<br>
&gt; mcastport: 5405<br>
&gt; ttl: 1<br>
&gt; }<br>
&gt; transport: udpu<br>
&gt; }<br>
&gt; <br>
&gt; logging {<br>
&gt; fileline: off<br>
&gt; to_logfile: no<br>
&gt; to_syslog: yes<br>
&gt; #logfile: /var/log/cluster/corosync.log<br>
&gt; debug: off<br>
&gt; timestamp: on<br>
&gt; logger_subsys {<br>
&gt; subsys: QUORUM<br>
&gt; debug: off<br>
&gt; }<br>
&gt; }<br>
&gt; <br>
&gt; nodelist {<br>
&gt; node {<br>
&gt; ring0_addr: 10.10.0.14<br>
&gt; }<br>
&gt; <br>
&gt; node {<br>
&gt; ring0_addr: 10.10.0.15<br>
&gt; }<br>
&gt; }<br>
&gt; <br>
&gt; quorum {<br>
&gt; # Enable and configure quorum subsystem (default: off)<br>
&gt; # see also corosync.conf.5 and votequorum.5<br>
&gt; provider: corosync_votequorum<br>
&gt; expected_votes: 2<br>
&gt; }<br>
&gt; [root@ha3 ~]# <br>
&gt; <br>
&gt; Paul Cain<br>
&gt; <br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br>
&gt; </font></tt><tt><font size="2"><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a></font></tt><tt><font size="2"><br>
&gt; <br>
&gt; Project Home: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org">http://www.clusterlabs.org</a></font></tt><tt><font size="2"><br>
&gt; Getting started: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a></font></tt><tt><font size="2"><br>
&gt; Bugs: </font></tt><tt><font size="2"><a href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></font></tt><tt><font size="2"><br>
<br>
[attachment &quot;signature.asc&quot; deleted by Paul E Cain/Lenexa/IBM] _______________________________________________<br>
Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br>
</font></tt><tt><fo
nt size="2"><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a></font></tt><tt><font size="2"><br>
<br>
Project Home: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org">http://www.clusterlabs.org</a></font></tt><tt><font size="2"><br>
Getting started: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a></font></tt><tt><font size="2"><br>
Bugs: </font></tt><tt><font size="2"><a href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></font></tt><tt><font size="2"><br>
</font></tt><br>
</body></html>