<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: Times New Roman; font-size: 12pt; color: #000000'>Hi Emmanuel,<div><br></div><div>Thanks for the idea. I looked through the rest of the log and these "return code 8" errors on the ocf:linbit:drbd resources are occurring at other intervals (e.g. today) when the VirtualDomain resource is unaffected. This seems to indicate that these soft errors do not trigger a restart of the VirtualDomain resource. Is there anything else in the log that could indicate what caused this, or is there somewhere else I can look?</div><div><br></div><div>Thanks,</div><div><br></div><div>Andrew</div><div><br><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b><span>"emmanuel segura" &lt;<a class="smarterwiki-linkify" href="mailto:emi2fast@gmail.com" title="[GMCP] Compose a new mail to emi2fast@gmail.com" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=emi2fast@gmail.com','Compose new message','width=640,height=480');return false" rel="noreferrer">emi2fast@gmail.com</a>&gt;</span><br><b>To: </b><span>"The Pacemaker cluster resource manager" &lt;<a class="smarterwiki-linkify" href="mailto:pacemaker@oss.clusterlabs.org" title="[GMCP] Compose a new mail to pacemaker@oss.clusterlabs.org" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=pacemaker@oss.clusterlabs.org','Compose new message','width=640,height=480');return false" rel="noreferrer">pacemaker@oss.clusterlabs.org</a>&gt;</span><br><b>Sent: </b>Tuesday, June 19, 2012 9:57:19 AM<br><b>Subject: </b>Re: [Pacemaker] Why Did Pacemaker Restart this VirtualDomain&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;Resource?<br><br>I didn't see any error in your config, the only thing i seen it's this<br>==========================================================<br>Jun 14 15:35:27 vmhost1 lrmd: [3853]: info: rsc:p_drbd_vmstore:0<br>monitor[55] (pid 12323)<br>Jun 14 15:35:27 vmhost1 lrmd: [3853]: info: rsc:p_drbd_mount2:0 monitor[53]<br>(pid 12324)<br>Jun 14 15:35:27 vmhost1 lrmd: [3853]: info: operation monitor[55] on<br>p_drbd_vmstore:0 for client 3856: pid 12323 exited with return code 8<br>Jun 14 15:35:27 vmhost1 lrmd: [3853]: info: operation monitor[53] on<br>p_drbd_mount2:0 for client 3856: pid 12324 exited with return code 8<br>Jun 14 15:35:31 vmhost1 lrmd: [3853]: info: rsc:p_drbd_mount1:0 monitor[54]<br>(pid 12396)<br>=========================================================<br>it can be a drbd problem, but i tell you the true i'm not sure<br><br>======================================================<br><span><a class="smarterwiki-linkify" href="http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html/Pacemaker_Explained/s-ocf-return-codes.html">http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html/Pacemaker_Explained/s-ocf-return-codes.html</a></span><br>=========================================================<br><br><span>2012/6/19 Andrew Martin &lt;<a class="smarterwiki-linkify" href="mailto:amartin@xes-inc.com" title="[GMCP] Compose a new mail to amartin@xes-inc.com" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=amartin@xes-inc.com','Compose new message','width=640,height=480');return false" rel="noreferrer">amartin@xes-inc.com</a>&gt;</span><br><br>&gt; Hello,<br>&gt;<br>&gt; I have a 3 node Pacemaker+Heartbeat cluster (two real nodes and one<br>&gt; "standby" quorum node) with Ubuntu 10.04 LTS on the nodes and using the<br>&gt; Pacemaker+Heartbeat packages from the Ubuntu HA Team PPA (<br><span>&gt; <a class="smarterwiki-linkify" href="https://launchpad.net/~ubuntu-ha-maintainers/+archive/ppa">https://launchpad.net/~ubuntu-ha-maintainers/+archive/ppa</a>&lt;<a class="smarterwiki-linkify" href="https://launchpad.net/%7Eubuntu-ha-maintainers/+archive/ppa">https://launchpad.net/%7Eubuntu-ha-maintainers/+archive/ppa</a>&gt;).</span><br>&gt; I have configured 3 DRBD resources, a filesystem mount, and a KVM-based<br>&gt; virtual machine (using the VirtualDomain resource). I have constraints in<br>&gt; place so that the DRBD devices must become primary and the filesystem must<br>&gt; be mounted before the VM can start:<br>&gt; node $id="1ab0690c-5aa0-4d9c-ae4e-b662e0ca54e5" vmhost1<br>&gt; node $id="219e9bf6-ea99-41f4-895f-4c2c5c78484a" quorumnode \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; attributes standby="on"<br>&gt; node $id="645e09b4-aee5-4cec-a241-8bd4e03a78c3" vmhost2<br>&gt; primitive p_drbd_mount2 ocf:linbit:drbd \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params drbd_resource="mount2" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="240" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="100" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="10" role="Master" timeout="30" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="20" role="Slave" timeout="30"<br>&gt; primitive p_drbd_mount1 ocf:linbit:drbd \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params drbd_resource="mount1" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="240" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="100" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="10" role="Master" timeout="30" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="20" role="Slave" timeout="30"<br>&gt; primitive p_drbd_vmstore ocf:linbit:drbd \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params drbd_resource="vmstore" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="240" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="100" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="10" role="Master" timeout="30" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="20" role="Slave" timeout="30"<br>&gt; primitive p_fs_vmstore ocf:heartbeat:Filesystem \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params device="/dev/drbd0" directory="/mnt/storage/vmstore"<br>&gt; fstype="ext4" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="60" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="60" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="20" timeout="40"<br>&gt; primitive p_ping ocf:pacemaker:ping \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params name="p_ping" host_list="192.168.1.25 192.168.1.26"<br>&gt; multiplier="1000" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="60" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="20s" timeout="60"<br>&gt; primitive p_sysadmin_notify ocf:heartbeat:MailTo \<br><span>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params email="<a class="smarterwiki-linkify" href="mailto:alert@example.com" title="[GMCP] Compose a new mail to alert@example.com" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=alert@example.com','Compose new message','width=640,height=480');return false" rel="noreferrer">alert@example.com</a>" \</span><br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params subject="Pacemaker Change" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="10" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="10" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="10" timeout="10"<br>&gt; primitive p_vm_myvm ocf:heartbeat:VirtualDomain \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params config="/mnt/storage/vmstore/config/myvm.xml" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; meta allow-migrate="false" target-role="Started" is-managed="true"<br>&gt; \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op start interval="0" timeout="180" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op stop interval="0" timeout="180" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; op monitor interval="10" timeout="30"<br>&gt; primitive stonithquorumnode stonith:external/webpowerswitch \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params wps_ipaddr="192.168.3.100" wps_port="x" wps_username="xxx"<br>&gt; wps_password="xxx" hostname_to_stonith="quorumnode"<br>&gt; primitive stonithvmhost1 stonith:external/webpowerswitch \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params wps_ipaddr="192.168.3.100" wps_port="x" wps_username="xxx"<br>&gt; wps_password="xxx" hostname_to_stonith="vmhost1"<br>&gt; primitive stonithvmhost2 stonith:external/webpowerswitch \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; params wps_ipaddr="192.168.3.100" wps_port="x" wps_username="xxx"<br>&gt; wps_password="xxx" hostname_to_stonith="vmhost2"<br>&gt; group g_vm p_fs_vmstore p_vm_myvm<br>&gt; ms ms_drbd_mount2 p_drbd_mount2 \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; meta master-max="1" master-node-max="1" clone-max="2"<br>&gt; clone-node-max="1" notify="true"<br>&gt; ms ms_drbd_mount1 p_drbd_mount1 \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; meta master-max="1" master-node-max="1" clone-max="2"<br>&gt; clone-node-max="1" notify="true"<br>&gt; ms ms_drbd_vmstore p_drbd_vmstore \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; meta master-max="1" master-node-max="1" clone-max="2"<br>&gt; clone-node-max="1" notify="true"<br>&gt; clone cl_ping p_ping \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; meta interleave="true"<br>&gt; clone cl_sysadmin_notify p_sysadmin_notify<br>&gt; location loc_run_on_most_connected g_vm \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; rule $id="loc_run_on_most_connected-rule" p_ping: defined p_ping<br>&gt; location loc_st_nodescan stonithquorumnode -inf: vmhost1<br>&gt; location loc_st_vmhost1 stonithvmhost1 -inf: vmhost1<br>&gt; location loc_st_vmhost2 stonithvmhost2 -inf: vmhost2<br>&gt; colocation c_drbd_libvirt_vm inf: g_vm ms_drbd_vmstore:Master<br>&gt; ms_drbd_tools:Master ms_drbd_crm:Master<br>&gt; order o_drbd-fs-vm inf: ms_drbd_vmstore:promote ms_drbd_tools:promote<br>&gt; ms_drbd_crm:promote g_vm:start<br>&gt; property $id="cib-bootstrap-options" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; dc-version="1.1.6-9971ebba4494012a93c03b40a2c58ec0eb60f50c" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; cluster-infrastructure="Heartbeat" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; stonith-enabled="true" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; no-quorum-policy="freeze" \<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; last-lrm-refresh="1337746179"<br>&gt;<br>&gt; This has been working well, however last week Pacemaker all of a sudden<br>&gt; stopped the p_vm_myvm resource and then started it up again. I have<br>&gt; attached the relevant section of /var/log/daemon.log - I am unable to<br>&gt; determine what caused Pacemaker to restart this resource. Based on the log,<br>&gt; could you tell me what event triggered this?<br>&gt;<br>&gt; Thanks,<br>&gt;<br>&gt; Andrew<br>&gt;<br>&gt; _______________________________________________<br><span>&gt; Pacemaker mailing list: <a class="smarterwiki-linkify" href="mailto:Pacemaker@oss.clusterlabs.org" title="[GMCP] Compose a new mail to Pacemaker@oss.clusterlabs.org" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=Pacemaker@oss.clusterlabs.org','Compose new message','width=640,height=480');return false" rel="noreferrer">Pacemaker@oss.clusterlabs.org</a></span><br><span>&gt; <a class="smarterwiki-linkify" href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a></span><br>&gt;<br><span>&gt; Project Home: <a class="smarterwiki-linkify" href="http://www.clusterlabs.org">http://www.clusterlabs.org</a></span><br><span>&gt; Getting started: <a class="smarterwiki-linkify" href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a></span><br><span>&gt; Bugs: <a class="smarterwiki-linkify" href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></span><br>&gt;<br>&gt;<br><br><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br><br>_______________________________________________<br><span>Pacemaker mailing list: <a class="smarterwiki-linkify" href="mailto:Pacemaker@oss.clusterlabs.org" title="[GMCP] Compose a new mail to Pacemaker@oss.clusterlabs.org" onclick="window.open('https://mail.google.com/mail/u/0/?view=cm&amp;fs=1&amp;tf=1&amp;to=Pacemaker@oss.clusterlabs.org','Compose new message','width=640,height=480');return false" rel="noreferrer">Pacemaker@oss.clusterlabs.org</a></span><br><span><a class="smarterwiki-linkify" href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a></span><br><br><span>Project Home: <a class="smarterwiki-linkify" href="http://www.clusterlabs.org">http://www.clusterlabs.org</a></span><br><span>Getting started: <a class="smarterwiki-linkify" href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a></span><br><span>Bugs: <a class="smarterwiki-linkify" href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></span><br></div><br></div></div></body></html>