give this command<br><br>vgs<br><br><div class="gmail_quote">Il giorno 19 aprile 2012 09:32, Frank Meier <span dir="ltr">&lt;<a href="mailto:frank.meier@hr-group.de">frank.meier@hr-group.de</a>&gt;</span> ha scritto:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
here my lvm.conf:<br>
<br>
devices {<br>
    dir = &quot;/dev&quot;<br>
    scan = [ &quot;/dev&quot; ]<br>
    filter = [ &quot;a|/dev/mapper|&quot;, &quot;r/.*/&quot; ]<br>
    cache = &quot;/etc/lvm/.cache&quot;<br>
    write_cache_state = 1<br>
    types = [ &quot;device-mapper&quot;, 16 ]<br>
    sysfs_scan = 1<br>
    md_component_detection = 1<br>
}<br>
log {<br>
    verbose = 0<br>
    syslog = 1<br>
    overwrite = 0<br>
    level = 0<br>
    indent = 1<br>
    command_names = 0<br>
    prefix = &quot;  &quot;<br>
}<br>
backup {<br>
    backup = 1<br>
    backup_dir = &quot;/etc/lvm/backup&quot;<br>
    archive = 1<br>
    archive_dir = &quot;/etc/lvm/archive&quot;<br>
    retain_min = 10<br>
    retain_days = 30<br>
}<br>
shell {<br>
    history_size = 100<br>
}<br>
global {<br>
    umask = 077<br>
    test = 0<br>
    activation = 1<br>
    proc = &quot;/proc&quot;<br>
    locking_type = 3<br>
    locking_dir = &quot;/var/lock/lvm&quot;<br>
}<br>
activation {<br>
    missing_stripe_filler = &quot;error&quot;<br>
    mirror_region_size = 512<br>
    reserved_stack = 256<br>
    reserved_memory = 8192<br>
    process_priority = -18<br>
}<br>
dmeventd {<br>
        mirror_library = &quot;libdevmapper-event-lvm2mirror.so.2.02&quot;<br>
        snapshot_library = &quot;libdevmapper-event-lvm2snapshot.so.2.02&quot;<br>
}<br>
<br>
<br>
Mit freundlichen Grüßen<br>
<br>
Frank Meier<br>
UNIX-Basis<br>
<br>
Hamm Reno Group GmbH<br>
Industriegebiet West | D-66987 Thaleischweiler-Fröschen<br>
T.<a href="tel:%2B49%280%296334%20444-8322" value="+4963344448322">+49(0)6334 444-8322</a> | F.<a href="tel:%2B49%280%296334%20444-8190" value="+4963344448190">+49(0)6334 444-8190</a><br>
<a href="mailto:frank.meier@hr-group.de">frank.meier@hr-group.de</a> | <a href="http://www.reno.de" target="_blank">www.reno.de</a><br>
___________________________________________________________________<br>
<br>
Sitz: Am Tie 7 | D-49086 Osnabrück<br>
Handelsregister Osnabrück HRB 19587<br>
Geschäftsführer: Hans-Jürgen de Fries,<br>
Jens Gransee, Manfred Klumpp,<br>
Robert Reisch<br>
<br>
Am 19.04.2012 09:13, schrieb <a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a>:<br>
&gt; Send Pacemaker mailing list submissions to<br>
&gt;         <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
&gt;<br>
&gt; To subscribe or unsubscribe via the World Wide Web, visit<br>
&gt;         <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; or, via email, send a message with subject or body &#39;help&#39; to<br>
&gt;         <a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a><br>
&gt;<br>
&gt; You can reach the person managing the list at<br>
&gt;         <a href="mailto:pacemaker-owner@oss.clusterlabs.org">pacemaker-owner@oss.clusterlabs.org</a><br>
&gt;<br>
&gt; When replying, please edit your Subject line so it is more specific<br>
&gt; than &quot;Re: Contents of Pacemaker digest...&quot;<br>
&gt;<br>
&gt;<br>
&gt; Today&#39;s Topics:<br>
&gt;<br>
&gt;    1. Re: LVM restarts after SLES upgrade (emmanuel segura)<br>
&gt;<br>
&gt;<br>
&gt; ----------------------------------------------------------------------<br>
&gt;<br>
&gt; Message: 1<br>
&gt; Date: Thu, 19 Apr 2012 09:18:37 +0200<br>
&gt; From: emmanuel segura &lt;<a href="mailto:emi2fast@gmail.com">emi2fast@gmail.com</a>&gt;<br>
&gt; To: The Pacemaker cluster resource manager<br>
&gt;         &lt;<a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a>&gt;<br>
&gt; Subject: Re: [Pacemaker] LVM restarts after SLES upgrade<br>
&gt; Message-ID:<br>
&gt;         &lt;CAE7pJ3Ab1ZzSpou0=vvrO=<a href="mailto:mb3ur2%2BK1XhALLJEpj-sOOUEfwTA@mail.gmail.com">mb3ur2+K1XhALLJEpj-sOOUEfwTA@mail.gmail.com</a>&gt;<br>
&gt; Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
&gt;<br>
&gt; maybe you have problem with clvm<br>
&gt;<br>
&gt;  can you show me your vm configuration?<br>
&gt;<br>
&gt; Il giorno 19 aprile 2012 08:29, Frank Meier &lt;<a href="mailto:frank.meier@hr-group.de">frank.meier@hr-group.de</a>&gt; ha<br>
&gt; scritto:<br>
&gt;<br>
&gt;&gt; Hi,<br>
&gt;&gt;<br>
&gt;&gt; I&#39;ve installed a 2-Node Xen-Cluster with SLES 11 SP1.<br>
&gt;&gt;<br>
&gt;&gt; After an upgrade to SLES11 SP2 the cluster won&#39;t work as the old one.<br>
&gt;&gt;<br>
&gt;&gt; After some time, all LVs reorganize and so the VM where restarted.<br>
&gt;&gt;<br>
&gt;&gt; Any clue?<br>
&gt;&gt;<br>
&gt;&gt; CIB:<br>
&gt;&gt;<br>
&gt;&gt; node xencluster1 \<br>
&gt;&gt;        attributes standby=&quot;off&quot;<br>
&gt;&gt; node xencluster2 \<br>
&gt;&gt;        attributes standby=&quot;off&quot;<br>
&gt;&gt; primitive STONITH--Node1 stonith:meatware \<br>
&gt;&gt;        meta is-managed=&quot;true&quot; target-role=&quot;Started&quot; \<br>
&gt;&gt;        operations $id=&quot;STONITH--Node1-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;15&quot; timeout=&quot;15&quot; start-delay=&quot;15&quot; \<br>
&gt;&gt;        params hostlist=&quot;xencluster1&quot;<br>
&gt;&gt; primitive STONITH-Node2 stonith:meatware \<br>
&gt;&gt;        meta target-role=&quot;started&quot; is-managed=&quot;true&quot; \<br>
&gt;&gt;        operations $id=&quot;STONITH-Node2-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;15&quot; timeout=&quot;15&quot; start-delay=&quot;15&quot; \<br>
&gt;&gt;        params hostlist=&quot;xencluster2&quot;<br>
&gt;&gt; primitive clvm ocf:lvm2:clvmd \<br>
&gt;&gt;        operations $id=&quot;clvm-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;20&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;90&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;100&quot; \<br>
&gt;&gt;        params daemon_timeout=&quot;30&quot;<br>
&gt;&gt; primitive clvm-xenvg ocf:heartbeat:LVM \<br>
&gt;&gt;        operations $id=&quot;clvm-xenvg-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;30&quot; \<br>
&gt;&gt;        params volgrpname=&quot;XenVG&quot;<br>
&gt;&gt; primitive cmirror ocf:lvm2:cmirrord \<br>
&gt;&gt;        operations $id=&quot;cmirror-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;20&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;90&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;100&quot; \<br>
&gt;&gt;        params daemon_timeout=&quot;30&quot;<br>
&gt;&gt; primitive dlm ocf:pacemaker:controld \<br>
&gt;&gt;        operations $id=&quot;dlm-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;20&quot; start-delay=&quot;0&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;90&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;100&quot;<br>
&gt;&gt; primitive fs-config-xen ocf:heartbeat:Filesystem \<br>
&gt;&gt;        meta is-managed=&quot;true&quot; target-role=&quot;Started&quot; \<br>
&gt;&gt;        operations $id=&quot;fs-config-xen-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;20&quot; timeout=&quot;40&quot; \<br>
&gt;&gt;        params device=&quot;/dev/mapper/XenVG-xenconfig&quot; directory=&quot;/etc/xen/vm&quot;<br>
&gt;&gt; fstype=&quot;ocfs2&quot;<br>
&gt;&gt; primitive o2cb ocf:ocfs2:o2cb \<br>
&gt;&gt;        operations $id=&quot;o2cb-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;20&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;90&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;100&quot;<br>
&gt;&gt; primitive vm-cim ocf:heartbeat:Xen \<br>
&gt;&gt;        meta target-role=&quot;Started&quot; is-managed=&quot;true&quot; allow-migrate=&quot;true&quot; \<br>
&gt;&gt;        operations $id=&quot;vm-cim-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;30&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;60&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;60&quot; \<br>
&gt;&gt;        op migrate_to interval=&quot;0&quot; timeout=&quot;360&quot; \<br>
&gt;&gt;        params xmfile=&quot;/etc/xen/vm/cim&quot;<br>
&gt;&gt; primitive vm-deprepo ocf:heartbeat:Xen \<br>
&gt;&gt;        meta target-role=&quot;started&quot; is-managed=&quot;true&quot; allow-migrate=&quot;true&quot; \<br>
&gt;&gt;        operations $id=&quot;vm-deprepo-operations&quot; \<br>
&gt;&gt;        op monitor interval=&quot;10&quot; timeout=&quot;30&quot; \<br>
&gt;&gt;        op start interval=&quot;0&quot; timeout=&quot;60&quot; \<br>
&gt;&gt;        op stop interval=&quot;0&quot; timeout=&quot;60&quot; \<br>
&gt;&gt;        op migrate_to interval=&quot;0&quot; timeout=&quot;360&quot; \<br>
&gt;&gt;        params xmfile=&quot;/etc/xen/vm/debrepo&quot;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; group clvm-glue dlm clvm o2cb cmirror \<br>
&gt;&gt;        meta target-role=&quot;Started&quot;<br>
&gt;&gt; group xen-vg-fs clvm-xenvg fs-config-xen<br>
&gt;&gt; clone c-clvm-glue clvm-glue \<br>
&gt;&gt;        meta interleave=&quot;true&quot; ordered=&quot;true&quot; target-role=&quot;Started&quot;<br>
&gt;&gt; clone c-xen-vg-fs xen-vg-fs \<br>
&gt;&gt;        meta interleave=&quot;true&quot; ordered=&quot;true&quot; is-managed=&quot;true&quot;<br>
&gt;&gt; target-role=&quot;Started&quot;<br>
&gt;&gt; location STONITHnode1Constraint STONITH--Node1 -inf: xencluster1<br>
&gt;&gt; colocation colo-clvmglue-xenvgsfs inf: c-xen-vg-fs c-clvm-glue<br>
&gt;&gt; order o-cim inf: c-xen-vg-fs vm-cim<br>
&gt;&gt; order o-clvmglue-xenvgfs inf: c-clvm-glue c-xen-vg-fs<br>
&gt;&gt; order o-deprepo inf: c-xen-vg-fs vm-deprepo<br>
&gt;&gt; order o-ilmt inf: c-xen-vg-fs vm-ilmt<br>
&gt;&gt; order o-intranet inf: c-xen-vg-fs vm-intranet<br>
&gt;&gt; order o-nagois inf: c-xen-vg-fs vm-nagios<br>
&gt;&gt; order o-oneiroi inf: c-xen-vg-fs vm-oneiroi<br>
&gt;&gt; order o-otbridge inf: c-xen-vg-fs vm-otbridge<br>
&gt;&gt; order o-soa inf: c-xen-vg-fs vm-soa<br>
&gt;&gt; order o-topdesk-entw inf: c-xen-vg-fs vm-topdesk-entw<br>
&gt;&gt; order o-traumschiff inf: c-xen-vg-fs vm-traumschiff<br>
&gt;&gt; order o-virenscanner inf: c-xen-vg-fs vm-virenscanner<br>
&gt;&gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt;&gt;        dc-version=&quot;1.1.6-b988976485d15cb702c9307df55512d323831a5e&quot; \<br>
&gt;&gt;        no-quorum-policy=&quot;ignore&quot; \<br>
&gt;&gt;        default-resource-stickiness=&quot;100000&quot; \<br>
&gt;&gt;        last-lrm-refresh=&quot;1334518148&quot; \<br>
&gt;&gt;        cluster-infrastructure=&quot;openais&quot; \<br>
&gt;&gt;        expected-quorum-votes=&quot;2&quot; \<br>
&gt;&gt;        default-action-timeout=&quot;120s&quot; \<br>
&gt;&gt;        maintenance-mode=&quot;true&quot;<br>
&gt;&gt; op_defaults $id=&quot;op_defaults-options&quot; \<br>
&gt;&gt;        record-pending=&quot;false&quot;<br>
&gt;&gt;<br>
&gt;&gt; Node 1Logs:<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: Sending message to all cluster<br>
&gt;&gt; nodes<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: process_work_item: local<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: process_local_command: unknown<br>
&gt;&gt; (0x2d) msg=0x7f5c40010e80, msglen =32, client=0x7f5c400578d0<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: Syncing device names<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: Reply from node 4914420a: 0 bytes<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: Got 1 replies, expecting: 2<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:10 xencluster1 clvmd[8763]: 1226064394 got message from<br>
&gt;&gt; nodeid 1226064394 for 0. len 32<br>
&gt;&gt; Apr 15 22:01:40 xencluster1 lrmd: [8093]: WARN: clvm-xenvg:0:monitor<br>
&gt;&gt; process (PID 31785) timed out (try 1).  Killing with signal SIGTERM (15).<br>
&gt;&gt; Apr 15 22:01:40 xencluster1 lrmd: [8093]: WARN: operation monitor[92] on<br>
&gt;&gt; clvm-xenvg:0 for client 8096: pid 31785 timed out<br>
&gt;&gt; Apr 15 22:01:40 xencluster1 crmd: [8096]: ERROR: process_lrm_event: LRM<br>
&gt;&gt; operation clvm-xenvg:0_monitor_10000 (92) Timed Out (timeout=30000ms)<br>
&gt;&gt; Apr 15 22:01:42 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:01:42 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; Apr 15 22:01:42 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:01:42 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; pr 15 22:01:50 xencluster1 clvmd[8763]: Send local reply<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Read on local socket 14, len = 32<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: check_all_clvmds_running<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: down_callback. node 1226064394,<br>
&gt;&gt; state = 3<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: down_callback. node 1309950474,<br>
&gt;&gt; state = 3<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Got pre command condition...<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Writing status 0 down pipe 16<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Waiting to do post command -<br>
&gt;&gt; state = 0<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: read on PIPE 15: 4 bytes: status:<br>
&gt;&gt; 0<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: background routine status was<br>
&gt;&gt; 0, sock_client=0x7f5c40057c10<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: distribute command: XID = 15473<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: num_nodes = 2<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: add_to_lvmqueue:<br>
&gt;&gt; cmd=0x7f5c4000dbd0. client=0x7f5c40057c10, msg=0x7f5c40057880, len=32,<br>
&gt;&gt; csid=(nil), xid=15473<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Sending message to all cluster<br>
&gt;&gt; nodes<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: process_work_item: local<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: process_local_command: unknown<br>
&gt;&gt; (0x2d) msg=0x7f5c40010e80, msglen =32, client=0x7f5c40057c10<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Syncing device names<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Reply from node 4914420a: 0 bytes<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: Got 1 replies, expecting: 2<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 clvmd[8763]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:01:50 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; ...<br>
&gt;&gt; Apr 15 22:02:19 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 lrmd: [8093]: WARN: clvm-xenvg:0:monitor<br>
&gt;&gt; process (PID 771) timed out (try 1).  Killing with signal SIGTERM (15).<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 lrmd: [8093]: WARN: operation monitor[92] on<br>
&gt;&gt; clvm-xenvg:0 for client 8096: pid 771 timed out<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 crmd: [8096]: ERROR: process_lrm_event: LRM<br>
&gt;&gt; operation clvm-xenvg:0_monitor_10000 (92) Timed Out (timeout=30000ms)<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:02:20 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; ...<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: Got new connection on fd 17<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: Read on local socket 17, len = 28<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: creating pipe, [18, 19]<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: Creating pre&amp;post thread<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: Created pre&amp;post thread, state = 0<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: in sub thread: client =<br>
&gt;&gt; 0x7f5c40058080<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: Sub thread ready for work.<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: doing PRE command LOCK_VG<br>
&gt;&gt; &#39;V_XenVG&#39; at 1 (client=0x7f5c40058080)<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: lock_resource &#39;V_XenVG&#39;,<br>
&gt;&gt; flags=0, mode=3<br>
&gt;&gt; Apr 15 22:02:30 xencluster1 clvmd[8763]: lock_resource returning 0,<br>
&gt;&gt; lock_id=3a0001<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:02:48 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt; Apr 15 22:02:48 xencluster1 cib: [8092]: info: cib_stats: Processed 4<br>
&gt;&gt; operations (2500.00us average, 0% utilization) in the last 10min<br>
&gt;&gt; Apr 15 22:02:48 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:03:00 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ac<br>
&gt;&gt; Apr 15 22:03:00 xencluster1 lrmd: [8093]: WARN: clvm-xenvg:0:monitor<br>
&gt;&gt; process (PID 2256) timed out (try 1).  Killing with signal SIGTERM (15).<br>
&gt;&gt; Apr 15 22:03:00 xencluster1 lrmd: [8093]: WARN: operation monitor[92] on<br>
&gt;&gt; clvm-xenvg:0 for client 8096: pid 2256 timed out<br>
&gt;&gt; Apr 15 22:03:00 xencluster1 crmd: [8096]: ERROR: process_lrm_event: LRM<br>
&gt;&gt; operation clvm-xenvg:0_monitor_10000 (92) Timed Out (timeout=30000ms)<br>
&gt;&gt; Apr 15 22:03:00 xencluster1 corosync[8071]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 21ab<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Node2 Log<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:00:51 xencluster2 clvmd[12666]: Joined child thread<br>
&gt;&gt; Apr 15 22:00:51 xencluster2 clvmd[12666]: ret == 0, errno = 0. removing<br>
&gt;&gt; client<br>
&gt;&gt; Apr 15 22:00:51 xencluster2 clvmd[12666]: add_to_lvmqueue:<br>
&gt;&gt; cmd=0x7fa3d0028710. client=0x7fa3d0028760, msg=(nil), len=0, csid=(nil),<br>
&gt;&gt; xid=14778<br>
&gt;&gt; Apr 15 22:00:51 xencluster2 clvmd[12666]: process_work_item: free fd -1<br>
&gt;&gt; Apr 15 22:00:51 xencluster2 clvmd[12666]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: crm_timer_popped:<br>
&gt;&gt; PEngine Recheck Timer (I_PE_CALC) just popped (900000ms)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; State transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC<br>
&gt;&gt; cause=C_TIMER_POPPED origin=crm_timer_popped ]<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; Progressed to state S_POLICY_ENGINE after C_TIMER_POPPED<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition: All<br>
&gt;&gt; 2 cluster nodes are eligible to run resources.<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_pe_invoke: Query 983:<br>
&gt;&gt; Requesting the current CIB: S_POLICY_ENGINE<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_pe_invoke_callback:<br>
&gt;&gt; Invoking the PE: query=983, ref=pe_calc-dc-1334520052-604, seq=2212,<br>
&gt;&gt; quorate=1<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_config: On<br>
&gt;&gt; loss of CCM Quorum: Ignore<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm:1_last_failure_0 found resource clvm:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation STONITH-Node2_last_failure_0 found resource STONITH-Node2<br>
&gt;&gt; active on xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation STONITH--Node1_last_failure_0 found resource STONITH--Node1<br>
&gt;&gt; active on xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation cmirror:1_last_failure_0 found resource cmirror:1 active on<br>
&gt;&gt; xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation dlm:1_last_failure_0 found resource dlm:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation o2cb:1_last_failure_0 found resource o2cb:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation dlm:0_last_failure_0 found resource dlm:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm:0_last_failure_0 found resource clvm:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation o2cb:0_last_failure_0 found resource o2cb:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm-xenvg:0_last_failure_0 found resource clvm-xenvg:0 active<br>
&gt;&gt; on xencluster1<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: WARN: unpack_rsc_op:<br>
&gt;&gt; Processing failed op vm-deprepo_last_failure_0 on xencluster1: unknown<br>
&gt;&gt; error (1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  STONITH-Node2  (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  STONITH--Node1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  dlm:0  (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm:0 (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  o2cb:0 (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  cmirror:0      (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  dlm:1  (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm:1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  o2cb:1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  cmirror:1      (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm-xenvg:0   (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  fs-config-xen:0        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm-xenvg:1   (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  fs-config-xen:1        (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-ilmt        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-topdesk-entw        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-otbridge    (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-virenscanner        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-deprepo     (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-traumschiff (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-cim (Started xencluster2)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-oneiroi     (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-intranet    (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-soa (Started xencluster1)<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 pengine: [7677]: notice: process_pe_message:<br>
&gt;&gt; Transition 80: PEngine Input stored in: /var/lib/pengine/pe-input-271.bz2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; State transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [<br>
&gt;&gt; input=I_PE_SUCCESS cause=C_IPC_MESSAGE origin=handle_response ]<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: unpack_graph: Unpacked<br>
&gt;&gt; transition 80: 0 actions in 0 synapses<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_te_invoke: Processing<br>
&gt;&gt; graph 80 (ref=pe_calc-dc-1334520052-604) derived from<br>
&gt;&gt; /var/lib/pengine/pe-input-271.bz2<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: run_graph:<br>
&gt;&gt; ====================================================<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: notice: run_graph: Transition<br>
&gt;&gt; 80 (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>
&gt;&gt; Source=/var/lib/pengine/pe-input-271.bz2): Complete<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: te_graph_trigger:<br>
&gt;&gt; Transition 80 is now complete<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: notify_crmd: Transition<br>
&gt;&gt; 80 status: done - &lt;null&gt;<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; State transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS<br>
&gt;&gt; cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt;&gt; Apr 15 22:00:52 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; Starting PEngine Recheck Timer<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1226064394 for 0. len 32<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: add_to_lvmqueue:<br>
&gt;&gt; cmd=0x7fa3d0028780. client=0x6934a0, msg=0x7fa3d910063c, len=32,<br>
&gt;&gt; csid=0x7fffb4e5d944, xid=0<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: process_work_item: remote<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: process_remote_command unknown<br>
&gt;&gt; (0x2d) for clientid 0x5000000 XID 15337 on node 4914420a<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: Syncing device names<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1309950474 for 1226064394. len 18<br>
&gt;&gt; Apr 15 22:01:00 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1226064394 for 0. len 32<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:01:02 xencluster2 clvmd[12666]: Joined child thread<br>
&gt;&gt; Apr 15 22:01:02 xencluster2 clvmd[12666]: ret == 0, errno = 0. removing<br>
&gt;&gt; client<br>
&gt;&gt; Apr 15 22:01:02 xencluster2 clvmd[12666]: add_to_lvmqueue:<br>
&gt;&gt; cmd=0x7fa3d004d7a0. client=0x7fa3d004d7f0, msg=(nil), len=0, csid=(nil),<br>
&gt;&gt; xid=14848<br>
&gt;&gt; Apr 15 22:01:02 xencluster2 clvmd[12666]: process_work_item: free fd -1<br>
&gt;&gt; Apr 15 22:01:02 xencluster2 clvmd[12666]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith: parse config info info=xencluster1<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: success:  0<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH--Node1<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith: parse config info info=xencluster2<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: success:  0<br>
&gt;&gt; Apr 15 22:01:06 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH-Node2<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1226064394 for 0. len 32<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: add_to_lvmqueue:<br>
&gt;&gt; cmd=0x7fa3d004d810. client=0x6934a0, msg=0x7fa3d9100cfc, len=32,<br>
&gt;&gt; csid=0x7fffb4e5d944, xid=0<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: process_work_item: remote<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: process_remote_command unknown<br>
&gt;&gt; (0x2d) for clientid 0x5000000 XID 15407 on node 4914420a<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: Syncing device names<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1309950474 for 1226064394. len 18<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; Apr 15 22:01:10 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; ....<br>
&gt;&gt; Apr 15 22:01:11 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Got new connection on fd 5<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Read on local socket 5, len = 28<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: creating pipe, [12, 13]<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Creating pre&amp;post thread<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Created pre&amp;post thread, state =<br>
&gt;&gt; 0<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: in sub thread: client =<br>
&gt;&gt; 0x7fa3d004d810<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Syncing device names<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Reply from node 4e14420a: 0 bytes<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: Got 1 replies, expecting: 2<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: LVM thread waiting for work<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 clvmd[12666]: 1309950474 got message from<br>
&gt;&gt; nodeid 1309950474 for 0. len 32<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; Apr 15 22:01:12 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196<br>
&gt;&gt; ....<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith: parse config info info=xencluster1<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: success:  0<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH--Node1<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith: parse config info info=xencluster2<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: success:  0<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH-Node2<br>
&gt;&gt; Apr 15 22:01:21 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:22 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:22 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; ....<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith: parse config info info=xencluster1<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH--Node1: success:  0<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH--Node1<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: stonith_command:<br>
&gt;&gt; Processed st_execute from lrmd: rc=-1<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith: parse config info info=xencluster2<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith: meatware device OK.<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: Performing: stonith -t meatware -S<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info: log_operation:<br>
&gt;&gt; STONITH-Node2: success:  0<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 stonith-ng: [8283]: info:<br>
&gt;&gt; stonith_device_execute: Nothing to do for STONITH-Node2<br>
&gt;&gt; Apr 15 22:01:36 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:37 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; ....<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: process_graph_event:<br>
&gt;&gt; Detected action clvm-xenvg:0_monitor_10000 from a different transition:<br>
&gt;&gt; 62 vs. 80<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: abort_transition_graph:<br>
&gt;&gt; process_graph_event:476 - Triggered transition abort (complete=1,<br>
&gt;&gt; tag=lrm_rsc_op, id=clvm-xenvg:0_monitor_10000,<br>
&gt;&gt; magic=2:-2;61:62:0:72497771-fdb2-4ca7-a723-2cc360861bb0, cib=0.5816.4) :<br>
&gt;&gt; Old event<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: WARN: update_failcount:<br>
&gt;&gt; Updating failcount for clvm-xenvg:0 on xencluster1 after failed monitor:<br>
&gt;&gt; rc=-2 (update=value++, time=1334520100)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; State transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC<br>
&gt;&gt; cause=C_FSA_INTERNAL origin=abort_transition_graph ]<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_state_transition: All<br>
&gt;&gt; 2 cluster nodes are eligible to run resources.<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_pe_invoke: Query 984:<br>
&gt;&gt; Requesting the current CIB: S_POLICY_ENGINE<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; ...<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_pe_invoke_callback:<br>
&gt;&gt; Invoking the PE: query=984, ref=pe_calc-dc-1334520100-605, seq=2212,<br>
&gt;&gt; quorate=1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; ...<br>
&gt;&gt;<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_config: On<br>
&gt;&gt; loss of CCM Quorum: Ignore<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm:1_last_failure_0 found resource clvm:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation STONITH-Node2_last_failure_0 found resource STONITH-Node2<br>
&gt;&gt; active on xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation STONITH--Node1_last_failure_0 found resource STONITH--Node1<br>
&gt;&gt; active on xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation cmirror:1_last_failure_0 found resource cmirror:1 active on<br>
&gt;&gt; xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation dlm:1_last_failure_0 found resource dlm:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation o2cb:1_last_failure_0 found resource o2cb:1 active on xencluster2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation cmirror:0_last_failure_0 found resource cmirror:0 active on<br>
&gt;&gt; xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation dlm:0_last_failure_0 found resource dlm:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm:0_last_failure_0 found resource clvm:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation o2cb:0_last_failure_0 found resource o2cb:0 active on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: unpack_rsc_op:<br>
&gt;&gt; Operation clvm-xenvg:0_last_failure_0 found resource clvm-xenvg:0 active<br>
&gt;&gt; on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: WARN: unpack_rsc_op:<br>
&gt;&gt; Processing failed op clvm-xenvg:0_monitor_10000 on xencluster1: unknown<br>
&gt;&gt; exec error (-2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: WARN: unpack_rsc_op:<br>
&gt;&gt; Processing failed op vm-deprepo_last_failure_0 on xencluster1: unknown<br>
&gt;&gt; error (1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: RecurringOp:  Start<br>
&gt;&gt; recurring monitor (10s) for clvm-xenvg:0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  STONITH-Node2  (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  STONITH--Node1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  dlm:0  (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm:0 (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  o2cb:0 (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  cmirror:0      (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  dlm:1  (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm:1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  o2cb:1 (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  cmirror:1      (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Recover<br>
&gt;&gt; clvm-xenvg:0   (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; fs-config-xen:0        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  clvm-xenvg:1   (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  fs-config-xen:1        (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-ilmt        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-topdesk-entw        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-otbridge    (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-virenscanner        (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-deprepo     (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-traumschiff (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Leave<br>
&gt;&gt;  vm-cim (Started xencluster2)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-oneiroi     (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-intranet    (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: LogActions: Restart<br>
&gt;&gt; vm-soa (Started xencluster1)<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_state_transition:<br>
&gt;&gt; State transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [<br>
&gt;&gt; input=I_PE_SUCCESS cause=C_IPC_MESSAGE origin=handle_response ]<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: unpack_graph: Unpacked<br>
&gt;&gt; transition 81: 39 actions in 39 synapses<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: do_te_invoke: Processing<br>
&gt;&gt; graph 81 (ref=pe_calc-dc-1334520100-605) derived from<br>
&gt;&gt; /var/lib/pengine/pe-input-272.bz2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 82: stop vm-ilmt_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 86: stop vm-topdesk-entw_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 90: stop vm-virenscanner_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 92: stop vm-deprepo_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 98: stop vm-oneiroi_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 100: stop vm-intranet_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 crmd: [7678]: info: te_rsc_command:<br>
&gt;&gt; Initiating action 102: stop vm-soa_stop_0 on xencluster1<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 pengine: [7677]: notice: process_pe_message:<br>
&gt;&gt; Transition 81: PEngine Input stored in: /var/lib/pengine/pe-input-272.bz2<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d 219e 219f 21a0 21a1 21a2 21a3 21a4 21a5<br>
&gt;&gt; Apr 15 22:01:40 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d 219e 219f 21a0 21a1 21a2 21a3 21a4 21a5<br>
&gt;&gt; ...<br>
&gt;&gt; Apr 15 22:01:41 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d 219e 219f 21a0 21a1 21a2 21a3 21a4 21a5<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 lrmd: [7675]: WARN: clvm-xenvg:1:monitor<br>
&gt;&gt; process (PID 29785) timed out (try 1).  Killing with signal SIGTERM (15).<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 lrmd: [7675]: WARN: operation monitor[125]<br>
&gt;&gt; on clvm-xenvg:1 for client 7678: pid 29785 timed out<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: ERROR: process_lrm_event: LRM<br>
&gt;&gt; operation clvm-xenvg:1_monitor_10000 (125) Timed Out (timeout=30000ms)<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: process_graph_event:<br>
&gt;&gt; Detected action clvm-xenvg:1_monitor_10000 from a different transition:<br>
&gt;&gt; 68 vs. 81<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: abort_transition_graph:<br>
&gt;&gt; process_graph_event:476 - Triggered transition abort (complete=0,<br>
&gt;&gt; tag=lrm_rsc_op, id=clvm-xenvg:1_monitor_10000,<br>
&gt;&gt; magic=2:-2;61:68:0:72497771-fdb2-4ca7-a723-2cc360861bb0, cib=0.5816.5) :<br>
&gt;&gt; Old event<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: update_abort_priority:<br>
&gt;&gt; Abort priority upgraded from 0 to 1000000<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: update_abort_priority:<br>
&gt;&gt; Abort action done superceeded by restart<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: WARN: update_failcount:<br>
&gt;&gt; Updating failcount for clvm-xenvg:1 on xencluster2 after failed monitor:<br>
&gt;&gt; rc=-2 (update=value++, time=1334520102)<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 attrd: [7676]: notice: attrd_trigger_update:<br>
&gt;&gt; Sending flush op to all hosts for: fail-count-clvm-xenvg:1 (1)<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 attrd: [7676]: notice: attrd_perform_update:<br>
&gt;&gt; Sent update 448: fail-count-clvm-xenvg:1=1<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 attrd: [7676]: notice: attrd_trigger_update:<br>
&gt;&gt; Sending flush op to all hosts for: last-failure-clvm-xenvg:1 (1334520102)<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: abort_transition_graph:<br>
&gt;&gt; te_update_diff:176 - Triggered transition abort (complete=0, tag=nvpair,<br>
&gt;&gt; id=status-xencluster2-fail-count-clvm-xenvg.1,<br>
&gt;&gt; name=fail-count-clvm-xenvg:1, value=1, magic=NA, cib=0.5816.6) :<br>
&gt;&gt; Transient attribute: update<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 attrd: [7676]: notice: attrd_perform_update:<br>
&gt;&gt; Sent update 451: last-failure-clvm-xenvg:1=1334520102<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 crmd: [7678]: info: abort_transition_graph:<br>
&gt;&gt; te_update_diff:176 - Triggered transition abort (complete=0, tag=nvpair,<br>
&gt;&gt; id=status-xencluster2-last-failure-clvm-xenvg.1,<br>
&gt;&gt; name=last-failure-clvm-xenvg:1, value=1334520102, magic=NA,<br>
&gt;&gt; cib=0.5816.7) : Transient attribute: update<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d 219e 219f 21a0 21a1 21a2 21a3 21a4 21a5<br>
&gt;&gt; Apr 15 22:01:42 xencluster2 corosync[7666]:   [TOTEM ] Retransmit List:<br>
&gt;&gt; 2196 2197 219a 219b 219c 219d 219e 219f 21a0 21a1 21a2 21a3 21a4 21a5<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Mit freundlichen Gr??en<br>
&gt;&gt;<br>
&gt;&gt; Frank Meier<br>
&gt;&gt; UNIX-Basis<br>
&gt;&gt;<br>
&gt;&gt; Hamm Reno Group GmbH<br>
&gt;&gt; Industriegebiet West | D-66987 Thaleischweiler-Fr?schen<br>
&gt;&gt; T.+49(0)6334 444-8322 | F.+49(0)6334 444-8190<br>
&gt;&gt; <a href="mailto:frank.meier@hr-group.de">frank.meier@hr-group.de</a> | <a href="http://www.reno.de" target="_blank">www.reno.de</a><br>
&gt;&gt; ___________________________________________________________________<br>
&gt;&gt;<br>
&gt;&gt; Sitz: Am Tie 7 | D-49086 Osnabr?ck<br>
&gt;&gt; Handelsregister Osnabr?ck HRB 19587<br>
&gt;&gt; Gesch?ftsf?hrer: Hans-J?rgen de Fries,<br>
&gt;&gt; Jens Gransee, Manfred Klumpp,<br>
&gt;&gt; Robert Reisch<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt;&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;&gt;<br>
&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; esta es mi vida e me la vivo hasta que dios quiera<br>
&gt; -------------- next part --------------<br>
&gt; An HTML attachment was scrubbed...<br>
&gt; URL: &lt;<a href="http://oss.clusterlabs.org/pipermail/pacemaker/attachments/20120419/00a36dbe/attachment.html" target="_blank">http://oss.clusterlabs.org/pipermail/pacemaker/attachments/20120419/00a36dbe/attachment.html</a>&gt;<br>

&gt;<br>
&gt; ------------------------------<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list<br>
&gt; <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt;<br>
&gt; End of Pacemaker Digest, Vol 53, Issue 38<br>
&gt; *****************************************<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>