Hii,<br><br>          Is pacmaker also work on WAN, if yes then how????<br><br><br>Thank you<br><div class="gmail_quote">On Mon, Sep 3, 2012 at 3:30 PM,  <span dir="ltr">&lt;<a href="mailto:pacemaker-request@oss.clusterlabs.org" target="_blank">pacemaker-request@oss.clusterlabs.org</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Pacemaker mailing list submissions to<br>
        <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
or, via email, send a message with subject or body &#39;help&#39; to<br>
        <a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:pacemaker-owner@oss.clusterlabs.org">pacemaker-owner@oss.clusterlabs.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Pacemaker digest...&quot;<br>
<br>
<br>
Today&#39;s Topics:<br>
<br>
   1.  Pacemaker 1.1.6 order possible bug ? (Tom?? Vav?i?ka)<br>
   2. Two c72f5ca stonithd coredumps (Vladislav Bogdanov)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Mon, 03 Sep 2012 07:41:25 +0200<br>
From: Tom?? Vav?i?ka &lt;<a href="mailto:vavricka@ttc.cz">vavricka@ttc.cz</a>&gt;<br>
To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
Subject: [Pacemaker]  Pacemaker 1.1.6 order possible bug ?<br>
Message-ID: &lt;<a href="mailto:50444305.4090501@ttc.cz">50444305.4090501@ttc.cz</a>&gt;<br>
Content-Type: text/plain; charset=UTF-8; format=flowed<br>
<br>
Hello,<br>
<br>
Sorry If I send same question twice, but message did not appeared on<br>
mailing list.<br>
<br>
I have a problem with orders in pacemaker 1.1.6 and corosync 1.4.1.<br>
<br>
Order below is working for failover, but it is not working when one<br>
cluster node starts up (drbd stays in Slave state and ms_toponet is<br>
started before DRBD gets promoted).<br>
<br>
order o_start inf: ms_drbd_postgres:promote postgres:start<br>
ms_toponet:promote monitor_cluster:start<br>
<br>
Order below is not working for failover (it kills slave toponet app and<br>
start it again) but it is working correctly when cluster starts up.<br>
<br>
order o_start inf: ms_drbd_postgres:promote postgres:start<br>
ms_toponet:start ms_toponet:promote monitor_cluster:start<br>
<br>
I want to the pacemaker to act as in 1.0.12 version.<br>
* when toponet master app is killed, move postgres resource to other<br>
node and promote ms_toponet and ms_drbd_postgres to Master<br>
* when one node is starting promote DRBD to master is is UpToDate<br>
<br>
Am I doing something wrong?<br>
<br>
It looks to me pacemaker ignores some orders (pacemaker should wait for<br>
DRBD promotion when starting toponet app, but toponet app is started<br>
right after DRBD start (slave)). I tried to solve this by different<br>
orders with combination symmetrical=false, split orders, different<br>
orders for start and stop, but no success at all (seems to me like<br>
completely ignoring symmetrical=false directive).<br>
<br>
Pacemaker 1.1.7 is not working for me, because it has broken on-fail<br>
directive.<br>
<br>
crm_mon output:<br>
<br>
============<br>
Last updated: Fri Aug 31 14:51:11 2012<br>
Last change: Fri Aug 31 14:50:27 2012 by hacluster via crmd on toponet30<br>
Stack: openais<br>
Current DC: toponet30 - partition WITHOUT quorum<br>
Version: 1.1.6-b988976485d15cb702c9307df55512d323831a5e<br>
2 Nodes configured, 2 expected votes<br>
10 Resources configured.<br>
============<br>
<br>
Online: [ toponet30 toponet31 ]<br>
<br>
st_primary      (stonith:external/xen0):        Started toponet30<br>
st_secondary    (stonith:external/xen0):        Started toponet31<br>
  Master/Slave Set: ms_drbd_postgres<br>
      Masters: [ toponet30 ]<br>
      Slaves: [ toponet31 ]<br>
  Resource Group: postgres<br>
      pg_fs      (ocf::heartbeat:Filesystem):    Started toponet30<br>
      PGIP       (ocf::heartbeat:IPaddr2):       Started toponet30<br>
      postgresql (ocf::heartbeat:pgsql): Started toponet30<br>
monitor_cluster (ocf::heartbeat:monitor_cluster):       Started toponet30<br>
  Master/Slave Set: ms_toponet<br>
      Masters: [ toponet30 ]<br>
      Slaves: [ toponet31 ]<br>
<br>
configuration:<br>
<br>
node toponet30<br>
node toponet31<br>
primitive PGIP ocf:heartbeat:IPaddr2 \<br>
         params ip=&quot;192.168.100.3&quot; cidr_netmask=&quot;29&quot; \<br>
         op monitor interval=&quot;5s&quot;<br>
primitive drbd_postgres ocf:linbit:drbd \<br>
         params drbd_resource=&quot;postgres&quot; \<br>
         op start interval=&quot;0&quot; timeout=&quot;240s&quot; \<br>
         op stop interval=&quot;0&quot; timeout=&quot;120s&quot; \<br>
         op monitor interval=&quot;5s&quot; role=&quot;Master&quot; timeout=&quot;10s&quot; \<br>
         op monitor interval=&quot;10s&quot; role=&quot;Slave&quot; timeout=&quot;20s&quot;<br>
primitive monitor_cluster ocf:heartbeat:monitor_cluster \<br>
         op monitor interval=&quot;30s&quot; \<br>
         op start interval=&quot;0&quot; timeout=&quot;30s&quot; \<br>
         meta target-role=&quot;Started&quot;<br>
primitive pg_fs ocf:heartbeat:Filesystem \<br>
         params device=&quot;/dev/drbd0&quot; directory=&quot;/var/lib/pgsql&quot; fstype=&quot;ext3&quot;<br>
primitive postgresql ocf:heartbeat:pgsql \<br>
         op start interval=&quot;0&quot; timeout=&quot;80s&quot; \<br>
         op stop interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
         op monitor interval=&quot;10s&quot; timeout=&quot;10s&quot; depth=&quot;0&quot;<br>
primitive st_primary stonith:external/xen0 \<br>
         op start interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
         params hostlist=&quot;toponet31:/etc/xen/vm/toponet31&quot;<br>
dom0=&quot;172.16.103.54&quot;<br>
primitive st_secondary stonith:external/xen0 \<br>
         op start interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
         params hostlist=&quot;toponet30:/etc/xen/vm/toponet30&quot;<br>
dom0=&quot;172.16.103.54&quot;<br>
primitive toponet ocf:heartbeat:toponet \<br>
         op start interval=&quot;0&quot; timeout=&quot;180s&quot; \<br>
         op stop interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
         op monitor interval=&quot;10s&quot; role=&quot;Master&quot; timeout=&quot;20s&quot;<br>
on-fail=&quot;standby&quot; \<br>
         op monitor interval=&quot;20s&quot; role=&quot;Slave&quot; timeout=&quot;40s&quot; \<br>
         op promote interval=&quot;0&quot; timeout=&quot;120s&quot; \<br>
         op demote interval=&quot;0&quot; timeout=&quot;120s&quot;<br>
group postgres pg_fs PGIP postgresql<br>
ms ms_drbd_postgres drbd_postgres \<br>
         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>
clone-node-max=&quot;1&quot; notify=&quot;true&quot; target-role=&quot;Master&quot;<br>
ms ms_toponet toponet \<br>
         meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>
clone-node-max=&quot;1&quot; target-role=&quot;Master&quot;<br>
location loc_st_pri st_primary -inf: toponet31<br>
location loc_st_sec st_secondary -inf: toponet30<br>
location master-prefer-node1 postgres 100: toponet30<br>
colocation pg_on_drbd inf: monitor_cluster ms_toponet:Master postgres<br>
ms_drbd_postgres:Master<br>
order o_start inf: ms_drbd_postgres:start ms_drbd_postgres:promote<br>
postgres:start ms_toponet:start ms_toponet:promote monitor_cluster:start<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
         dc-version=&quot;1.1.6-b988976485d15cb702c9307df55512d323831a5e&quot; \<br>
         cluster-infrastructure=&quot;openais&quot; \<br>
         expected-quorum-votes=&quot;2&quot; \<br>
         no-quorum-policy=&quot;ignore&quot; \<br>
         stonith-enabled=&quot;true&quot;<br>
rsc_defaults $id=&quot;rsc-options&quot; \<br>
         resource-stickiness=&quot;5000&quot;<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 03 Sep 2012 10:03:28 +0300<br>
From: Vladislav Bogdanov &lt;<a href="mailto:bubble@hoster-ok.com">bubble@hoster-ok.com</a>&gt;<br>
To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
Subject: [Pacemaker] Two c72f5ca stonithd coredumps<br>
Message-ID: &lt;<a href="mailto:50445640.1060505@hoster-ok.com">50445640.1060505@hoster-ok.com</a>&gt;<br>
Content-Type: text/plain; charset=UTF-8<br>
<br>
Hi Andrew, all,<br>
<br>
as I wrote before, I caught two paths where stonithd (c72f5ca) dumps core.<br>
Here are gdb backtraces for them (sorry for posting them inline, I was<br>
requested to do that ASAP and I hope it is not yet too late for 1.1.8 ;)<br>
). Some vars are optimized out, but I hope that doesn&#39;t matter. If some<br>
more information is needed please just request it.<br>
<br>
First one is:<br>
...<br>
Core was generated by `/usr/libexec/pacemaker/stonithd&#39;.<br>
Program terminated with signal 11, Segmentation fault.<br>
...<br>
(gdb) bt<br>
#0  0x00007f4aec6cdb51 in __strlen_sse2 () from /lib64/libc.so.6<br>
#1  0x00007f4aec6cd866 in strdup () from /lib64/libc.so.6<br>
#2  0x000000000040c6f6 in create_remote_stonith_op (client=0x1871120<br>
&quot;2194f1b8-5722-49c3-bed1-c8fecc78ca02&quot;, request=0x1884840, peer=&lt;value<br>
optimized out&gt;)<br>
    at remote.c:313<br>
#3  0x000000000040cf40 in initiate_remote_stonith_op (client=&lt;value<br>
optimized out&gt;, request=0x1884840, manual_ack=0) at remote.c:336<br>
#4  0x000000000040a2be in stonith_command (client=0x1870a80, id=&lt;value<br>
optimized out&gt;, flags=&lt;value optimized out&gt;, request=0x1884840, remote=0x0)<br>
    at commands.c:1380<br>
#5  0x0000000000403252 in st_ipc_dispatch (c=0x18838d0, data=&lt;value<br>
optimized out&gt;, size=329) at main.c:142<br>
#6  0x00007f4aebaf8d64 in ?? () from /usr/lib64/libqb.so.0<br>
#7  0x00007f4aebaf908e in qb_ipcs_dispatch_connection_request () from<br>
/usr/lib64/libqb.so.0<br>
#8  0x00007f4aee26fda5 in gio_read_socket (gio=&lt;value optimized out&gt;,<br>
condition=G_IO_IN, data=0x18732f0) at mainloop.c:353<br>
#9  0x00007f4aebf8ef0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
#10 0x00007f4aebf92938 in ?? () from /lib64/libglib-2.0.so.0<br>
#11 0x00007f4aebf92d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
#12 0x0000000000403a98 in main (argc=&lt;value optimized out&gt;,<br>
argv=0x7fffa3443148) at main.c:890<br>
(gdb) bt full<br>
#0  0x00007f4aec6cdb51 in __strlen_sse2 () from /lib64/libc.so.6<br>
No symbol table info available.<br>
#1  0x00007f4aec6cd866 in strdup () from /lib64/libc.so.6<br>
No symbol table info available.<br>
#2  0x000000000040c6f6 in create_remote_stonith_op (client=0x1871120<br>
&quot;2194f1b8-5722-49c3-bed1-c8fecc78ca02&quot;, request=0x1884840, peer=&lt;value<br>
optimized out&gt;)<br>
    at remote.c:313<br>
        nodeid = &lt;value optimized out&gt;<br>
        node = 0x1871790<br>
        op = 0x187e2e0<br>
        dev = &lt;value optimized out&gt;<br>
        __func__ = &quot;create_remote_stonith_op&quot;<br>
        __PRETTY_FUNCTION__ = &quot;create_remote_stonith_op&quot;<br>
#3  0x000000000040cf40 in initiate_remote_stonith_op (client=&lt;value<br>
optimized out&gt;, request=0x1884840, manual_ack=0) at remote.c:336<br>
        query = 0x0<br>
        client_id = 0x1871120 &quot;2194f1b8-5722-49c3-bed1-c8fecc78ca02&quot;<br>
        op = 0x0<br>
        __func__ = &quot;initiate_remote_stonith_op&quot;<br>
        __PRETTY_FUNCTION__ = &quot;initiate_remote_stonith_op&quot;<br>
#4  0x000000000040a2be in stonith_command (client=0x1870a80, id=&lt;value<br>
optimized out&gt;, flags=&lt;value optimized out&gt;, request=0x1884840, remote=0x0)<br>
    at commands.c:1380<br>
        alternate_host = &lt;value optimized out&gt;<br>
        dev = &lt;value optimized out&gt;<br>
        target = 0x1883f40 &quot;1074005258&quot;<br>
        call_options = 4610<br>
        rc = -95<br>
        is_reply = 0<br>
        always_reply = 0<br>
        reply = 0x0<br>
        data = 0x0<br>
        op = 0x187e550 &quot;st_fence&quot;<br>
        client_id = 0x1874cb0 &quot;2194f1b8-5722-49c3-bed1-c8fecc78ca02&quot;<br>
        __func__ = &quot;stonith_command&quot;<br>
        __PRETTY_FUNCTION__ = &quot;stonith_command&quot;<br>
        __FUNCTION__ = &quot;stonith_command&quot;<br>
#5  0x0000000000403252 in st_ipc_dispatch (c=0x18838d0, data=&lt;value<br>
optimized out&gt;, size=329) at main.c:142<br>
        id = 4<br>
        flags = 1<br>
        request = 0x1884840<br>
        client = 0x1870a80<br>
        __FUNCTION__ = &quot;st_ipc_dispatch&quot;<br>
        __func__ = &quot;st_ipc_dispatch&quot;<br>
        __PRETTY_FUNCTION__ = &quot;st_ipc_dispatch&quot;<br>
#6  0x00007f4aebaf8d64 in ?? () from /usr/lib64/libqb.so.0<br>
No symbol table info available.<br>
#7  0x00007f4aebaf908e in qb_ipcs_dispatch_connection_request () from<br>
/usr/lib64/libqb.so.0<br>
No symbol table info available.<br>
#8  0x00007f4aee26fda5 in gio_read_socket (gio=&lt;value optimized out&gt;,<br>
condition=G_IO_IN, data=0x18732f0) at mainloop.c:353<br>
        adaptor = 0x18732f0<br>
        fd = 15<br>
        __func__ = &quot;gio_read_socket&quot;<br>
#9  0x00007f4aebf8ef0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#10 0x00007f4aebf92938 in ?? () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#11 0x00007f4aebf92d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#12 0x0000000000403a98 in main (argc=&lt;value optimized out&gt;,<br>
argv=0x7fffa3443148) at main.c:890<br>
        flag = &lt;value optimized out&gt;<br>
        lpc = 0<br>
---Type &lt;return&gt; to continue, or q &lt;return&gt; to quit---<br>
        argerr = 0<br>
        option_index = 0<br>
        cluster = {uuid = 0x176da90 &quot;1090782474&quot;, uname = 0x176dac0<br>
&quot;vd01-b&quot;, nodeid = 1090782474, cs_dispatch = 0x404050<br>
&lt;stonith_peer_ais_callback&gt;,<br>
          destroy = 0x404230 &lt;stonith_peer_ais_destroy&gt;}<br>
        actions = {0x40e3fb &quot;reboot&quot;, 0x40e402 &quot;off&quot;, 0x40ea75 &quot;list&quot;,<br>
0x40e406 &quot;monitor&quot;, 0x40e40e &quot;status&quot;}<br>
        __func__ = &quot;main&quot;<br>
<br>
<br>
<br>
Second is (segfault in CRM_ASSERT()):<br>
...<br>
Core was generated by `/usr/libexec/pacemaker/stonithd&#39;.<br>
Program terminated with signal 11, Segmentation fault.<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 &quot;vd01-d&quot;) at commands.c:1258<br>
1258    commands.c: No such file or directory.<br>
        in commands.c<br>
...<br>
(gdb) bt<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 &quot;vd01-d&quot;) at commands.c:1258<br>
#1  0x00000000004040e4 in stonith_peer_callback (kind=&lt;value optimized<br>
out&gt;, from=&lt;value optimized out&gt;,<br>
    data=0x7fffa5327cc8 &quot;&lt;st-reply<br>
st_origin=\&quot;stonith_construct_async_reply\&quot; t=\&quot;stonith-ng\&quot;<br>
st_op=\&quot;st_notify\&quot; st_device_id=\&quot;manual_ack\&quot;<br>
st_remote_op=\&quot;25917710-8972-4c40-b783-9648749396a4\&quot;<br>
st_clientid=\&quot;936ea671-61ba-4258-8e12-&quot;...) at main.c:218<br>
#2  stonith_peer_ais_callback (kind=&lt;value optimized out&gt;, from=&lt;value<br>
optimized out&gt;,<br>
    data=0x7fffa5327cc8 &quot;&lt;st-reply<br>
st_origin=\&quot;stonith_construct_async_reply\&quot; t=\&quot;stonith-ng\&quot;<br>
st_op=\&quot;st_notify\&quot; st_device_id=\&quot;manual_ack\&quot;<br>
st_remote_op=\&quot;25917710-8972-4c40-b783-9648749396a4\&quot;<br>
st_clientid=\&quot;936ea671-61ba-4258-8e12-&quot;...) at main.c:254<br>
#3  0x00007f92ded376ca in ais_dispatch_message (handle=&lt;value optimized<br>
out&gt;, groupName=&lt;value optimized out&gt;, nodeid=&lt;value optimized out&gt;,<br>
    pid=&lt;value optimized out&gt;, msg=0x7fffa5327a78, msg_len=&lt;value<br>
optimized out&gt;) at corosync.c:551<br>
#4  pcmk_cpg_deliver (handle=&lt;value optimized out&gt;, groupName=&lt;value<br>
optimized out&gt;, nodeid=&lt;value optimized out&gt;, pid=&lt;value optimized out&gt;,<br>
    msg=0x7fffa5327a78, msg_len=&lt;value optimized out&gt;) at corosync.c:619<br>
#5  0x00007f92de91ceaf in cpg_dispatch (handle=7749363892505018368,<br>
dispatch_types=&lt;value optimized out&gt;) at cpg.c:412<br>
#6  0x00007f92ded34a42 in pcmk_cpg_dispatch (user_data=&lt;value optimized<br>
out&gt;) at corosync.c:577<br>
#7  0x00007f92def61d27 in mainloop_gio_callback (gio=&lt;value optimized<br>
out&gt;, condition=G_IO_IN, data=0xb2d400) at mainloop.c:535<br>
#8  0x00007f92dcc7ff0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
#9  0x00007f92dcc83938 in ?? () from /lib64/libglib-2.0.so.0<br>
#10 0x00007f92dcc83d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
#11 0x0000000000403a98 in main (argc=&lt;value optimized out&gt;,<br>
argv=0x7fffa5427de8) at main.c:890<br>
(gdb) bt full<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 &quot;vd01-d&quot;) at commands.c:1258<br>
        call_options = 4104<br>
        rc = -95<br>
        is_reply = 1<br>
        always_reply = 0<br>
        reply = 0x0<br>
        data = 0x0<br>
        op = 0xb34370 &quot;st_notify&quot;<br>
        client_id = 0xb3ddc0 &quot;936ea671-61ba-4258-8e12-98542a541b23&quot;<br>
        __func__ = &quot;stonith_command&quot;<br>
        __PRETTY_FUNCTION__ = &quot;stonith_command&quot;<br>
        __FUNCTION__ = &quot;stonith_command&quot;<br>
#1  0x00000000004040e4 in stonith_peer_callback (kind=&lt;value optimized<br>
out&gt;, from=&lt;value optimized out&gt;,<br>
    data=0x7fffa5327cc8 &quot;&lt;st-reply<br>
st_origin=\&quot;stonith_construct_async_reply\&quot; t=\&quot;stonith-ng\&quot;<br>
st_op=\&quot;st_notify\&quot; st_device_id=\&quot;manual_ack\&quot;<br>
st_remote_op=\&quot;25917710-8972-4c40-b783-9648749396a4\&quot;<br>
st_clientid=\&quot;936ea671-61ba-4258-8e12-&quot;...) at main.c:218<br>
        remote = 0xb39cf0 &quot;vd01-d&quot;<br>
#2  stonith_peer_ais_callback (kind=&lt;value optimized out&gt;, from=&lt;value<br>
optimized out&gt;,<br>
    data=0x7fffa5327cc8 &quot;&lt;st-reply<br>
st_origin=\&quot;stonith_construct_async_reply\&quot; t=\&quot;stonith-ng\&quot;<br>
st_op=\&quot;st_notify\&quot; st_device_id=\&quot;manual_ack\&quot;<br>
st_remote_op=\&quot;25917710-8972-4c40-b783-9648749396a4\&quot;<br>
st_clientid=\&quot;936ea671-61ba-4258-8e12-&quot;...) at main.c:254<br>
        xml = 0xb342f0<br>
        __func__ = &quot;stonith_peer_ais_callback&quot;<br>
#3  0x00007f92ded376ca in ais_dispatch_message (handle=&lt;value optimized<br>
out&gt;, groupName=&lt;value optimized out&gt;, nodeid=&lt;value optimized out&gt;,<br>
    pid=&lt;value optimized out&gt;, msg=0x7fffa5327a78, msg_len=&lt;value<br>
optimized out&gt;) at corosync.c:551<br>
        data = 0x7fffa5327cc8 &quot;&lt;st-reply<br>
st_origin=\&quot;stonith_construct_async_reply\&quot; t=\&quot;stonith-ng\&quot;<br>
st_op=\&quot;st_notify\&quot; st_device_id=\&quot;manual_ack\&quot;<br>
st_remote_op=\&quot;25917710-8972-4c40-b783-9648749396a4\&quot;<br>
st_clientid=\&quot;936ea671-61ba-4258-8e12-&quot;...<br>
        uncompressed = 0x0<br>
        xml = 0x0<br>
#4  pcmk_cpg_deliver (handle=&lt;value optimized out&gt;, groupName=&lt;value<br>
optimized out&gt;, nodeid=&lt;value optimized out&gt;, pid=&lt;value optimized out&gt;,<br>
    msg=0x7fffa5327a78, msg_len=&lt;value optimized out&gt;) at corosync.c:619<br>
        ais_msg = 0x7fffa5327a78<br>
        __func__ = &quot;pcmk_cpg_deliver&quot;<br>
#5  0x00007f92de91ceaf in cpg_dispatch (handle=7749363892505018368,<br>
dispatch_types=&lt;value optimized out&gt;) at cpg.c:412<br>
        timeout = 0<br>
        error = &lt;value optimized out&gt;<br>
        cpg_inst = 0xb2cd90<br>
        res_cpg_confchg_callback = &lt;value optimized out&gt;<br>
        res_cpg_deliver_callback = 0x7fffa53279c0<br>
        res_cpg_totem_confchg_callback = &lt;value optimized out&gt;<br>
        cpg_inst_copy = {c = 0xb2cdf0, finalize = 0, context = 0x0,<br>
{model_data = {model = CPG_MODEL_V1}, model_v1_data = {model =<br>
CPG_MODEL_V1,<br>
              cpg_deliver_fn = 0x7f92ded37300 &lt;pcmk_cpg_deliver&gt;,<br>
cpg_confchg_fn = 0x7f92ded33fb0 &lt;pcmk_cpg_membership&gt;,<br>
cpg_totem_confchg_fn = 0,<br>
              flags = 0}}, iteration_list_head = {next = 0xb2cdd0, prev<br>
= 0xb2cdd0}}<br>
        dispatch_data = 0x7fffa53279c0<br>
        member_list = {{nodeid = 1090782474, pid = 4965, reason = 0},<br>
{nodeid = 1107559690, pid = 3544, reason = 0}, {nodeid = 1124336906, pid<br>
= 4487,<br>
            reason = 3544}, {nodeid = 0, pid = 0, reason = 0} &lt;repeats<br>
125 times&gt;}<br>
        left_list = {{nodeid = 0, pid = 0, reason = 0} &lt;repeats 128 times&gt;}<br>
        joined_list = {{nodeid = 1107559690, pid = 3544, reason = 1},<br>
{nodeid = 0, pid = 0, reason = 0} &lt;repeats 127 times&gt;}<br>
        group_name = {length = 11, value = &quot;stonith-ng&quot;, &#39;\000&#39; &lt;repeats<br>
117 times&gt;}<br>
        left_list_start = &lt;value optimized out&gt;<br>
        joined_list_start = &lt;value optimized out&gt;<br>
        i = &lt;value optimized out&gt;<br>
        ring_id = {nodeid = 0, seq = 0}<br>
        totem_member_list = {0 &lt;repeats 128 times&gt;}<br>
        errno_res = &lt;value optimized out&gt;<br>
        dispatch_buf =<br>
&quot;\005\000\000\000\000\000\000\000W\004\000\000\000\000\000\000\240\224\327)\204\177\000\000\v\000\000\000\000\000\000\000stonith-ng&quot;,<br>
&#39;\000&#39; &lt;repeats 118 times&gt;&quot;\237,<br>
\003\000\000\000\000\000\000\n\005\004C\000\000\000\000\207\021\000\000\204\177\000\000\000\000\000\000\000\000\000\000\237\003\000\000\000\000\000\000\001\000\000\000\000\000\000\000\001&quot;,<br>
&#39;\000&#39; &lt;repeats 19 times&gt;, &quot;\t&quot;, &#39;\000&#39; &lt;repeats 263 times&gt;,<br>
&quot;\n\005\004C\207\021\000\000\000\000\000\000\t\000\000\000\006\000\000\000vd01-d&quot;,<br>
&#39;\000&#39; &lt;repeats 250 times&gt;, &quot;O\001\000\000\000\000\000\000&lt;st-reply<br>
st_origin=\&quot;stonith_construct_asyn&quot;...<br>
#6  0x00007f92ded34a42 in pcmk_cpg_dispatch (user_data=&lt;value optimized<br>
out&gt;) at corosync.c:577<br>
        rc = 0<br>
---Type &lt;return&gt; to continue, or q &lt;return&gt; to quit---<br>
        __func__ = &quot;pcmk_cpg_dispatch&quot;<br>
#7  0x00007f92def61d27 in mainloop_gio_callback (gio=&lt;value optimized<br>
out&gt;, condition=G_IO_IN, data=0xb2d400) at mainloop.c:535<br>
        keep = 1<br>
        client = 0xb2d400<br>
        __func__ = &quot;mainloop_gio_callback&quot;<br>
#8  0x00007f92dcc7ff0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#9  0x00007f92dcc83938 in ?? () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#10 0x00007f92dcc83d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#11 0x0000000000403a98 in main (argc=&lt;value optimized out&gt;,<br>
argv=0x7fffa5427de8) at main.c:890<br>
        flag = &lt;value optimized out&gt;<br>
        lpc = 0<br>
        argerr = 0<br>
        option_index = 0<br>
        cluster = {uuid = 0xb2da90 &quot;1090782474&quot;, uname = 0xb2dac0<br>
&quot;vd01-b&quot;, nodeid = 1090782474, cs_dispatch = 0x404050<br>
&lt;stonith_peer_ais_callback&gt;,<br>
          destroy = 0x404230 &lt;stonith_peer_ais_destroy&gt;}<br>
        actions = {0x40e3fb &quot;reboot&quot;, 0x40e402 &quot;off&quot;, 0x40ea75 &quot;list&quot;,<br>
0x40e406 &quot;monitor&quot;, 0x40e40e &quot;status&quot;}<br>
        __func__ = &quot;main&quot;<br>
<br>
Best,<br>
Vladislav<br>
<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Pacemaker mailing list<br>
<a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
<br>
End of Pacemaker Digest, Vol 58, Issue 3<br>
****************************************<br>
</blockquote></div><br>