<div dir="ltr"><div>thanks jan. but i am using the newest rhel release and i have still the issue. i could optimize it with <br>#!/bin/bash<br>echo 1 &gt; /sys/class/net/virbr0/bridge/multicast_querier<br>echo 0 &gt; /sys/class/net/virbr0/bridge/multicast_snooping<br>
<br>echo &quot;cat /sys/class/net/virbr0/bridge/multicast_snooping&quot;<br>cat /sys/class/net/virbr0/bridge/multicast_snooping<br><br>echo &quot;cat /sys/class/net/virbr0/bridge/multicast_querier&quot;<br>cat /sys/class/net/virbr0/bridge/multicast_querier<br>
<br>echo 1 &gt; /sys/class/net/br0/bridge/multicast_querier<br>echo 0 &gt; /sys/class/net/br0/bridge/multicast_snooping<br><br>echo &quot;cat /sys/class/net/br0/bridge/multicast_snooping&quot;<br>cat /sys/class/net/br0/bridge/multicast_snooping<br>
<br>echo &quot;cat /sys/class/net/br0/bridge/multicast_querier&quot;<br>cat /sys/class/net/br0/bridge/multicast_querier<br><br>echo 1 &gt; /sys/class/net/br1/bridge/multicast_querier<br>echo 0 &gt; /sys/class/net/br1/bridge/multicast_snooping<br>
<br>echo &quot;cat /sys/class/net/br1/bridge/multicast_snooping&quot;<br>cat /sys/class/net/br1/bridge/multicast_snooping<br><br>echo &quot;cat /sys/class/net/br1/bridge/multicast_querier&quot;<br>cat /sys/class/net/br1/bridge/multicast_querier<br>
<br></div>but after a few days the cluster fence the other node -&gt; network failure....<br><br><br>info: ais_mark_unseen_peer_dead: Node .com was not seen in the previous transition<br>Mar 04 19:23:33 corosync [pcmk  ] info: update_member: Node 352321546/<a href="http://u.com">u.com</a> is now: lost<br>
Mar 04 19:23:33 corosync [pcmk  ] info: send_member_notification: Sending membership update 780 to 2 children<br><br><br><br><br><br><br><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-02-17 10:17 GMT+01:00 Jan Friesse <span dir="ltr">&lt;<a href="mailto:jfriesse@redhat.com" target="_blank">jfriesse@redhat.com</a>&gt;</span>:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Beo,<br>
this looks like known (and already fixed) problem in kernel. Take a look to <a href="https://bugzilla.redhat.com/show_bug.cgi?id=880035" target="_blank">https://bugzilla.redhat.com/<u></u>show_bug.cgi?id=880035</a> and specially comment 21. Kernel update helped that time.<br>

<br>
Honza<br>
<br>
Beo Banks napsal(a):<div class="HOEnZb"><div class="h5"><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
hi stefan,<br>
<br>
it seems that&#39;s more stable but after 2 minute the issue is back again.<br>
hopefully isn&#39;t a bug because it can reproduce it<br>
node2 sents only unicast at sequenz 256...<br>
<br>
node1<br>
<br>
omping 10.0.0.22 10.0.0.21<br>
<br>
<br>
<br>
10.0.0.22 :   unicast, seq=257, size=69 bytes, dist=0, time=0.666ms<br>
<br>
10.0.0.22 : multicast, seq=257, size=69 bytes, dist=0, time=0.677ms<br>
<br>
10.0.0.22 :   unicast, seq=258, size=69 bytes, dist=0, time=0.600ms<br>
<br>
10.0.0.22 : multicast, seq=258, size=69 bytes, dist=0, time=0.610ms<br>
<br>
10.0.0.22 :   unicast, seq=259, size=69 bytes, dist=0, time=0.693ms<br>
<br>
10.0.0.22 : multicast, seq=259, size=69 bytes, dist=0, time=0.702ms<br>
<br>
10.0.0.22 :   unicast, seq=260, size=69 bytes, dist=0, time=0.674ms<br>
<br>
10.0.0.22 : multicast, seq=260, size=69 bytes, dist=0, time=0.685ms<br>
<br>
10.0.0.22 :   unicast, seq=261, size=69 bytes, dist=0, time=0.658ms<br>
<br>
10.0.0.22 : multicast, seq=261, size=69 bytes, dist=0, time=0.669ms<br>
<br>
10.0.0.22 :   unicast, seq=262, size=69 bytes, dist=0, time=0.834ms<br>
<br>
10.0.0.22 : multicast, seq=262, size=69 bytes, dist=0, time=0.845ms<br>
<br>
10.0.0.22 :   unicast, seq=263, size=69 bytes, dist=0, time=0.666ms<br>
<br>
10.0.0.22 : multicast, seq=263, size=69 bytes, dist=0, time=0.677ms<br>
<br>
10.0.0.22 :   unicast, seq=264, size=69 bytes, dist=0, time=0.675ms<br>
<br>
10.0.0.22 : multicast, seq=264, size=69 bytes, dist=0, time=0.687ms<br>
<br>
10.0.0.22 : waiting for response msg<br>
<br>
10.0.0.22 : server told us to stop<br>
<br>
^C<br>
<br>
10.0.0.22 :   unicast, xmt/rcv/%loss = 264/264/0%, min/avg/max/std-dev =<br>
0.542/0.663/0.860/0.035<br>
<br>
10.0.0.22 : multicast, xmt/rcv/%loss = 264/264/0%, min/avg/max/std-dev =<br>
0.553/0.675/0.876/0.035<br>
<br>
node2:<br>
<br>
10.0.0.21 : multicast, seq=251, size=69 bytes, dist=0, time=0.703ms<br>
10.0.0.21 :   unicast, seq=252, size=69 bytes, dist=0, time=0.714ms<br>
10.0.0.21 : multicast, seq=252, size=69 bytes, dist=0, time=0.725ms<br>
10.0.0.21 :   unicast, seq=253, size=69 bytes, dist=0, time=0.662ms<br>
10.0.0.21 : multicast, seq=253, size=69 bytes, dist=0, time=0.672ms<br>
10.0.0.21 :   unicast, seq=254, size=69 bytes, dist=0, time=0.662ms<br>
10.0.0.21 : multicast, seq=254, size=69 bytes, dist=0, time=0.673ms<br>
10.0.0.21 :   unicast, seq=255, size=69 bytes, dist=0, time=0.668ms<br>
10.0.0.21 : multicast, seq=255, size=69 bytes, dist=0, time=0.679ms<br>
10.0.0.21 :   unicast, seq=256, size=69 bytes, dist=0, time=0.674ms<br>
10.0.0.21 : multicast, seq=256, size=69 bytes, dist=0, time=0.687ms<br>
10.0.0.21 :   unicast, seq=257, size=69 bytes, dist=0, time=0.618ms<br>
10.0.0.21 :   unicast, seq=258, size=69 bytes, dist=0, time=0.659ms<br>
10.0.0.21 :   unicast, seq=259, size=69 bytes, dist=0, time=0.705ms<br>
10.0.0.21 :   unicast, seq=260, size=69 bytes, dist=0, time=0.682ms<br>
10.0.0.21 :   unicast, seq=261, size=69 bytes, dist=0, time=0.760ms<br>
10.0.0.21 :   unicast, seq=262, size=69 bytes, dist=0, time=0.665ms<br>
10.0.0.21 :   unicast, seq=263, size=69 bytes, dist=0, time=0.711ms<br>
^C<br>
10.0.0.21 :   unicast, xmt/rcv/%loss = 263/263/0%, min/avg/max/std-dev =<br>
0.539/0.661/0.772/0.037<br>
10.0.0.21 : multicast, xmt/rcv/%loss = 263/256/2%, min/avg/max/std-dev =<br>
0.583/0.674/0.786/0.033<br>
<br>
<br>
<br>
<br>
2014-02-14 9:59 GMT+01:00 Stefan Bauer &lt;<a href="mailto:stefan.bauer@cubewerk.de" target="_blank">stefan.bauer@cubewerk.de</a>&gt;:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
you have to disable all offloading features (rx, tx, tso...)<br>
<br>
<br>
Mit freundlichen Grüßen<br>
<br>
Stefan Bauer<br>
--<br>
Cubewerk GmbH<br>
Herzog-Otto-Straße 32<br>
83308 Trostberg<br>
08621 - 99 60 237<br>
HRB 22195 AG Traunstein<br>
GF Stefan Bauer<br>
<br>
Am 14.02.2014 um 09:40 schrieb &quot;Beo Banks&quot; &lt;<a href="mailto:beo.banks@googlemail.com" target="_blank">beo.banks@googlemail.com</a>&gt;:<br>
<br>
ethtool -K eth0 tx off<br>
ethtool -K eth1 tx off<br>
<br>
same result...retransmit issue<br>
<br>
<br>
2014-02-14 9:31 GMT+01:00 Beo Banks &lt;<a href="mailto:beo.banks@googlemail.com" target="_blank">beo.banks@googlemail.com</a>&gt;:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
i have also try<br>
<br>
&quot;No more delay when you disable multicast snooping on the host:&quot;<br>
<br>
echo 0 &gt; /sys/devices/virtual/net/br1/<u></u>bridge/multicast_router<br>
echo 0 &gt; /sys/devices/virtual/net/br1/<u></u>bridge/multicast_snooping<br>
<br>
<br>
2014-02-14 9:28 GMT+01:00 Beo Banks &lt;<a href="mailto:beo.banks@googlemail.com" target="_blank">beo.banks@googlemail.com</a>&gt;:<br>
<br>
@jan and stefan<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
must i set it for both bridges<br>
eth1 (br1) eth0 (br0) on the host or guest ?<br>
<br>
<br>
2014-02-14 9:06 GMT+01:00 Jan Friesse &lt;<a href="mailto:jfriesse@redhat.com" target="_blank">jfriesse@redhat.com</a>&gt;:<br>
<br>
Beo,<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
do you experiencing cluster split? If answer is no, then you don&#39;t need<br>
to do anything. Maybe network buffer is just filled. But, if answer is yes,<br>
try reduce mtu size (netmtu in configuration) to value like 1000.<br>
<br>
Regards,<br>
   Honza<br>
<br>
Beo Banks napsal(a):<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
i have a fresh 2 node cluster (kvm host1 -&gt; guest = nodeA | kvm host2<br>
-&gt;<br>
guest = NodeB) and it seems to work but from time to time i have a lot<br>
of<br>
errors like<br>
<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 196 198 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 197 199<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 197 199 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 196 198<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 196 198 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 197 199<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 197 199 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 196 198<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 196 198 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 197 199<br>
Feb 13 13:41:04 corosync [TOTEM ] Retransmit List: 197 199 184 185 186<br>
187<br>
188 189 18a 18b 18c 18d 18e 18f 190 191 192 193 194 195 196 198<br>
i used the newest rhel 6.5 version.<br>
<br>
i have also already try solve the issue with<br>
echo 1 &gt; /sys/class/net/virbr0/bridge/<u></u>multicast_querier (host system)<br>
but no chance...<br>
<br>
i have disable iptables,selinux..same issue<br>
<br>
how can solve it?<br>
<br>
thanks beo<br>
<br>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org/</a><br>
doc/Cluster_from_Scratch.pdf<br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
</blockquote>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org/</a><br>
doc/Cluster_from_Scratch.pdf<br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</blockquote>
<br>
<br>
</blockquote>
<br>
</blockquote>
______________________________<u></u>_________________<br>
<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
<br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
<br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
</blockquote>
<br>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</blockquote>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>