<div dir="ltr"><div><div><div><div><div><div>Hi list !<br><br></div>I&#39;m having an issue with corosync, here is the scenario :<br><br># crm_mon -1<br>============<br>Last updated: Tue Aug 27 09:50:13 2013<br>Last change: Mon Aug 26 16:06:01 2013 via cibadmin on node2<br>
Stack: openais<br>Current DC: node1 - partition with quorum<br>Version: 1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff<br>2 Nodes configured, 2 expected votes<br>3 Resources configured.<br>============<br><br>Online: [ node2 node1 ]<br>
<br> ip    (ocf::heartbeat:IPaddr2):    Started node1<br> Clone Set: mysql-mm [mysql] (unmanaged)<br>     mysql:0    (ocf::heartbeat:mysql):    Started node1 (unmanaged)<br>     mysql:1    (ocf::heartbeat:mysql):    Started node2 (unmanaged)<br>
<br># /etc/init.d/mysql stop<br>[ ok ] Stopping MySQL database server: mysqld.<br><br># crm_mon -1<br>============<br>Last updated: Tue Aug 27 09:50:30 2013<br>Last change: Mon Aug 26 16:06:01 2013 via cibadmin on node2<br>
Stack: openais<br>Current DC: node1 - partition with quorum<br>Version: 1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff<br>2 Nodes configured, 2 expected votes<br>3 Resources configured.<br>============<br><br>Online: [ node2 node1 ]<br>
<br> ip    (ocf::heartbeat:IPaddr2):    Started node1<br> Clone Set: mysql-mm [mysql] (unmanaged)<br>     mysql:0    (ocf::heartbeat:mysql):    Started node1 (unmanaged)<br>     mysql:1    (ocf::heartbeat:mysql):    Started node2 (unmanaged) FAILED<br>
<br>Failed actions:<br>    mysql:0_monitor_15000 (node=node2, call=27, rc=7, status=complete): not running<br><br># /etc/init.d/mysql start<br>[ ok ] Starting MySQL database server: mysqld ..<br>[info] Checking for tables which need an upgrade, are corrupt or were <br>
not closed cleanly..<br><br># sleep 60 &amp;&amp; crm_mon -1<br>============<br>Last updated: Tue Aug 27 09:51:54 2013<br>Last change: Mon Aug 26 16:06:01 2013 via cibadmin on node2<br>Stack: openais<br>Current DC: node1 - partition with quorum<br>
Version: 1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff<br>2 Nodes configured, 2 expected votes<br>3 Resources configured.<br>============<br><br>Online: [ node2 node1 ]<br><br> ip    (ocf::heartbeat:IPaddr2):    Started node1<br>
 Clone Set: mysql-mm [mysql] (unmanaged)<br>     mysql:0    (ocf::heartbeat:mysql):    Started node1 (unmanaged)<br>     mysql:1    (ocf::heartbeat:mysql):    Started node2 (unmanaged) FAILED<br><br>Failed actions:<br>    mysql:0_monitor_15000 (node=node2, call=27, rc=7, status=complete): not running<br>
<br></div>As you can see, every time I stop Mysql (which is unmanaged), the resource is marked as failed :<br><br>crmd: [1828]: info: process_lrm_event: LRM operation mysql:0_monitor_15000 (call=4, rc=7, cib-update=10, confirmed=false) not running<br>
<br></div><div>When I restart the resource :<br><br>crmd: [1828]: info: process_lrm_event: LRM operation mysql:0_monitor_15000 (call=4, rc=0, cib-update=11, confirmed=false) ok<br><br></div><div>The resource is still in failed state and does not recover until I manually clean up the resource.<br>
<br># crm_mon --one-shot --operations<br>============<br>Last updated: Tue Aug 27 10:17:30 2013<br>Last change: Mon Aug 26 16:06:01 2013 via cibadmin on node2<br>Stack: openais<br>Current DC: node1 - partition with quorum<br>
Version: 1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff<br>2 Nodes configured, 2 expected votes<br>3 Resources configured.<br>============<br><br>Online: [ node2 node1 ]<br><br> ip    (ocf::heartbeat:IPaddr2):    Started node1<br>
 Clone Set: mysql-mm [mysql] (unmanaged)<br>     mysql:0    (ocf::heartbeat:mysql):    Started node1 (unmanaged)<br>     mysql:1    (ocf::heartbeat:mysql):    Started node2 (unmanaged) FAILED<br><br>Operations:<br>* Node node1: <br>
   ip: migration-threshold=1<br>    + (57) probe: rc=0 (ok)<br>   mysql:0: migration-threshold=1 fail-count=1<br>    + (58) probe: rc=0 (ok)<br>    + (59) monitor: interval=15000ms rc=0 (ok)<br>* Node node2: <br>   mysql:0: migration-threshold=1 fail-count=3<br>
    + (27) monitor: interval=15000ms rc=7 (not running)<br>    + (27) monitor: interval=15000ms rc=0 (ok)<br><br>Failed actions:<br>    mysql:0_monitor_15000 (node=node2, call=27, rc=7, status=complete): not running<br><br>
</div><div>---<br><br></div>Here is some details about my configuration :<br><br># cat /etc/debian_version <br>7.1<br><br># dpk# dpkg -l | grep corosync<br>ii  corosync                         1.4.2-3                       amd64        Standards-based cluster framework <br>
<br># dpkg -l | grep pacem   <br>ii  pacemaker                        1.1.7-1                       amd64        HA cluster resource manager<br><br># crm configure show<br>node node2 \<br>    attributes standby=&quot;off&quot;<br>
node node1<br>primitive ip ocf:heartbeat:IPaddr2 \<br>    params ip=&quot;192.168.0.20&quot; cidr_netmask=&quot;255.255.0.0&quot; nic=&quot;eth2.2755&quot; iflabel=&quot;mysql&quot; \<br>    meta is-managed=&quot;true&quot; target-role=&quot;Started&quot; \<br>
    meta resource-stickiness=&quot;100&quot;<br>primitive mysql ocf:heartbeat:mysql \<br>    op monitor interval=&quot;15&quot; timeout=&quot;30&quot;<br>clone mysql-mm mysql \<br>    meta is-managed=&quot;false&quot;<br>
location cli-prefer-ip ip 50: node1<br>colocation ip-on-mysql-mm 200: ip mysql-mm<br>property $id=&quot;cib-bootstrap-options&quot; \<br>    dc-version=&quot;1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff&quot; \<br>    cluster-infrastructure=&quot;openais&quot; \<br>
    expected-quorum-votes=&quot;2&quot; \<br>    stonith-enabled=&quot;false&quot; \<br>    no-quorum-policy=&quot;ignore&quot; \<br>    last-lrm-refresh=&quot;1377513557&quot; \<br>    start-failure-is-fatal=&quot;false&quot;<br>
rsc_defaults $id=&quot;rsc-options&quot; \<br>    resource-stickiness=&quot;1&quot; \<br>    migration-threshold=&quot;1&quot;<br><br>---<br><br></div>Does anyone know what is wrong with my configuration ?<br><br></div>Thanks for the help,<br>
<br></div>Best regards.<br><div><div><div><div><div><br> <br></div></div></div></div></div></div>