Hello Dennis<br><br>This constrain is wrong<br><br>colocation c_web1_on_drbd inf: ms_drbd_web1:Master p_fs_web1<br><br>it should be<br><br>colocation c_web1_on_drbd inf: p_fs_web1 ms_drbd_web1:Master<br><br>Thanks<br><br><div class="gmail_quote">
2013/3/26 Dennis Jacobfeuerborn <span dir="ltr">&lt;<a href="mailto:dennisml@conversis.de" target="_blank">dennisml@conversis.de</a>&gt;</span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I have now reduced the configuration further and removed LVM from the picture. Still the cluster fails when I set the master node to standby.<br>
What&#39;s interesting is that things get fixed when I issue a simple &quot;cleanup&quot; for the filesystem resource.<br>
<br>
This is what my current config looks like:<br>
<br>
node nfs1 \<br>
        attributes standby=&quot;off&quot;<br>
node nfs2<br>
primitive p_drbd_web1 ocf:linbit:drbd \<br>
        params drbd_resource=&quot;web1&quot; \<br>
        op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>
        op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>
primitive p_fs_web1 ocf:heartbeat:Filesystem \<br>
        params device=&quot;/dev/drbd0&quot; \<br>
        directory=&quot;/srv/nfs/web1&quot; fstype=&quot;ext4&quot; \<br>
        op monitor interval=&quot;10s&quot;<br>
ms ms_drbd_web1 p_drbd_web1 \<br>
        meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; \<br>
        clone-max=&quot;2&quot; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>
colocation c_web1_on_drbd inf: ms_drbd_web1:Master p_fs_web1<br>
order o_drbd_before_web1 inf: ms_drbd_web1:promote p_fs_web1<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
        dc-version=&quot;1.1.8-7.el6-<u></u>394e906&quot; \<br>
        cluster-infrastructure=&quot;<u></u>classic openais (with plugin)&quot; \<br>
        expected-quorum-votes=&quot;2&quot; \<br>
        stonith-enabled=&quot;false&quot; \<br>
        no-quorum-policy=&quot;ignore&quot; \<br>
        last-lrm-refresh=&quot;1364259713&quot; \<br>
        maintenance-mode=&quot;false&quot;<br>
rsc_defaults $id=&quot;rsc-options&quot; \<br>
        resource-stickiness=&quot;100&quot;<br>
<br>
I cannot figure out what is wrong with this configuration.<br>
<br>
Regards,<br>
  Dennis<br>
<br>
On 25.03.2013 13:09, Dennis Jacobfeuerborn wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I just found the following in the dmesg output which might or might not<br>
add to understanding the problem:<br>
<br>
device-mapper: table: 253:2: linear: dm-linear: Device lookup failed<br>
device-mapper: ioctl: error adding target to table<br>
<br>
Regards,<br>
   Dennis<br>
<br>
On 25.03.2013 13:04, Dennis Jacobfeuerborn wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
I&#39;m currently trying create a two node redundant NFS setup on CentOS 6.4<br>
using pacemaker and crmsh.<br>
<br>
I use this Document as a starting poing:<br>
<a href="https://www.suse.com/documentation/sle_ha/singlehtml/book_sleha_techguides/book_sleha_techguides.html" target="_blank">https://www.suse.com/<u></u>documentation/sle_ha/<u></u>singlehtml/book_sleha_<u></u>techguides/book_sleha_<u></u>techguides.html</a><br>

<br>
<br>
<br>
The first issue is that using these instructions I get the cluster up<br>
and running but the moment I try to stop the pacemaker service on the<br>
current master node several resources just fail and everything goes<br>
pear-shaped.<br>
<br>
Since the problem seems to relate to the nfs bits in the configuration I<br>
removed these in order to get to a minimal working setup and then add<br>
things piece by piece in order to find the source of the problem.<br>
<br>
Now I am at a point where I basically have only<br>
DRBD+LVM+Filesystems+IPAddr2 configured and now LVM seems to act up.<br>
<br>
I can start the cluster and everything is fine but the moment I stop<br>
pacemaker on the master i end up with this as a status:<br>
<br>
===<br>
Node nfs2: standby<br>
Online: [ nfs1 ]<br>
<br>
  Master/Slave Set: ms_drbd_nfs [p_drbd_nfs]<br>
      Masters: [ nfs1 ]<br>
      Stopped: [ p_drbd_nfs:1 ]<br>
<br>
Failed actions:<br>
     p_lvm_nfs_start_0 (node=nfs1, call=505, rc=1, status=complete):<br>
unknown error<br>
===<br>
<br>
and in the log on nfs1 I see:<br>
LVM(p_lvm_nfs)[7515]:    2013/03/25_12:34:21 ERROR: device-mapper:<br>
reload ioctl on failed: Invalid argument device-mapper: reload ioctl on<br>
failed: Invalid argument 2 logical volume(s) in volume group &quot;nfs&quot; now<br>
active<br>
<br>
However a lvs in this state shows:<br>
[root@nfs1 ~]# lvs<br>
   LV      VG            Attr      LSize   Pool Origin Data%  Move Log<br>
   web1    nfs           -wi------   2,00g<br>
   web2    nfs           -wi------   2,00g<br>
   lv_root vg_nfs1.local -wi-ao---   2,45g<br>
   lv_swap vg_nfs1.local -wi-ao--- 256,00m<br>
<br>
So the volume group is present.<br>
<br>
My current configuration looks like this:<br>
<br>
node nfs1 \<br>
         attributes standby=&quot;off&quot;<br>
node nfs2 \<br>
         attributes standby=&quot;on&quot;<br>
primitive p_drbd_nfs ocf:linbit:drbd \<br>
         params drbd_resource=&quot;nfs&quot; \<br>
         op monitor interval=&quot;15&quot; role=&quot;Master&quot; \<br>
         op monitor interval=&quot;30&quot; role=&quot;Slave&quot;<br>
primitive p_fs_web1 ocf:heartbeat:Filesystem \<br>
         params device=&quot;/dev/nfs/web1&quot; \<br>
       directory=&quot;/srv/nfs/web1&quot; \<br>
       fstype=&quot;ext4&quot; \<br>
         op monitor interval=&quot;10s&quot;<br>
primitive p_fs_web2 ocf:heartbeat:Filesystem \<br>
         params device=&quot;/dev/nfs/web2&quot; \<br>
       directory=&quot;/srv/nfs/web2&quot; \<br>
       fstype=&quot;ext4&quot; \<br>
         op monitor interval=&quot;10s&quot;<br>
primitive p_ip_nfs ocf:heartbeat:IPaddr2 \<br>
         params ip=&quot;10.99.0.142&quot; cidr_netmask=&quot;24&quot; \<br>
         op monitor interval=&quot;30s&quot;<br>
primitive p_lvm_nfs ocf:heartbeat:LVM \<br>
         params volgrpname=&quot;nfs&quot; \<br>
         op monitor interval=&quot;30s&quot;<br>
group g_nfs p_lvm_nfs p_fs_web1 p_fs_web2 p_ip_nfs<br>
ms ms_drbd_nfs p_drbd_nfs \<br>
         meta master-max=&quot;1&quot; \<br>
       master-node-max=&quot;1&quot; \<br>
       clone-max=&quot;2&quot; \<br>
       clone-node-max=&quot;1&quot; \<br>
       notify=&quot;true&quot;<br>
colocation c_nfs_on_drbd inf: g_nfs ms_drbd_nfs:Master<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
         dc-version=&quot;1.1.8-7.el6-<u></u>394e906&quot; \<br>
         cluster-infrastructure=&quot;<u></u>classic openais (with plugin)&quot; \<br>
         expected-quorum-votes=&quot;2&quot; \<br>
         stonith-enabled=&quot;false&quot; \<br>
         no-quorum-policy=&quot;ignore&quot; \<br>
         last-lrm-refresh=&quot;1364212090&quot; \<br>
         maintenance-mode=&quot;false&quot;<br>
rsc_defaults $id=&quot;rsc_defaults-options&quot; \<br>
         resource-stickiness=&quot;100&quot;<br>
<br>
Any ideas why this isn&#39;t working?<br>
<br>
Regards,<br>
   Dennis<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera