dear all, <br>i configure pacemaker and corosync on 2 Centos 6.3 servers by following instruction on &#39;Cluster from Scratch&#39;.<br>on the beginning, i follow &#39;Cluster from Scratch&#39; edition 5. but, since i use centos, i change to &#39;Cluster from Scratch&#39; edition 3 to configure active/active servers.<br>
Now on 1st server (cluster1), the Filesystem resource cannot start. the gfs2 filesystem can&#39;t be mounted.<br><br>this is the crm configuration<br clear="all">[root@cluster2 ~]# crm configure show<br>node cluster1 \<br>
    attributes standby=&quot;off&quot;<br>node cluster2 \<br>    attributes standby=&quot;off&quot;<br>primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>    params ip=&quot;xxx.xxx.xxx.229&quot; cidr_netmask=&quot;32&quot; clusterip_hash=&quot;sourceip&quot; \<br>
    op monitor interval=&quot;30s&quot;<br>primitive WebData ocf:linbit:drbd \<br>    params drbd_resource=&quot;wwwdata&quot; \<br>    op monitor interval=&quot;60s&quot;<br>primitive WebFS ocf:heartbeat:Filesystem \<br>
    params device=&quot;/dev/drbd/by-res/wwwdata&quot; directory=&quot;/var/www/html&quot; fstype=&quot;gfs2&quot;<br>primitive WebSite ocf:heartbeat:apache \<br>    params configfile=&quot;/etc/httpd/conf/httpd.conf&quot; statusurl=&quot;<a href="http://localhost/server-status">http://localhost/server-status</a>&quot; \<br>
    op monitor interval=&quot;1min&quot;<br>ms WebDataClone WebData \<br>    meta master-max=&quot;2&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>clone WebFSClone WebFS<br>
clone WebIP ClusterIP \<br>    meta globally-unique=&quot;true&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot; interleave=&quot;false&quot;<br>clone WebSiteClone WebSite \<br>    meta interleave=&quot;false&quot;<br>
colocation WebSite-with-WebFS inf: WebSiteClone WebFSClone<br>colocation colocation-WebSite-ClusterIP-INFINITY inf: WebSiteClone WebIP<br>colocation fs_on_drbd inf: WebFSClone WebDataClone:Master<br>order WebFS-after-WebData inf: WebDataClone:promote WebFSClone:start<br>
order WebSite-after-WebFS inf: WebFSClone WebSiteClone<br>order order-ClusterIP-WebSite-mandatory : WebIP:start WebSiteClone:start<br>property $id=&quot;cib-bootstrap-options&quot; \<br>    dc-version=&quot;1.1.7-6.el6-148fccfd5985c5590cc601123c6c16e966b85d14&quot; \<br>
    cluster-infrastructure=&quot;cman&quot; \<br>    expected-quorum-votes=&quot;2&quot; \<br>    stonith-enabled=&quot;false&quot; \<br>    no-quorum-policy=&quot;ignore&quot;<br>rsc_defaults $id=&quot;rsc-options&quot; \<br>
    resource-stickiness=&quot;100&quot;<br><br>when i want to mount the filesystem manually, this message appear :<br>[root@cluster1 ~]# mount /dev/drbd1 /mnt/<br>mount point already used or other mount in progress<br>error mounting lockproto lock_dlm<br>
<br>but when i check the mount, there is no mount from drbd<br><br>there is another strange thing, the 1st server (cluster1) cannot reboot. it hangs with message &#39;please standby while rebooting the system&#39;. in the reboot process, there are 2 failed action which is related to fencing. i didn&#39;t configure any fencing yet. one of the failed action is : <br>
&#39;stopping cluster<br>leaving fence domain .... found dlm lockspace /sys/kernel/dlm/web<br>fence_tool : cannot leave due to active system       [FAILED]&#39;<br><br>please help me with this problem<br><br>-- <br>Best Regards,<br>
<br>Soni Maula Harriz<br>Database Administrator<br>PT. Data Aksara Sangkuriang<br><br>