I don&#39;t think so<br><br>I remember gfs2 &amp;&amp; ocfs2 on pacemaker &amp; redhat clusterš use clvm<br><br>In redhat cluster dlm it&#39;s started with cman<br><br>On pacemaker you should do a clone resource<br><br><div class="gmail_quote">
2012/2/16 diego fanesi <span dir="ltr">&lt;<a href="mailto:diego.fanesi@gmail.com">diego.fanesi@gmail.com</a>&gt;</span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<p>Try to set expected-quorum-votes to 1. I&#39;m not sure but in my opinion that is the problem.</p>
<div class="gmail_quote">Il giorno 14/feb/2012 06:43, &quot;âÏÇÏÍÏÌÏ× äÍÉÔÒÉÊ ÷ÉËÔÏÒÏ×ÉÞ&quot; &lt;<a href="mailto:beatseed@mail.ru" target="_blank">beatseed@mail.ru</a>&gt; ha scritto:<div><div class="h5"><br type="attribution">
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
I have a trouble with my test configuration.<br>
I build an Actice/Active cluster Ubuntu(11.10)+DRBD+Cman+Pacemaker+gfs2+Xen for test purpose.<br>
Now i am doing some tests with availability. I am try to start šcluster on one node.<br>
<br>
Trouble is - the Filesystem primitive ClusterFS (fs type=gfs2) does not start when one of two nodes is switched off.<br>
<br>
Here my configuration:<br>
<br>
node blaster \<br>
 š š š šattributes standby=&quot;off&quot;<br>
node turrel \<br>
 š š š šattributes standby=&quot;off&quot;<br>
primitive ClusterData ocf:linbit:drbd \<br>
 š š š šparams drbd_resource=&quot;clusterdata&quot; \<br>
 š š š šop monitor interval=&quot;60s&quot;<br>
primitive ClusterFS ocf:heartbeat:Filesystem \<br>
 š š š šparams device=&quot;/dev/drbd/by-res/clusterdata&quot; directory=&quot;/mnt/cluster&quot; fstype=&quot;gfs2&quot; \<br>
 š š š šop start interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
 š š š šop stop interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
 š š š šop monitor interval=&quot;60s&quot; timeout=&quot;60s&quot;<br>
primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>
 š š š šparams ip=&quot;192.168.122.252&quot; cidr_netmask=&quot;32&quot; clusterip_hash=&quot;sourceip&quot; \<br>
 š š š šop monitor interval=&quot;30s&quot;<br>
primitive SSH-stonith stonith:ssh \<br>
 š š š šparams hostlist=&quot;turrel blaster&quot; \<br>
 š š š šop monitor interval=&quot;60s&quot;<br>
primitive XenDom ocf:heartbeat:Xen \<br>
 š š š šparams xmfile=&quot;/etc/xen/xen1.example.com.cfg&quot; \<br>
 š š š šmeta allow-migrate=&quot;true&quot; is-managed=&quot;true&quot; target-role=&quot;Stopped&quot; \<br>
 š š š šutilization cores=&quot;1&quot; mem=&quot;512&quot; \<br>
 š š š šop monitor interval=&quot;30s&quot; timeout=&quot;30s&quot; \<br>
 š š š šop start interval=&quot;0&quot; timeout=&quot;90s&quot; \<br>
 š š š šop stop interval=&quot;0&quot; timeout=&quot;300s&quot;<br>
ms ClusterDataClone ClusterData \<br>
 š š š šmeta master-max=&quot;2&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>
clone ClusterFSClone ClusterFS \<br>
 š š š šmeta target-role=&quot;Started&quot; is-managed=&quot;true&quot;<br>
clone IP ClusterIP \<br>
 š š š šmeta globally-unique=&quot;true&quot; clone-max=&quot;2&quot; clone-node-max=&quot;2&quot;<br>
clone SSH-stonithClone SSH-stonith<br>
location prefere-blaster XenDom 50: blaster<br>
colocation XenDom-with-ClusterFS inf: XenDom ClusterFSClone<br>
colocation fs_on_drbd inf: ClusterFSClone ClusterDataClone:Master<br>
order ClusterFS-after-ClusterData inf: ClusterDataClone:promote ClusterFSClone:start<br>
order XenDom-after-ClusterFS inf: ClusterFSClone XenDom<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
 š š š šdc-version=&quot;1.1.5-01e86afaaa6d4a8c4836f68df80ababd6ca3902f&quot; \<br>
 š š š šcluster-infrastructure=&quot;cman&quot; \<br>
 š š š šexpected-quorum-votes=&quot;2&quot; \<br>
 š š š šstonith-enabled=&quot;true&quot; \<br>
 š š š šno-quorum-policy=&quot;ignore&quot; \<br>
 š š š šlast-lrm-refresh=&quot;1329194925&quot;<br>
rsc_defaults $id=&quot;rsc-options&quot; \<br>
 š š š šresource-stickiness=&quot;100&quot;<br>
<br>
Here is an $crm resource show:<br>
<br>
Master/Slave Set: ClusterDataClone [ClusterData]<br>
 š š Masters: [ turrel ]<br>
 š š Stopped: [ ClusterData:1 ]<br>
šClone Set: IP [ClusterIP] (unique)<br>
 š š ClusterIP:0 š š š š(ocf::heartbeat:IPaddr2) Started<br>
 š š ClusterIP:1 š š š š(ocf::heartbeat:IPaddr2) Started<br>
šClone Set: ClusterFSClone [ClusterFS]<br>
 š š Stopped: [ ClusterFS:0 ClusterFS:1 ]<br>
šClone Set: SSH-stonithClone [SSH-stonith]<br>
 š š Started: [ turrel ]<br>
 š š Stopped: [ SSH-stonith:1 ]<br>
šXenDom (ocf::heartbeat:Xen) Stopped<br>
<br>
I tryed:<br>
crm(live)resource# cleanup ClusterFSClone<br>
Cleaning up ClusterFS:0 on turrel<br>
Cleaning up ClusterFS:1 on turrel<br>
Waiting for 3 replies from the CRMd... OK<br>
<br>
I can see only warn message in /var/log/cluster/corosync.log<br>
Feb 14 16:25:56 turrel pengine: <a href="tel:%5B1640" value="+491640" target="_blank">[1640</a>]: WARN: unpack_rsc_op: Processing failed op ClusterFS:0_start_0 on turrel: unknown exec error (-2)<br>
and<br>
Feb 14 16:25:56 turrel pengine: <a href="tel:%5B1640" value="+491640" target="_blank">[1640</a>]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
Feb 14 16:25:56 turrel pengine: <a href="tel:%5B1640" value="+491640" target="_blank">[1640</a>]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
<br>
Direct me, please, what i need to check or else?<br>
<br>
Best regards,<br>
Dmitriy Bogomolov<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div></div></div>
<br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>