Sorry but i have one stupid question<br><br>Do you have a dlm clone resource for use gfs2 in your cluster?<br><br><div class="gmail_quote">2012/2/16 âÏÇÏÍÏÌÏ× äÍÉÔÒÉÊ ÷ÉËÔÏÒÏ×ÉÞ <span dir="ltr">&lt;<a href="mailto:beatseed@mail.ru">beatseed@mail.ru</a>&gt;</span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
this is $cat /proc/drbd<br>
version: 8.3.11 (api:88/proto:86-96)<br>
srcversion: DA5A13F16DE6553FC7CE9B2<br>
<br>
š1: cs:WFConnection ro:Primary/Unknown ds:UpToDate/DUnknown C r-----<br>
 š šns:0 nr:0 dw:0 dr:1616 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:327516<br>
<br>
i tryed to mount drbd resource by hand with:<br>
mount /dev/drbd/by-res/clusterdata /mnt/cluster<br>
and with<br>
mount /dev/drbd/by-disk/mapper/turrel-cluster_storage /mnt/cluster<br>
and with<br>
mount /dev/drbd1 /mnt/cluster<br>
each make this log entrys:<br>
Feb 16 15:00:52 turrel kernel: [80365.686822] dlm_new_lockspace error -512<br>
Feb 16 15:00:52 turrel kernel: [80539.590344] GFS2: fsid=: Trying to join cluster &quot;lock_dlm&quot;, &quot;tumba:data&quot;<br>
Feb 16 15:00:52 turrel kernel: [80539.603545] dlm: Using TCP for communications<br>
Feb 16 15:00:52 turrel dlm_controld[855]: process_uevent online@ error -17 errno 11<br>
<br>
both tasks hang, only kill -9 can help<br>
after killing task i have this log entry:<br>
<br>
Feb 16 15:02:50 turrel kernel: [80657.576111] dlm: data: group join failed -512 0<br>
<br>
I can check gfs2 filesystem with:<br>
fsck.gfs2 /dev/drbd1<br>
<br>
Initializing fsck<br>
Validating Resource Group index.<br>
Level 1 RG check.<br>
(level 1 passed)<br>
Starting pass1<br>
Pass1 complete<br>
Starting pass1b<br>
Pass1b complete<br>
Starting pass1c<br>
Pass1c complete<br>
Starting pass2<br>
Pass2 complete<br>
Starting pass3<br>
Pass3 complete<br>
Starting pass4<br>
Pass4 complete<br>
Starting pass5<br>
Pass5 complete<br>
gfs2_fsck complete<br>
<br>
So, whart is going wrong? I can&#39;t get it.<br>
<br>
&gt; Hi,<br>
&gt; I have a trouble with my test configuration.<br>
&gt; I build an Actice/Active cluster Ubuntu(11.10)+DRBD+Cman+Pacemaker+gfs2+Xen for test purpose.<br>
&gt; Now i am doing some tests with availability. I am try to start šcluster on one node.<br>
&gt;<br>
&gt; Trouble is - the Filesystem primitive ClusterFS (fs type=gfs2) does not start when one of two nodes is switched off.<br>
&gt;<br>
&gt; Here my configuration:<br>
&gt;<br>
&gt; node blaster \<br>
&gt; š š š š attributes standby=&quot;off&quot;<br>
&gt; node turrel \<br>
&gt; š š š š attributes standby=&quot;off&quot;<br>
&gt; primitive ClusterData ocf:linbit:drbd \<br>
&gt; š š š š params drbd_resource=&quot;clusterdata&quot; \<br>
&gt; š š š š op monitor interval=&quot;60s&quot;<br>
&gt; primitive ClusterFS ocf:heartbeat:Filesystem \<br>
&gt; š š š š params device=&quot;/dev/drbd/by-res/clusterdata&quot; directory=&quot;/mnt/cluster&quot; fstype=&quot;gfs2&quot; \<br>
&gt; š š š š op start interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
&gt; š š š š op stop interval=&quot;0&quot; timeout=&quot;60s&quot; \<br>
&gt; š š š š op monitor interval=&quot;60s&quot; timeout=&quot;60s&quot;<br>
&gt; primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>
&gt; š š š š params ip=&quot;192.168.122.252&quot; cidr_netmask=&quot;32&quot; clusterip_hash=&quot;sourceip&quot; \<br>
&gt; š š š š op monitor interval=&quot;30s&quot;<br>
&gt; primitive SSH-stonith stonith:ssh \<br>
&gt; š š š š params hostlist=&quot;turrel blaster&quot; \<br>
&gt; š š š š op monitor interval=&quot;60s&quot;<br>
&gt; primitive XenDom ocf:heartbeat:Xen \<br>
&gt; š š š š params xmfile=&quot;/etc/xen/xen1.example.com.cfg&quot; \<br>
&gt; š š š š meta allow-migrate=&quot;true&quot; is-managed=&quot;true&quot; target-role=&quot;Stopped&quot; \<br>
&gt; š š š š utilization cores=&quot;1&quot; mem=&quot;512&quot; \<br>
&gt; š š š š op monitor interval=&quot;30s&quot; timeout=&quot;30s&quot; \<br>
&gt; š š š š op start interval=&quot;0&quot; timeout=&quot;90s&quot; \<br>
&gt; š š š š op stop interval=&quot;0&quot; timeout=&quot;300s&quot;<br>
&gt; ms ClusterDataClone ClusterData \<br>
&gt; š š š š meta master-max=&quot;2&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot; clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>
&gt; clone ClusterFSClone ClusterFS \<br>
&gt; š š š š meta target-role=&quot;Started&quot; is-managed=&quot;true&quot;<br>
&gt; clone IP ClusterIP \<br>
&gt; š š š š meta globally-unique=&quot;true&quot; clone-max=&quot;2&quot; clone-node-max=&quot;2&quot;<br>
&gt; clone SSH-stonithClone SSH-stonith<br>
&gt; location prefere-blaster XenDom 50: blaster<br>
&gt; colocation XenDom-with-ClusterFS inf: XenDom ClusterFSClone<br>
&gt; colocation fs_on_drbd inf: ClusterFSClone ClusterDataClone:Master<br>
&gt; order ClusterFS-after-ClusterData inf: ClusterDataClone:promote ClusterFSClone:start<br>
&gt; order XenDom-after-ClusterFS inf: ClusterFSClone XenDom<br>
&gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt; š š š š dc-version=&quot;1.1.5-01e86afaaa6d4a8c4836f68df80ababd6ca3902f&quot; \<br>
&gt; š š š š cluster-infrastructure=&quot;cman&quot; \<br>
&gt; š š š š expected-quorum-votes=&quot;2&quot; \<br>
&gt; š š š š stonith-enabled=&quot;true&quot; \<br>
&gt; š š š š no-quorum-policy=&quot;ignore&quot; \<br>
&gt; š š š š last-lrm-refresh=&quot;1329194925&quot;<br>
&gt; rsc_defaults $id=&quot;rsc-options&quot; \<br>
&gt; š š š š resource-stickiness=&quot;100&quot;<br>
&gt;<br>
&gt; Here is an $crm resource show:<br>
&gt;<br>
&gt; Master/Slave Set: ClusterDataClone [ClusterData]<br>
&gt; š š šMasters: [ turrel ]<br>
&gt; š š šStopped: [ ClusterData:1 ]<br>
&gt; šClone Set: IP [ClusterIP] (unique)<br>
&gt; š š šClusterIP:0 š š š š(ocf::heartbeat:IPaddr2) Started<br>
&gt; š š šClusterIP:1 š š š š(ocf::heartbeat:IPaddr2) Started<br>
&gt; šClone Set: ClusterFSClone [ClusterFS]<br>
&gt; š š šStopped: [ ClusterFS:0 ClusterFS:1 ]<br>
&gt; šClone Set: SSH-stonithClone [SSH-stonith]<br>
&gt; š š šStarted: [ turrel ]<br>
&gt; š š šStopped: [ SSH-stonith:1 ]<br>
&gt; šXenDom (ocf::heartbeat:Xen) Stopped<br>
&gt;<br>
&gt; I tryed:<br>
&gt; crm(live)resource# cleanup ClusterFSClone<br>
&gt; Cleaning up ClusterFS:0 on turrel<br>
&gt; Cleaning up ClusterFS:1 on turrel<br>
&gt; Waiting for 3 replies from the CRMd... OK<br>
&gt;<br>
&gt; I can see only warn message in /var/log/cluster/corosync.log<br>
&gt; Feb 14 16:25:56 turrel pengine: <a href="tel:%5B1640" value="+491640">[1640</a>]: WARN: unpack_rsc_op: Processing failed op ClusterFS:0_start_0 on turrel: unknown exec error (-2)<br>
&gt; and<br>
&gt; Feb 14 16:25:56 turrel pengine: [1640]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
&gt; Feb 14 16:25:56 turrel pengine: [1640]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
&gt;<br>
&gt; Direct me, please, what i need to check or else?<br>
&gt;<br>
&gt; Best regards,<br>
&gt; Dmitriy Bogomolov<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;<br>
Best regards,<br>
Dmitriy Bogomolov<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>