<font color='black' size='2' face='arial'>Hi Andreas:<br>
<br>
Thanks so much for the response! - is it OK to write you back?&nbsp; New to the forum so am unsure of protocol...apologize if we should have posted this directly.<br>
<br>
<font size="2">Per your suggestions, w</font>e made the following adjustments but are still stuck:<br>
<br>
- set the LVM.conf filter back to what it had been (filter = [ "a/.*/" ]) and cleared the LVM cache<br>
- adjusted our pacemaker config to the following (we tried adding some "start-delay" statements, but get the same results with or without them):<br>
<br>
a) crm configure show<br>
<font size="2">node server1<br>
node server2<br>
primitive app_ip ocf:heartbeat:IPaddr \<br>
&nbsp;&nbsp;&nbsp; params ip="192.168.1.152" \<br>
&nbsp;&nbsp;&nbsp; op monitor interval="30s"<br>
primitive drbd ocf:linbit:drbd \<br>
&nbsp;&nbsp;&nbsp; params drbd_resource="r1" \<br>
&nbsp;&nbsp;&nbsp; op start interval="0" timeout="240" \<br>
&nbsp;&nbsp;&nbsp; op stop interval="0" timeout="100" \<br>
&nbsp;&nbsp;&nbsp; op monitor interval="59s" role="Master" timeout="30s" start-delay="1m" \<br>
&nbsp;&nbsp;&nbsp; op monitor interval="60s" role="Slave" timeout="30s" start-delay="1m"<br>
primitive fs_vservers ocf:heartbeat:Filesystem \<br>
&nbsp;&nbsp;&nbsp; params device="/dev/vg2/vserverLV" directory="/vservers" fstype="ext4" \<br>
&nbsp;&nbsp;&nbsp; op start interval="0" timeout="60" \<br>
&nbsp;&nbsp;&nbsp; op stop interval="0" timeout="120" \<br>
&nbsp;&nbsp;&nbsp; meta target-role="Started"<br>
ms ms_drbd drbd \<br>
&nbsp;&nbsp;&nbsp; meta master-node-max="1" clone-max="2" clone-node-max="1" globally-unique="false" notify="true" target-role="Started"<br>
location cli-prefer-app_ip app_ip \<br>
&nbsp;&nbsp;&nbsp; rule $id="cli-prefer-rule-app_ip" inf: #uname eq server2<br>
location drbd_on_node1 ms_drbd \<br>
&nbsp;&nbsp;&nbsp; rule $id="drbd_on_node1-rule" $role="master" 100: #uname eq server1<br>
property $id="cib-bootstrap-options" \<br>
&nbsp;&nbsp;&nbsp; dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \<br>
&nbsp;&nbsp;&nbsp; cluster-infrastructure="openais" \<br>
&nbsp;&nbsp;&nbsp; expected-quorum-votes="2" \<br>
&nbsp;&nbsp;&nbsp; stonith-enabled="false" \<br>
&nbsp;&nbsp;&nbsp; no-quorum-policy="ignore"<br>
</font><br>
<br>
&nbsp;<br>
<br>
<br>
b) Our drbd.conf is:<br>
<br>
global { usage-count no; }<br>
common { syncer { rate 100M; } }<br>
#original<br>
resource r1 {<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; protocol C;<br>
&nbsp;&nbsp;&nbsp; startup {<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; wfc-timeout&nbsp; 15;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; degr-wfc-timeout 60;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; device /dev/drbd1 minor 1;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk /dev/vg2/vserverLV;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; meta-disk internal;<br>
<br>
# following 2 definition are equivalent<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; on server1 {<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; address 192.168.1.129:7801;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk /dev/vg2/vserverLV;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; on server2 {<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; address 192.168.1.128:7801;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; disk /dev/vg2/vserverLV;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<br>
<br>
#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; floating 192.168.5.41:7801;<br>
#&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; floating 192.168.5.42:7801;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; net {<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cram-hmac-alg sha1;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; shared-secret "secret";<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; after-sb-0pri discard-younger-primary; #discard-zero-changes;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; after-sb-1pri discard-secondary;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; after-sb-2pri call-pri-lost-after-sb;<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; }<br>
}<br>
c)&nbsp; A few times, the "fs_vservers" seems to have started, but generally after a reboot we get:<br>
<br>
Last updated: Fri Mar&nbsp; 1 11:07:48 2013<br>
Stack: openais<br>
Current DC: server1 - partition with quorum<br>
Version: 1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b<br>
2 Nodes configured, 2 expected votes<br>
3 Resources configured.<br>
============<br>
<br>
Online: [ server2 server1 ]<br>
<br>
&nbsp;app_ip&nbsp;&nbsp;&nbsp; (ocf::heartbeat:IPaddr):&nbsp;&nbsp;&nbsp; Started server2<br>
&nbsp;Master/Slave Set: ms_drbd<br>
&nbsp;&nbsp;&nbsp;&nbsp; Masters: [ server1 ]<br>
&nbsp;&nbsp;&nbsp;&nbsp; Slaves: [ server2 ]<br>
<br>
Failed actions:<br>
&nbsp;&nbsp;&nbsp; fs_vservers_start_0 (node=server2, call=5, rc=1, status=complete): unknown error<br>
&nbsp;&nbsp;&nbsp; fs_vservers_start_0 (node=server1, call=8, rc=1, status=complete): unknown error<br>
<br>
<br>
Our understanding from your last note is we want our LVM to start on it's own, and start before DRBD.&nbsp; We don't see it doing so in the boot posts we can see (ctrl-alt-f1), but do see it after boot if we do "lvdisplay".&nbsp; We can "mount /dev/drbd1 /vservers" by hand, but assume that is a symptom not a solution.&nbsp; Likewi<font size="2">s</font>e, we have to comment out the LVM statement in fstab (#/dev/drbd1 /vservers ext4&nbsp;&nbsp;&nbsp; defaults&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2) as we can't boot with it un-commented without getting a "Control D" situation.<br>
<br>
<font size="2">Any thoughts would be great!&nbsp; Thanks,<br>
<br>
<font size="2">Ted</font><br>
</font><font color="black" face="arial" size="2">

<div> <br>

</div>



<div> <br>

</div>



<div> <br>

</div>



<div style="font-family:arial,helvetica;font-size:10pt;color:black">-----Original Message-----<br>

From: Andreas Kurz &lt;andreas@hastexo.com&gt;<br>

To: pacemaker &lt;pacemaker@oss.clusterlabs.org&gt;<br>

Sent: Thu, Feb 28, 2013 6:15 pm<br>

Subject: Re: [Pacemaker] Trouble with DRBD mount<br>

<br>









<div id="AOLMsgPart_0_08d11a9a-0860-433f-930a-9cf6a29ea651" style="margin: 0px;font-family: Tahoma, Verdana, Arial, Sans-Serif;font-size: 12px;color: #000;background-color: #fff;">

<pre style="font-size: 9pt;"><tt>On 2013-02-28 13:19, <a href="mailto:senrabdet@aol.com">senrabdet@aol.com</a> wrote:
&gt; Hi All:
&gt; 
&gt; We are stuck trying to get pacemaker to work with DRBD, and having tried
&gt; various alternatives can't get our "drbd1" to mount and get some errors.
&gt; 
&gt; NOTE:  we are trying to get pacemaker to work with an existing Encrypted
&gt; RAID1 LVM setup - is this impossible or a "just plain bad idea"?   We
&gt; were thinking we'd like the potential advantages of local RAID on each
&gt; box as well as the Internet RAID &amp; failover provided by DRBD/pacemaker.
&gt;  We're using Debian Squeeze.  Per various instructions, we've disabled
&gt; the DRBD boot init (update-rc.d -f drbd remove) and set the LVM filter
&gt; to filter = [ "a|drbd.*|", "r|.*|" ].

so you only allow scanning for LVM signatures on DRBD ... that needs to
be in Primary mode before ....

&gt; 
&gt; FYI - we've commented out the LVM mount "/dev/vg2/vserverLV" in our
&gt; fstab, and consistently seem to need to do this to avoid a boot error.
&gt; 
&gt; We think DRBD works until we add in the pacemaker steps (i.e.,
&gt; "dev/drbd1" mounts at boot; we can move related data from server1 to
&gt; server2 back and forth, though need to use the command line to
&gt; accomplish this).  We've seen various statements on the net that suggest
&gt; it is viable to use a "mapper" disk choice in drbd.conf.  Also, if we
&gt; start by configuring Pacemaker for a simple IP failover, that works
&gt; (i.e., no errors, we can ping via the fail over address) but stops
&gt; working when we add in the DRBD primatives and related statements.  Our
&gt; suspicion (other than maybe "you can't do this with existing RAID") is
&gt; that we're using the wrong "disk" statement in our drbd.conf or maybe in
&gt; our "primitive fs_vservers" statement, though we've tried lots of
&gt; alternatives and this is the same drbd.conf we use before adding in
&gt; Pacemaker and it seems to work at that point.
&gt; 
&gt; Lastly, while various config statements refer to "vservers", we have not
&gt; gotten to the point of trying to add any data to the DRBD devices other
&gt; than a few text files that have disappeared since doing our "crm" work.
&gt; 
&gt; Any help appreciated!  Thanks, Ted
&gt; 
&gt; CONFIGS/LOGS
&gt; 
&gt; A) drbd.conf
&gt; 
&gt; global { usage-count no; }
&gt; common { syncer { rate 100M; } }
&gt; #original
&gt; resource r1 {
&gt;         protocol C;
&gt; startup {
&gt;                 wfc-timeout  15;
&gt;                 degr-wfc-timeout 60;
&gt;         }
&gt;         device /dev/drbd1 minor 1;
&gt;           disk /dev/vg2/vserverLV;

so vg2/vserverLV is the lower-level device for DRBD, simply let vg2 be
automatically activated and forget that LVM filter thing you did, that
is only needed for vgs sitting _on_ DRBD, not below.

&gt;         meta-disk internal;
&gt; 
&gt; # following 2 definition are equivalent
&gt;         on server1 {
&gt;                 address 192.168.1.129:7801;
&gt;                  disk /dev/vg2/vserverLV;
&gt;         }
&gt;         on server2 {
&gt;                 address 192.168.1.128:7801;
&gt;                  disk /dev/vg2/vserverLV;
&gt; #disk /dev/mapper/md2_crypt;
&gt;         }
&gt; 
&gt; #       floating 192.168.5.41:7801;
&gt; #       floating 192.168.5.42:7801;
&gt;          net {
&gt; cram-hmac-alg sha1;
&gt;                 shared-secret "secret";
&gt;                   after-sb-0pri discard-younger-primary;
&gt; #discard-zero-changes;
&gt;                   after-sb-1pri discard-secondary;
&gt;                   after-sb-2pri call-pri-lost-after-sb;
&gt;         }
&gt; }
&gt; 
&gt; 
&gt; B) Pacemaker Config
&gt; 
&gt; crm configure show
&gt; node server1
&gt; node server2
&gt; primitive app_ip ocf:heartbeat:IPaddr \
&gt; params ip="192.168.1.152" \
&gt; op monitor interval="30s"
&gt; primitive drbd ocf:linbit:drbd \
&gt; params drbd_resource="r1" \
&gt; op start interval="0" timeout="240" \
&gt; op stop interval="0" timeout="100" \
&gt; op monitor interval="59s" role="Master" timeout="30s" \
&gt; op monitor interval="60s" role="Slave" timeout="30s"
&gt; primitive fs_vservers ocf:heartbeat:Filesystem \
&gt; params device="/dev/drbd1" directory="/vservers" fstype="ext4" \
&gt; op start interval="0" timeout="60" \
&gt; op stop interval="0" timeout="120"
&gt; primitive vg2 ocf:heartbeat:LVM \
&gt; params volgrpname="vg2" exclusive="true" \

simply remove all that LVM things from your pacemaker configuration

&gt; op start interval="0" timeout="30" \
&gt; op stop interval="0" timeout="30"
&gt; group lvm app_ip vg2 fs_vservers

ouch .. a group called "lvm", am I the only one who thinks this is
confusing?

&gt; ms ms_drbd drbd \
&gt; meta master-node-max="1" clone-max="2" clone-node-max="1"
&gt; globally-unique="false" notify="true" target-role="Master"
&gt; location drbd_on_node1 ms_drbd \
&gt; rule $id="drbd_on_node1-rule" $role="master" 100: #uname eq server1
&gt; colocation vserver-deps inf: ms_drbd:Master lvm

wrong direction  .. you want the group follow the DRBD master

Regards,
Andreas

-- 
Need help with Pacemaker?
<a href="http://www.hastexo.com/now" target="_blank">http://www.hastexo.com/now</a>


&gt; order app_on_drbd inf: ms_drbd:promote lvm:start
&gt; property $id="cib-bootstrap-options" \
&gt; dc-version="1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b" \
&gt; cluster-infrastructure="openais" \
&gt; expected-quorum-votes="2" \
&gt; stonith-enabled="false" \
&gt; no-quorum-policy="ignore"
&gt; 
&gt; 
&gt; 
&gt; C)  crm status results (with errors)
&gt; Last updated: Wed Feb 27 19:05:57 2013
&gt; Stack: openais
&gt; Current DC: server1 - partition with quorum
&gt; Version: 1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b
&gt; 2 Nodes configured, 2 expected votes
&gt; 2 Resources configured.
&gt; ============
&gt; 
&gt; Online: [ server2 server1 ]
&gt; 
&gt; 
&gt; Migration summary:
&gt; * Node server2: 
&gt;    drbd:1: migration-threshold=1000000 fail-count=1000000
&gt; * Node server1: 
&gt;    drbd:0: migration-threshold=1000000 fail-count=1000000
&gt; 
&gt; Failed actions:
&gt;     drbd:1_start_0 (node=server2, call=8, rc=-2, status=Timed Out):
&gt; unknown exec error
&gt;     drbd:0_start_0 (node=server1, call=6, rc=-2, status=Timed Out):
&gt; unknown exec error
&gt; 
&gt; D)  Mount
&gt; 
&gt; /dev/mapper/vg1-root on / type ext4 (rw,errors=remount-ro)
&gt; tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
&gt; proc on /proc type proc (rw,noexec,nosuid,nodev)
&gt; sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
&gt; udev on /dev type tmpfs (rw,mode=0755)
&gt; tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
&gt; devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)
&gt; /dev/md0 on /boot type ext4 (rw)
&gt; /dev/mapper/vg1-home on /home type ext4 (rw)
&gt; /dev/mapper/vg1-tmp on /tmp type ext4 (rw)
&gt; /dev/mapper/vg1-usr on /usr type ext4 (rw)
&gt; /dev/mapper/vg1-var on /var type ext4 (rw)
&gt; fusectl on /sys/fs/fuse/connections type fusectl (rw)
&gt; 
&gt; 
&gt; E)  fstab
&gt; 
&gt; # /etc/fstab: static file system information.
&gt; #
&gt; # Use 'blkid' to print the universally unique identifier for a
&gt; # device; this may be used with UUID= as a more robust way to name devices
&gt; # that works even if disks are added and removed. See fstab(5).
&gt; #
&gt; # &lt;file system&gt; &lt;mount point&gt;   &lt;type&gt;  &lt;options&gt;       &lt;dump&gt;  &lt;pass&gt;
&gt; proc            /proc           proc    defaults        0       0
&gt; /dev/mapper/vg1-root /               ext4    errors=remount-ro 0       1
&gt; # /boot was on /dev/md0 during installation
&gt; UUID=25829c6c-164c-4a1e-9e84-6bab180e38f4 /boot           ext4  
&gt;  defaults        0       2
&gt; /dev/mapper/vg1-home /home           ext4    defaults        0       2
&gt; /dev/mapper/vg1-tmp /tmp            ext4    defaults        0       2
&gt; /dev/mapper/vg1-usr /usr            ext4    defaults        0       2
&gt; /dev/mapper/vg1-var /var            ext4    defaults        0       2
&gt; #/dev/mapper/vg2-vserverLV /vservers       ext4    defaults        0       2
&gt; /dev/mapper/vg1-swap none            swap    sw              0       0
&gt; /dev/scd0       /media/cdrom0   udf,iso9660 user,noauto     0       0
&gt; /dev/scd1       /media/cdrom1   udf,iso9660 user,noauto     0       0
&gt; /dev/fd0        /media/floppy0  auto    rw,user,noauto  0       0
&gt; 
&gt; 
&gt; F)  fdisk -l
&gt; 
&gt; Disk /dev/sda: 160.0 GB, 160041885696 bytes
&gt; 255 heads, 63 sectors/track, 19457 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x0007c7a2
&gt; 
&gt;    Device Boot      Start         End      Blocks   Id  System
&gt; /dev/sda1   *           1          61      487424   fd  Linux raid
&gt; autodetect
&gt; Partition 1 does not end on cylinder boundary.
&gt; /dev/sda2              61        1885    14648320   fd  Linux raid
&gt; autodetect
&gt; /dev/sda3            1885        3101     9765888   fd  Linux raid
&gt; autodetect
&gt; 
&gt; Disk /dev/sdb: 203.9 GB, 203928109056 bytes
&gt; 255 heads, 63 sectors/track, 24792 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x0008843c
&gt; 
&gt;    Device Boot      Start         End      Blocks   Id  System
&gt; /dev/sdb1   *           1          61      487424   fd  Linux raid
&gt; autodetect
&gt; Partition 1 does not end on cylinder boundary.
&gt; /dev/sdb2              61        1885    14648320   fd  Linux raid
&gt; autodetect
&gt; /dev/sdb3            1885        3101     9765888   fd  Linux raid
&gt; autodetect
&gt; 
&gt; Disk /dev/md0: 499 MB, 499109888 bytes
&gt; 2 heads, 4 sectors/track, 121853 cylinders
&gt; Units = cylinders of 8 * 512 = 4096 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/md1: 15.0 GB, 14998757376 bytes
&gt; 2 heads, 4 sectors/track, 3661806 cylinders
&gt; Units = cylinders of 8 * 512 = 4096 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x08040000
&gt; 
&gt; 
&gt; Disk /dev/md2: 9999 MB, 9999147008 bytes
&gt; 2 heads, 4 sectors/track, 2441198 cylinders
&gt; Units = cylinders of 8 * 512 = 4096 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x08040000
&gt; 
&gt; 
&gt; Disk /dev/dm-0: 15.0 GB, 14997704704 bytes
&gt; 255 heads, 63 sectors/track, 1823 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-1: 3997 MB, 3997171712 bytes
&gt; 255 heads, 63 sectors/track, 485 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-2: 1996 MB, 1996488704 bytes
&gt; 255 heads, 63 sectors/track, 242 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-3: 1996 MB, 1996488704 bytes
&gt; 255 heads, 63 sectors/track, 242 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-4: 3997 MB, 3997171712 bytes
&gt; 255 heads, 63 sectors/track, 485 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-5: 1996 MB, 1996488704 bytes
&gt; 255 heads, 63 sectors/track, 242 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-6: 499 MB, 499122176 bytes
&gt; 255 heads, 63 sectors/track, 60 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; 
&gt; Disk /dev/dm-7: 9998 MB, 9998094336 bytes
&gt; 255 heads, 63 sectors/track, 1215 cylinders
&gt; Units = cylinders of 16065 * 512 = 8225280 bytes
&gt; Sector size (logical/physical): 512 bytes / 512 bytes
&gt; I/O size (minimum/optimal): 512 bytes / 512 bytes
&gt; Disk identifier: 0x00000000
&gt; 
&gt; G)  syslog excerpt
&gt; 
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) Command '
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) drbdsetup
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) 1
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) disk
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) /dev/vg2/vserverLV
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) /dev/vg2/vserverLV
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) internal
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) --set-defaults
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr)  
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) --create-device
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) ' terminated with exit code 20
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) drbdadm attach r1: exited with code 20
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Called drbdadm -c
&gt; /etc/drbd.conf --peer server2 up r1
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Exit code 1
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Command output: 
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stdout) 
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) Can not open device '/dev/vg2/vserverLV': No
&gt; such file or directory
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) Command 'drbdsetup 1 disk /dev/vg2/vserverLV 
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) /dev/vg2/vserverLV internal --set-defaults
&gt; --create-device' terminated with exit code 20#012drbdadm attach r1:
&gt; exited with code 20
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Called drbdadm -c
&gt; /etc/drbd.conf --peer server2 up r1
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Exit code 1
&gt; Feb 27 06:36:22 server1 drbd[2329]: ERROR: r1: Command output: 
&gt; Feb 27 06:36:22 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stdout) 
&gt; Feb 27 06:36:23 server1 lrmd: [1705]: info: RA output:
&gt; (p_drbd_r1:0:start:stderr) Can not open device '/dev/vg2/vserverLV': No
&gt; such file or directory
&gt; 
&gt; 
&gt; 
&gt; 
&gt; 
&gt; 
&gt; 
&gt; _______________________________________________
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a>
&gt; 
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a>
&gt; 




_______________________________________________
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a>

Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a>
</tt></pre>
</div>

 <!-- end of AOLMsgPart_0_08d11a9a-0860-433f-930a-9cf6a29ea651 -->



</div>

</font></font>