I have a similar setup running with this simple configuration:<br><br>node mexico<br>node washington<br>primitive LDAP lsb:openldap \<br>        op monitor interval=&quot;30s&quot;<br>primitive masterIP ocf:heartbeat:IPaddr \<br>
        params ip=&quot;XXX.XXX.XXX.XXX&quot; cidr_netmask=&quot;21&quot; \<br>        meta migration-threshold=&quot;3&quot;<br>primitive pingd ocf:pacemaker:ping \<br>        params dampen=&quot;5s&quot; multiplier=&quot;1000&quot; host_list=&quot;XXX.XXX.XXX.XXX&quot; \<br>
        op monitor interval=&quot;20s&quot; timeout=&quot;15s&quot;<br>clone LDAP-clone LDAP \<br>        meta target-role=&quot;Started&quot; is-managed=&quot;true&quot;<br>clone pingd-clone pingd \<br>        meta target-role=&quot;Started&quot;<br>
location cli-prefer-masterIP masterIP \<br>        rule $id=&quot;cli-prefer-rule-masterIP&quot; inf: #uname eq washington<br>location connected masterIP \<br>        rule $id=&quot;connected-rule&quot; -inf: not_defined pingd or pingd lte 0<br>
location primNode masterIP \<br>        rule $id=&quot;prefered_primNode&quot; 500: #uname eq washington<br>colocation IP_with_LDAP inf: masterIP LDAP-clone<br><br>Not on Amazon cloud but on a real hardware though. You can ignore pingd part.<br>
<br><div class="gmail_quote">On Mon, Jun 27, 2011 at 4:56 PM, veghead <span dir="ltr">&lt;<a href="mailto:sean@studyblue.com">sean@studyblue.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Serge Dubrouski &lt;sergeyfd@...&gt; writes:<br>
<div class="im">&gt; On Mon, Jun 27, 2011 at 3:33 PM, veghead &lt;sean &lt;at&gt; <a href="http://studyblue.com" target="_blank">studyblue.com</a>&gt; wrote:<br>
&gt; If I remove the co-location, won&#39;t the elastic_ip resource just stay where it<br>
&gt; is? Regardless of what happens to LDAP?<br>
&gt;<br>
&gt; Right. That&#39;s why I think that you don&#39;t really want to do it. You have<br>
&gt; to make sure that your IP is up where you LDAP is up. <br>
<br>
</div>Okay. So I took a step and revamped the configuration to test the elastic_ip<br>
less frequently and with a long timeout. I committed the changes, but &quot;crm<br>
status&quot; doesn&#39;t reflect the resources in question.<br>
<br>
Here&#39;s the new config:<br>
<br>
---snip---<br>
# crm configure show<br>
node $id=&quot;d2b294cf-328f-4481-aa2f-cc7b553e6cde&quot; ldap1.example.ec2<br>
node $id=&quot;e2a2e42e-1644-4f7d-8e54-71e1f7531e08&quot; ldap2.example.ec2<br>
primitive elastic_ip lsb:elastic-ip \<br>
        op monitor interval=&quot;30&quot; timeout=&quot;300&quot; on-fail=&quot;ignore&quot;<br>
<div class="im">requires=&quot;nothing&quot;<br>
primitive ldap lsb:dirsrv \<br>
        op monitor interval=&quot;15s&quot; on-fail=&quot;standby&quot; requires=&quot;nothing&quot;<br>
clone ldap-clone ldap<br>
</div><div class="im">colocation ldap-with-eip inf: elastic_ip ldap-clone<br>
</div><div class="im">order ldap-after-eip inf: elastic_ip ldap-clone<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
        dc-version=&quot;1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87&quot; \<br>
        cluster-infrastructure=&quot;Heartbeat&quot; \<br>
        stonith-enabled=&quot;false&quot; \<br>
        no-quorum-policy=&quot;ignore&quot; \<br>
        stop-all-resources=&quot;true&quot;<br>
rsc_defaults $id=&quot;rsc-options&quot; \<br>
        resource-stickiness=&quot;100&quot;<br>
---snip---<br>
<br>
</div>And here&#39;s the output from &quot;crm status&quot;:<br>
<br>
---snip---<br>
# crm status<br>
============<br>
Last updated: Mon Jun 27 18:50:14 2011<br>
Stack: Heartbeat<br>
Current DC: ldap2.studyblue.ec2 (e2a2e42e-1644-4f7d-8e54-71e1f7531e08) -<br>
partition with quorum<br>
Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87<br>
2 Nodes configured, unknown expected votes<br>
2 Resources configured.<br>
============<br>
<br>
Online: [ ldap1.example.ec2 ldap2.example.ec2 ]<br>
---snip---<br>
<br>
I restarted the nodes one at a time - first I restarted ldap2, then I restarted<br>
ldap1. When ldap1 went down, ldap2 stopped the ldap resource and didn&#39;t make any<br>
attempt to start the elastic_ip resource:<br>
<br>
---snip---<br>
pengine: [12910]: notice: unpack_config: On loss of CCM Quorum: Ignore<br>
pengine: [12910]: info: unpack_config: Node scores: &#39;red&#39; = -INFINITY, &#39;yellow&#39;<br>
= 0, &#39;green&#39; = 0<br>
pengine: [12910]: info: determine_online_status: Node ldap2.example.ec2 is<br>
online<br>
pengine: [12910]: notice: native_print: elastic_ip       (lsb:elastic-ip):<br>
Stopped<br>
pengine: [12910]: notice: clone_print:  Clone Set: ldap-clone<br>
pengine: [12910]: notice: short_print:      Stopped: [ ldap:0 ldap:1 ]<br>
pengine: [12910]: notice: LogActions: Leave   resource elastic_ip<br>
(Stopped)<br>
pengine: [12910]: notice: LogActions: Leave   resource ldap:0    (Stopped)<br>
pengine: [12910]: notice: LogActions: Leave   resource ldap:1    (Stopped)<br>
---snip---<br>
<br>
After heartbeat/pacemaker came back up on ldap1, it terminated the ldap service<br>
on ldap1. Now I&#39;m just confused.<br>
<div><div></div><div class="h5"><br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker" target="_blank">http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Serge Dubrouski.<br>