<html><head><style type="text/css"><!-- DIV {margin:0px;} --></style></head><body><div style="font-family:'times new roman', 'new york', times, serif;font-size:12pt"><div>Andrew,</div><div><br></div><div>Thanks for responding. &nbsp;Comments inline with &lt;Bob&gt;</div><div style="font-family:times new roman, new york, times, serif;font-size:12pt"><br><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><font size="2" face="Tahoma"><hr size="1"><b><span style="font-weight: bold;">From:</span></b> Andrew Beekhof &lt;andrew@beekhof.net&gt;<br><b><span style="font-weight: bold;">To:</span></b> The Pacemaker cluster resource manager &lt;pacemaker@oss.clusterlabs.org&gt;<br><b><span style="font-weight: bold;">Cc:</span></b> Bob Schatz &lt;bschatz@yahoo.com&gt;<br><b><span style="font-weight: bold;">Sent:</span></b> Tue, April 12, 2011 11:23:14 PM<br><b><span style="font-weight: bold;">Subject:</span></b> Re: [Pacemaker] Question regarding
 starting of master/slave resources and ELECTIONs<br></font><br>On Wed, Apr 13, 2011 at 4:54 AM, Bob Schatz &lt;<a ymailto="mailto:bschatz@yahoo.com" href="mailto:bschatz@yahoo.com">bschatz@yahoo.com</a>&gt; wrote:<br>&gt; Hi,<br>&gt; I am running Pacemaker 1.0.9 with Heartbeat 3.0.3.<br>&gt; I create 5 master/slave resources in /etc/ha.d/resource.d/startstop during<br>&gt; post-start.<br><br>I had no idea this was possible.&nbsp; Why would you do this?</div><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px">&lt;Bob&gt; &nbsp;We and I know of a couple of other companies, bundle LinuxHA/Pacemaker into an appliance. &nbsp;For me, when the appliance boots, it creates HA resources based on the hardware it discovers. &nbsp; I assumed that once POST-START was called in the startstop script and we have a DC then the cluster is up and running. &nbsp;I then use "crm"
 commands to create the configuration, etc. &nbsp;I further assumed that since we have one DC in the cluster then all "crm" commands which modify the configuration would be ordered even if the DC fails over to a different node. &nbsp;Is this incorrect?<br><br>&gt; I noticed that 4 of the master/slave resources will start right away but the<br>&gt; 5 master/slave resource seems to take a minute or so and I am only running<br>&gt; with one node.<br>&gt; Is this expected?<br><br>Probably, if the other 4 take around a minute each to start.<br>There is an lrmd config variable that controls how much parallelism it<br>allows (but i forget the name).</div><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px">&lt;Bob&gt; It's max-children and I set it to 40 for this test to see if it would change the behavior. &nbsp;(/sbin/lrmadmin -p max-children 40)<br><br>&gt; My
 configuration is below and I have also attached ha-debug.<br>&gt; Also, what triggers a crmd election?<br><br>Node up/down events and whenever someone replaces the cib (which the<br>shell used to do a lot).</div><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px">&lt;Bob&gt; For my test, I only started one node so that I could avoid node up/down events. &nbsp;I believe the log shows the cib being replaced. &nbsp;Since I am using crm then I assume it must be due to crm. &nbsp; Do the crm_resource, etc commands also replace the cib? &nbsp;Would that avoid elections as a result of cibs being replaced?</div><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px">Thanks,</div><div
 style="font-family:arial, helvetica, sans-serif;font-size:13px"><br></div><div style="font-family:arial, helvetica, sans-serif;font-size:13px">Bob<br><br>&gt; &nbsp;I seemed to have a lot of elections in<br>&gt; the attached log. &nbsp;I was assuming that on a single node I would only run the<br>&gt; election once in the beginning and then there would not be another one until<br>&gt; a new node joined.<br>&gt;<br>&gt; Thanks,<br>&gt; Bob<br>&gt;<br>&gt; My configuration is:<br>&gt; node $id="856c1f72-7cd1-4906-8183-8be87eef96f2" mgraid-s000030311-1<br>&gt; primitive SSJ000030312 ocf:omneon:ss \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params ss_resource="SSJ000030312"<br>&gt; ssconf="/var/omneon/config/config.J000030312" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="3s" role="Master" timeout="7s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="10s" role="Slave" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op
 stop interval="0" timeout="20" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="300"<br>&gt; primitive SSJ000030313 ocf:omneon:ss \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params ss_resource="SSJ000030313"<br>&gt; ssconf="/var/omneon/config/config.J000030313" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="3s" role="Master" timeout="7s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="10s" role="Slave" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op stop interval="0" timeout="20" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="300"<br>&gt; primitive SSJ000030314 ocf:omneon:ss \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params ss_resource="SSJ000030314"<br>&gt; ssconf="/var/omneon/config/config.J000030314" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="3s" role="Master" timeout="7s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor
 interval="10s" role="Slave" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op stop interval="0" timeout="20" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="300"<br>&gt; primitive SSJ000030315 ocf:omneon:ss \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params ss_resource="SSJ000030315"<br>&gt; ssconf="/var/omneon/config/config.J000030315" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="3s" role="Master" timeout="7s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="10s" role="Slave" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op stop interval="0" timeout="20" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="300"<br>&gt; primitive SSS000030311 ocf:omneon:ss \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params ss_resource="SSS000030311"<br>&gt; ssconf="/var/omneon/config/config.S000030311" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="3s"
 role="Master" timeout="7s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="10s" role="Slave" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op stop interval="0" timeout="20" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="300"<br>&gt; primitive icms lsb:S53icms \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="5s" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="5"<br>&gt; primitive mgraid-stonith stonith:external/mgpstonith \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;params hostlist="mgraid-canister" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="0" timeout="20s"<br>&gt; primitive omserver lsb:S49omserver \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op monitor interval="5s" timeout="7" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;op start interval="0" timeout="5"<br>&gt; ms ms-SSJ000030312 SSJ000030312 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp;
 &nbsp;meta clone-max="2" notify="true" globally-unique="false"<br>&gt; target-role="Started"<br>&gt; ms ms-SSJ000030313 SSJ000030313 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;meta clone-max="2" notify="true" globally-unique="false"<br>&gt; target-role="Started"<br>&gt; ms ms-SSJ000030314 SSJ000030314 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;meta clone-max="2" notify="true" globally-unique="false"<br>&gt; target-role="Started"<br>&gt; ms ms-SSJ000030315 SSJ000030315 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;meta clone-max="2" notify="true" globally-unique="false"<br>&gt; target-role="Started"<br>&gt; ms ms-SSS000030311 SSS000030311 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;meta clone-max="2" notify="true" globally-unique="false"<br>&gt; target-role="Started"<br>&gt; clone Fencing mgraid-stonith<br>&gt; clone cloneIcms icms<br>&gt; clone cloneOmserver omserver<br>&gt; location ms-SSJ000030312-master-w1 ms-SSJ000030312 \<br>&gt; &nbsp;&nbsp; &nbsp;
 &nbsp; &nbsp;rule $id="ms-SSJ000030312-master-w1-rule" $role="master" 100: #uname<br>&gt; eq mgraid-s000030311-0<br>&gt; location ms-SSJ000030313-master-w1 ms-SSJ000030313 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;rule $id="ms-SSJ000030313-master-w1-rule" $role="master" 100: #uname<br>&gt; eq mgraid-s000030311-0<br>&gt; location ms-SSJ000030314-master-w1 ms-SSJ000030314 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;rule $id="ms-SSJ000030314-master-w1-rule" $role="master" 100: #uname<br>&gt; eq mgraid-s000030311-0<br>&gt; location ms-SSJ000030315-master-w1 ms-SSJ000030315 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;rule $id="ms-SSJ000030315-master-w1-rule" $role="master" 100: #uname<br>&gt; eq mgraid-s000030311-0<br>&gt; location ms-SSS000030311-master-w1 ms-SSS000030311 \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;rule $id="ms-SSS000030311-master-w1-rule" $role="master" 100: #uname<br>&gt; eq mgraid-s000030311-0<br>&gt; order orderms-SSJ000030312 0:
 cloneIcms ms-SSJ000030312<br>&gt; order orderms-SSJ000030313 0: cloneIcms ms-SSJ000030313<br>&gt; order orderms-SSJ000030314 0: cloneIcms ms-SSJ000030314<br>&gt; order orderms-SSJ000030315 0: cloneIcms ms-SSJ000030315<br>&gt; order orderms-SSS000030311 0: cloneIcms ms-SSS000030311<br>&gt; property $id="cib-bootstrap-options" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;dc-version="1.0.9-89bd754939df5150de7cd76835f98fe90851b677" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;cluster-infrastructure="Heartbeat" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;dc-deadtime="5s" \<br>&gt; &nbsp;&nbsp; &nbsp; &nbsp; &nbsp;stonith-enabled="true"<br>&gt;<br>&gt;<br>&gt; _______________________________________________<br>&gt; Pacemaker mailing list: <a ymailto="mailto:Pacemaker@oss.clusterlabs.org" href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker"
 target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>&gt;<br>&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>&gt; Bugs:<br>&gt; <a href="http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker" target="_blank">http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker</a><br>&gt;<br>&gt;<br></div></div><div style="position:fixed"></div>


</div><br>

      </body></html>