<div dir="ltr"><div><br><div class="gmail_extra"><div class="gmail_quote">2015-01-27 17:58 GMT+01:00 Dejan Muhamedagic <span dir="ltr">&lt;<a href="mailto:dejanmm@fastmail.fm" target="_blank">dejanmm@fastmail.fm</a>&gt;</span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class="">On Tue, Jan 27, 2015 at 03:18:13PM +0100, Oscar Salvador wrote:<br>
&gt;  Hi,<br>
&gt;<br>
&gt; I&#39;ve checked the resource graphs I have, and the resources were fine, so I<br>
&gt; think it&#39;s not a problem due to a high use of memory or something like that.<br>
&gt; And unfortunately I don&#39;t have a core dump to analize(I&#39;ll enable it for a<br>
&gt; future case) so the only thing I have are the logs.<br>
&gt;<br>
&gt; For the line below, I though that was the process in charge to monitore<br>
&gt; nginx what was killed due to a segfault:<br>
&gt;<br>
&gt; RA output: (Nginx-rsc:monitor:stderr) Segmentation fault<br>
<br>
</span>This is just output captured during the execution of the RA<br>
monitor action. It could&#39;ve been anything within the RA (which is<br>
just a shell script) to segfault.<br></blockquote><div><br></div><div>Hi,<div><br></div><div>Yes, I see.</div><div>I&#39;ve enabled core dumps on the system, so the next time I&#39;ll be able to check what is causing this.</div><div><br></div><div>Thank you very much</div><div>Oscar Salvador</div></div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<br>
Thanks,<br>
<br>
Dejan<br>
<div class=""><div class="h5"><br>
&gt; I&#39;ve checked the Nginx logs, and there is nothing worth there, actually<br>
&gt; there is no activity, so I think it has to be something internal what<br>
&gt; caused the failure.<br>
&gt; I&#39;ll enable coredumps, it&#39;s the only thing I can do for now.<br>
&gt;<br>
&gt; Thank you very much<br>
&gt;<br>
&gt; Oscar<br>
&gt;<br>
&gt; 2015-01-27 10:39 GMT+01:00 Dejan Muhamedagic &lt;<a href="mailto:dejanmm@fastmail.fm">dejanmm@fastmail.fm</a>&gt;:<br>
&gt;<br>
&gt; &gt; Hi,<br>
&gt; &gt;<br>
&gt; &gt; On Mon, Jan 26, 2015 at 06:20:35PM +0100, Oscar Salvador wrote:<br>
&gt; &gt; &gt; Hi!<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I&#39;m writing here because two days ago I experienced a strange problem in<br>
&gt; &gt; my<br>
&gt; &gt; &gt; Pacemaker Cluster.<br>
&gt; &gt; &gt; Everything was working fine, till suddenly a Segfault in Nginx monitor<br>
&gt; &gt; &gt; resource happened:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jan 25 03:55:24 lb02 crmd: [9975]: notice: run_graph: ==== Transition<br>
&gt; &gt; 7551<br>
&gt; &gt; &gt; (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>
&gt; &gt; &gt; Source=/var/lib/pengine/pe-input-90.bz2): Complete<br>
&gt; &gt; &gt; Jan 25 03:55:24 lb02 crmd: [9975]: notice: do_state_transition: State<br>
&gt; &gt; &gt; transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS<br>
&gt; &gt; &gt; cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt; &gt; &gt; Jan 25 04:00:08 lb02 cib: [9971]: info: cib_stats: Processed 1 operations<br>
&gt; &gt; &gt; (0.00us average, 0% utilization) in the last 10min<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: info: crm_timer_popped: PEngine<br>
&gt; &gt; Recheck<br>
&gt; &gt; &gt; Timer (I_PE_CALC) just popped (900000ms)<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: notice: do_state_transition: State<br>
&gt; &gt; &gt; transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC<br>
&gt; &gt; cause=C_TIMER_POPPED<br>
&gt; &gt; &gt; origin=crm_timer_popped ]<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: info: do_state_transition: Progressed<br>
&gt; &gt; to<br>
&gt; &gt; &gt; state S_POLICY_ENGINE after C_TIMER_POPPED<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 pengine: [10028]: WARN: unpack_rsc_op: Processing<br>
&gt; &gt; &gt; failed op Ldirector-rsc_last_failure_0 on lb02: not running (7)<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 pengine: [10028]: notice: common_apply_stickiness:<br>
&gt; &gt; &gt; Ldirector-rsc can fail 999997 more times on lb02 before being forced off<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: notice: do_state_transition: State<br>
&gt; &gt; &gt; transition S_POLICY_ENGINE -&gt; S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>
&gt; &gt; &gt; cause=C_IPC_MESSAGE origin=handle_response ]<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 pengine: [10028]: notice: process_pe_message:<br>
&gt; &gt; &gt; Transition 7552: PEngine Input stored in:<br>
&gt; &gt; /var/lib/pengine/pe-input-90.bz2<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: info: do_te_invoke: Processing graph<br>
&gt; &gt; &gt; 7552 (ref=pe_calc-dc-1422155424-7644) derived from<br>
&gt; &gt; &gt; /var/lib/pengine/pe-input-90.bz2<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: notice: run_graph: ==== Transition<br>
&gt; &gt; 7552<br>
&gt; &gt; &gt; (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>
&gt; &gt; &gt; Source=/var/lib/pengine/pe-input-90.bz2): Complete<br>
&gt; &gt; &gt; Jan 25 04:10:24 lb02 crmd: [9975]: notice: do_state_transition: State<br>
&gt; &gt; &gt; transition S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS<br>
&gt; &gt; &gt; cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 lrmd: [9972]: info: RA output:<br>
&gt; &gt; &gt; (Nginx-rsc:monitor:stderr) Segmentation fault   ******* here it starts<br>
&gt; &gt;<br>
&gt; &gt; What exactly did segfault? Do you have a core dump to examine?<br>
&gt; &gt;<br>
&gt; &gt; &gt; As you can see, the last line.<br>
&gt; &gt; &gt; And then:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 lrmd: [9972]: info: RA output:<br>
&gt; &gt; &gt; (Nginx-rsc:monitor:stderr) Killed<br>
&gt; &gt; &gt; /usr/lib/ocf/resource.d//heartbeat/nginx: 910:<br>
&gt; &gt; &gt; /usr/lib/ocf/resource.d//heartbeat/nginx: Cannot fork<br>
&gt; &gt;<br>
&gt; &gt; This could be related to the segfault, or due to other serious<br>
&gt; &gt; system error.<br>
&gt; &gt;<br>
&gt; &gt; &gt; I guess here Nginx was killed.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; And then I have some others errors till Pacemaker decide to move the<br>
&gt; &gt; &gt; resources to the node:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: info: process_lrm_event: LRM operation<br>
&gt; &gt; &gt; Nginx-rsc_monitor_10000 (call=52, rc=2, cib-update=7633, confirmed=false)<br>
&gt; &gt; &gt; invalid parameter<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: info: process_graph_event: Detected<br>
&gt; &gt; &gt; action Nginx-rsc_monitor_10000 from a different transition: 5739 vs. 7552<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: info: abort_transition_graph:<br>
&gt; &gt; &gt; process_graph_event:476 - Triggered transition abort (complete=1,<br>
&gt; &gt; &gt; tag=lrm_rsc_op, id=Nginx-rsc_last_failure_0,<br>
&gt; &gt; &gt; magic=0:2;4:5739:0:42d1ed53-9686-4174-84e7-d2c230ed8832, cib=<br>
&gt; &gt; &gt; 3.14.40) : Old event<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: WARN: update_failcount: Updating<br>
&gt; &gt; &gt; failcount for Nginx-rsc on lb02 after failed monitor: rc=2<br>
&gt; &gt; (update=value++,<br>
&gt; &gt; &gt; time=1422155430)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: notice: do_state_transition: State<br>
&gt; &gt; &gt; transition S_IDLE -&gt; S_POLICY_ENGINE [ input=I_PE_CALC<br>
&gt; &gt; cause=C_FSA_INTERNAL<br>
&gt; &gt; &gt; origin=abort_transition_graph ]<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 attrd: [9974]: info: log-rotate detected on logfile<br>
&gt; &gt; &gt; /var/log/ha-log<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 attrd: [9974]: notice: attrd_trigger_update: Sending<br>
&gt; &gt; &gt; flush op to all hosts for: fail-count-Nginx-rsc (1)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: ERROR: unpack_rsc_op: Preventing<br>
&gt; &gt; &gt; Nginx-rsc from re-starting on lb02: operation monitor failed &#39;invalid<br>
&gt; &gt; &gt; parameter&#39; (rc=2)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: WARN: unpack_rsc_op: Processing<br>
&gt; &gt; &gt; failed op Nginx-rsc_last_failure_0 on lb02: invalid parameter (2)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: WARN: unpack_rsc_op: Processing<br>
&gt; &gt; &gt; failed op Ldirector-rsc_last_failure_0 on lb02: not running (7)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: common_apply_stickiness:<br>
&gt; &gt; &gt; Ldirector-rsc can fail 999997 more times on lb02 before being forced off<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Stop<br>
&gt; &gt; &gt;  IP-rsc_mysql (lb02)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Stop<br>
&gt; &gt; &gt;  IP-rsc_nginx (lb02)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Stop<br>
&gt; &gt; &gt;  IP-rsc_nginx6        (lb02)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Stop<br>
&gt; &gt; &gt;  IP-rsc_elasticsearch (lb02)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Move<br>
&gt; &gt; &gt;  Ldirector-rsc        (Started lb02 -&gt; lb01)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: notice: LogActions: Move<br>
&gt; &gt; &gt;  Nginx-rsc    (Started lb02 -&gt; lb01)<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 attrd: [9974]: notice: attrd_perform_update: Sent<br>
&gt; &gt; &gt; update 23: fail-count-Nginx-rsc=1<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 attrd: [9974]: notice: attrd_trigger_update: Sending<br>
&gt; &gt; &gt; flush op to all hosts for: last-failure-Nginx-rsc (1422155430)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I see that Pacemaker is complaining about some errors like &quot;invalid<br>
&gt; &gt; &gt; paraemter&quot;, for example in these lines:<br>
&gt; &gt;<br>
&gt; &gt; That error code is what the nginx RA exited with. It&#39;s unusual,<br>
&gt; &gt; but perhaps also due to the segfault.<br>
&gt; &gt;<br>
&gt; &gt; Thanks,<br>
&gt; &gt;<br>
&gt; &gt; Dejan<br>
&gt; &gt;<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 crmd: [9975]: info: process_lrm_event: LRM operation<br>
&gt; &gt; &gt; Nginx-rsc_monitor_10000 (call=52, rc=2, cib-update=7633, confirmed=false)<br>
&gt; &gt; &gt; invalid parameter<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Jan 25 04:10:30 lb02 pengine: [10028]: ERROR: unpack_rsc_op: Preventing<br>
&gt; &gt; &gt; Nginx-rsc from re-starting on lb02: operation monitor failed &#39;invalid<br>
&gt; &gt; &gt; parameter&#39; (rc=2)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; It sounds(for me) like a syntax problem defining the resources, but I&#39;ve<br>
&gt; &gt; &gt; checked the confic with crm_verify and there is no error:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; root# (S) crm_verify -LVV<br>
&gt; &gt; &gt; root# (S)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; So I&#39;m just wondering why pacemaker is complaining about an invalid<br>
&gt; &gt; &gt; parameter.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; This is my CIB objetcs:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; node $id=&quot;43b2c5a1-9552-4438-962b-6e98a2dd67c7&quot; lb01<br>
&gt; &gt; &gt; node $id=&quot;68328520-68e0-42fd-9adf-062655691643&quot; lb02<br>
&gt; &gt; &gt; primitive IP-rsc_elasticsearch ocf:heartbeat:IPaddr2 \<br>
&gt; &gt; &gt; params ip=&quot;xx.xx.xx.xx&quot; nic=&quot;eth0&quot; cidr_netmask=&quot;255.255.255.224&quot;<br>
&gt; &gt; &gt; primitive IP-rsc_elasticsearch6 ocf:heartbeat:IPv6addr \<br>
&gt; &gt; &gt; params ipv6addr=&quot;xxxxxxxxxxxxxxxx&quot; \<br>
&gt; &gt; &gt; op monitor interval=&quot;10s&quot;<br>
&gt; &gt; &gt; primitive IP-rsc_mysql ocf:heartbeat:IPaddr2 \<br>
&gt; &gt; &gt; params ip=&quot;xx.xx.xx.xx&quot; nic=&quot;eth0&quot; cidr_netmask=&quot;255.255.255.224&quot;<br>
&gt; &gt; &gt; primitive IP-rsc_mysql6 ocf:heartbeat:IPv6addr \<br>
&gt; &gt; &gt; params ipv6addr=&quot;xxxxxxxxxxxxxx&quot; \<br>
&gt; &gt; &gt; op monitor interval=&quot;10s&quot;<br>
&gt; &gt; &gt; primitive IP-rsc_nginx ocf:heartbeat:IPaddr2 \<br>
&gt; &gt; &gt; params ip=&quot;xx.xx.xx.xx&quot; nic=&quot;eth0&quot; cidr_netmask=&quot;255.255.255.224&quot;<br>
&gt; &gt; &gt; primitive IP-rsc_nginx6 ocf:heartbeat:IPv6addr \<br>
&gt; &gt; &gt; params ipv6addr=&quot;xxxxxxxxxxxxxx&quot; \<br>
&gt; &gt; &gt; op monitor interval=&quot;10s&quot;<br>
&gt; &gt; &gt; primitive Ldirector-rsc ocf:heartbeat:ldirectord \<br>
&gt; &gt; &gt; op monitor interval=&quot;10s&quot; timeout=&quot;30s&quot;<br>
&gt; &gt; &gt; primitive Nginx-rsc ocf:heartbeat:nginx \<br>
&gt; &gt; &gt; op monitor interval=&quot;10s&quot; timeout=&quot;30s&quot;<br>
&gt; &gt; &gt; location cli-standby-IP-rsc_elasticsearch6 IP-rsc_elasticsearch6 \<br>
&gt; &gt; &gt; rule $id=&quot;cli-standby-rule-IP-rsc_elasticsearch6&quot; -inf: #uname eq lb01<br>
&gt; &gt; &gt; location cli-standby-IP-rsc_mysql IP-rsc_mysql \<br>
&gt; &gt; &gt; rule $id=&quot;cli-standby-rule-IP-rsc_mysql&quot; -inf: #uname eq lb01<br>
&gt; &gt; &gt; location cli-standby-IP-rsc_mysql6 IP-rsc_mysql6 \<br>
&gt; &gt; &gt; rule $id=&quot;cli-standby-rule-IP-rsc_mysql6&quot; -inf: #uname eq lb01<br>
&gt; &gt; &gt; location cli-standby-IP-rsc_nginx IP-rsc_nginx \<br>
&gt; &gt; &gt; rule $id=&quot;cli-standby-rule-IP-rsc_nginx&quot; -inf: #uname eq lb01<br>
&gt; &gt; &gt; location cli-standby-IP-rsc_nginx6 IP-rsc_nginx6 \<br>
&gt; &gt; &gt; rule $id=&quot;cli-standby-rule-IP-rsc_nginx6&quot; -inf: #uname eq lb01<br>
&gt; &gt; &gt; colocation hcu_c inf: Nginx-rsc Ldirector-rsc IP-rsc_mysql IP-rsc_nginx<br>
&gt; &gt; &gt; IP-rsc_nginx6 IP-rsc_elasticsearch<br>
&gt; &gt; &gt; order hcu_o inf: IP-rsc_nginx IP-rsc_nginx6 IP-rsc_mysql Ldirector-rsc<br>
&gt; &gt; &gt; Nginx-rsc IP-rsc_elasticsearch<br>
&gt; &gt; &gt; property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt; &gt; &gt; dc-version=&quot;1.1.7-ee0730e13d124c3d58f00016c3376a1de5323cff&quot; \<br>
&gt; &gt; &gt; cluster-infrastructure=&quot;Heartbeat&quot; \<br>
&gt; &gt; &gt; stonith-enabled=&quot;false<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Do you have some hints that I can follow?<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thanks in advance!<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Oscar<br>
&gt; &gt;<br>
&gt; &gt; &gt; _______________________________________________<br>
&gt; &gt; &gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; &gt; &gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; &gt; &gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; &gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt; &gt;<br>
&gt; &gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; &gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; &gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt; &gt;<br>
<br>
&gt; _______________________________________________<br>
&gt; Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
&gt; <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div></div></div>