Justin,<br><br>I don&#39;t use the installer. I just untar the package and set my PATH and PYTHONPATH appropriately. I didn&#39;t notice the updated boto requirement (README.rst needs an update). <br>After updating boto, it works fantastically. I tested 25 and then 50 nodes. Only 9 minutes to create a 50-node cluster of small instances. And I verified they are all registered as exec nodes. <br>
So far so good. We&#39;ll be giving it more rigorous testing over the next few days.<br><br>Thanks again for your effort in fixing the issue and making it so much faster.<br><br>jeff<br><br><div class="gmail_quote">On Wed, Apr 6, 2011 at 10:49 AM, Justin Riley <span dir="ltr">&lt;<a href="mailto:jtriley@mit.edu">jtriley@mit.edu</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="im">-----BEGIN PGP SIGNED MESSAGE-----<br>
Hash: SHA1<br>
<br>
</div>Hi Jeff,<br>
<br>
Did you reinstall after pulling the latest code using &quot;python setup.py<br>
install&quot;? If so, what version of boto do you have installed? You can<br>
check this with:<br>
<br>
% python -c &#39;import boto; print boto.Version&#39;<br>
2.0b4<br>
<br>
The version should be 2.0b4 as above.<br>
<br>
~Justin<br>
<div><div></div><div class="h5"><br>
On 04/06/2011 01:04 PM, Jeff White wrote:<br>
&gt; Hi Justin,<br>
&gt;<br>
&gt; Thanks much for your effort on this. I got this error upon running<br>
&gt; &#39;starcluster -s 25 start jswtest&#39;. I have not altered my config file<br>
&gt; from the one I sent you previously.<br>
&gt;<br>
&gt; PID: 5530 config.py:515 - DEBUG - Loading config<br>
&gt; PID: 5530 config.py:108 - DEBUG - Loading file:<br>
&gt; /home/jsw/.starcluster/config<br>
&gt; PID: 5530 config.py:515 - DEBUG - Loading config<br>
&gt; PID: 5530 config.py:108 - DEBUG - Loading file:<br>
&gt; /home/jsw/.starcluster/config<br>
&gt; PID: 5530 awsutils.py:54 - DEBUG - creating self._conn w/<br>
&gt; connection_authenticator kwargs = {&#39;path&#39;: &#39;/&#39;, &#39;region&#39;: None, &#39;port&#39;:<br>
&gt; None, &#39;is_secure&#39;: True}<br>
&gt; PID: 5530 start.py:167 - INFO - Using default cluster template: smallcluster<br>
&gt; PID: 5530 cluster.py:1310 - INFO - Validating cluster template settings...<br>
&gt; PID: 5530 cli.py:184 - DEBUG - Traceback (most recent call last):<br>
&gt;   File &quot;/home/jsw/jtriley-StarCluster-dfba6ef/starcluster/cli.py&quot;, line<br>
&gt; 160, in main<br>
&gt;     sc.execute(args)<br>
&gt;   File<br>
&gt; &quot;/home/jsw/jtriley-StarCluster-dfba6ef/starcluster/commands/start.py&quot;,<br>
&gt; line 175, in execute<br>
&gt;     scluster._validate(validate_running=validate_running)<br>
&gt;   File &quot;/home/jsw/jtriley-StarCluster-dfba6ef/starcluster/cluster.py&quot;,<br>
&gt; line 1322, in _validate<br>
&gt;     self._validate_instance_types()<br>
&gt;   File &quot;/home/jsw/jtriley-StarCluster-dfba6ef/starcluster/cluster.py&quot;,<br>
&gt; line 1458, in _validate_instance_types<br>
&gt;     self.__check_platform(node_image_id, node_instance_type)<br>
&gt;   File &quot;/home/jsw/jtriley-StarCluster-dfba6ef/starcluster/cluster.py&quot;,<br>
&gt; line 1419, in __check_platform<br>
&gt;     image_is_hvm = (image.virtualization_type == &quot;hvm&quot;)<br>
&gt; AttributeError: &#39;Image&#39; object has no attribute &#39;virtualization_type&#39;<br>
&gt;<br>
&gt; PID: 5530 cli.py:129 - ERROR - Oops! Looks like you&#39;ve found a bug in<br>
&gt; StarCluster<br>
&gt; PID: 5530 cli.py:130 - ERROR - Debug file written to:<br>
&gt; /tmp/starcluster-debug-jsw.log<br>
&gt; PID: 5530 cli.py:131 - ERROR - Look for lines starting with PID: 5530<br>
&gt; PID: 5530 cli.py:132 - ERROR - Please submit this file, minus any<br>
&gt; private information,<br>
&gt; PID: 5530 cli.py:133 - ERROR - to <a href="mailto:starcluster@mit.edu">starcluster@mit.edu</a><br>
</div></div>&gt; &lt;mailto:<a href="mailto:starcluster@mit.edu">starcluster@mit.edu</a>&gt;<br>
<div class="im">&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Wed, Apr 6, 2011 at 8:09 AM, Justin Riley &lt;<a href="mailto:justin.t.riley@gmail.com">justin.t.riley@gmail.com</a><br>
</div><div class="im">&gt; &lt;mailto:<a href="mailto:justin.t.riley@gmail.com">justin.t.riley@gmail.com</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt;     Jeff/Joseph,<br>
&gt;<br>
&gt;     Sorry for taking so long to follow up with this but I believe I&#39;ve<br>
&gt;     fixed this issue for good and you should now be able to launch 50+<br>
&gt;     node clusters without issue. My original feeling was that the SGE<br>
&gt;     install script was at fault, however, after several hours of digging I<br>
&gt;     discovered that ssh-keyscan was failing when there were a large number<br>
&gt;     of nodes. Long story short this meant that passwordless-ssh wasn&#39;t<br>
&gt;     being setup fully for all nodes and so the SGE installer script could<br>
&gt;     not connect to those nodes to add them to the queue. I found a much<br>
&gt;     better way to populate the known_hosts file with all the nodes using<br>
&gt;     paramiko instead of ssh-keyscan which is much faster in this case.<br>
&gt;<br>
&gt;     If you haven&#39;t already please re-run &#39;python setup.py install&#39; after<br>
&gt;     pulling the latest code to test out the latest changes. I&#39;ve also<br>
&gt;     updated StarCluster perform the setup on all nodes concurrently using<br>
&gt;     a thread pool so you should notice it&#39;s much faster for larger<br>
&gt;     clusters. Please let me know if you have issues.<br>
&gt;<br>
&gt;     Thanks,<br>
&gt;<br>
&gt;     ~Justin<br>
&gt;<br>
&gt;     On Wed, Mar 16, 2011 at 1:37 PM, Kyeong Soo (Joseph) Kim<br>
</div><div class="im">&gt;     &lt;<a href="mailto:kyeongsoo.kim@gmail.com">kyeongsoo.kim@gmail.com</a> &lt;mailto:<a href="mailto:kyeongsoo.kim@gmail.com">kyeongsoo.kim@gmail.com</a>&gt;&gt; wrote:<br>
&gt;     &gt; Justin,<br>
&gt;     &gt; Please, find attached the said file.<br>
&gt;     &gt;<br>
&gt;     &gt; Regards,<br>
&gt;     &gt; Joseph<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt; On Wed, Mar 16, 2011 at 4:38 PM, Justin Riley &lt;<a href="mailto:jtriley@mit.edu">jtriley@mit.edu</a><br>
</div><div><div></div><div class="h5">&gt;     &lt;mailto:<a href="mailto:jtriley@mit.edu">jtriley@mit.edu</a>&gt;&gt; wrote:<br>
&gt; Joseph,<br>
&gt;<br>
&gt; Great thanks, can you also send me the /opt/sge6/ec2_sge.conf<br>
&gt;&gt;     file please?<br>
&gt;<br>
&gt; ~Justin<br>
&gt;<br>
&gt; On 03/16/2011 12:29 PM, Kyeong Soo (Joseph) Kim wrote:<br>
&gt;&gt;     &gt;&gt;&gt; Hi Justin,<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Please, find attached the gzipped tar file of the logfiles under<br>
&gt;&gt;     &gt;&gt;&gt; install_logs directory.<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Note that the configuration is for 25-node (1 master and 24<br>
&gt;&gt;     slaves) cluster.<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Below is the time-sorted listing of log files under the same<br>
&gt;&gt;     directory:<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 13:23<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node024_2011-03-16_13:23:11.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node023_2011-03-16_11:13:37.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node022_2011-03-16_11:13:36.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node021_2011-03-16_11:13:36.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node020_2011-03-16_11:13:32.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks  18K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_master_2011-03-16_11:13:10.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node017_2011-03-16_11:13:27.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node018_2011-03-16_11:13:27.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node019_2011-03-16_11:13:28.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node016_2011-03-16_11:13:26.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node014_2011-03-16_11:13:25.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node015_2011-03-16_11:13:26.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node012_2011-03-16_11:13:24.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node013_2011-03-16_11:13:25.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node010_2011-03-16_11:13:23.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node011_2011-03-16_11:13:24.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node008_2011-03-16_11:13:22.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node009_2011-03-16_11:13:22.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node006_2011-03-16_11:13:21.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node007_2011-03-16_11:13:21.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node004_2011-03-16_11:13:20.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node005_2011-03-16_11:13:20.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node003_2011-03-16_11:13:19.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node001_2011-03-16_11:13:18.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 2.9K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_node002_2011-03-16_11:13:19.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 3.1K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; execd_install_master_2011-03-16_11:13:17.log<br>
&gt;&gt;     &gt;&gt;&gt; -rw-r--r-- 1 kks kks 8.4K 2011-03-16 11:13<br>
&gt;&gt;     &gt;&gt;&gt; qmaster_install_master_2011-03-16_11:13:05.log<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; As you can see, the installation of master has been duplicated<br>
&gt;&gt;     and it<br>
&gt;&gt;     &gt;&gt;&gt; ended up with master, node001~node023; the top-most log for node024<br>
&gt;&gt;     &gt;&gt;&gt; was for the manual addition through &quot;addnode&quot; command later (i.e., 1<br>
&gt;&gt;     &gt;&gt;&gt; hour 10 mins after).<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Even with this slimmed down version of configurations (compared<br>
&gt;&gt;     to the<br>
&gt;&gt;     &gt;&gt;&gt; original 125-node one), the chances that all nodes are properly<br>
&gt;&gt;     &gt;&gt;&gt; installed (i.e., 25 out of 25) were about 50% (last night and this<br>
&gt;&gt;     &gt;&gt;&gt; morning, I tried it about 10 times to set total five of 25-node<br>
&gt;&gt;     &gt;&gt;&gt; clusters).<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Regards,<br>
&gt;&gt;     &gt;&gt;&gt; Joseph<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; On Wed, Mar 16, 2011 at 3:57 PM, Justin Riley &lt;<a href="mailto:jtriley@mit.edu">jtriley@mit.edu</a><br>
</div></div><div><div></div><div class="h5">&gt;&gt;     &lt;mailto:<a href="mailto:jtriley@mit.edu">jtriley@mit.edu</a>&gt;&gt; wrote:<br>
&gt;&gt;     &gt;&gt;&gt; Hi Jeff/Joseph,<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; I just requested to up my EC2 instance limit so that I can test<br>
&gt;&gt;     things<br>
&gt;&gt;     &gt;&gt;&gt; out at this scale and see what the issue is. In the mean time<br>
&gt;&gt;     would you<br>
&gt;&gt;     &gt;&gt;&gt; mind sending me any logs found in<br>
&gt;&gt;     /opt/sge6/default/common/install_logs<br>
&gt;&gt;     &gt;&gt;&gt; and also the /opt/sge6/ec2_sge.conf for a failed run?<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; Also if this happens again you could try reinstalling SGE manually<br>
&gt;&gt;     &gt;&gt;&gt; assuming all the nodes are up:<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; $ starcluster sshmaster mycluster<br>
&gt;&gt;     &gt;&gt;&gt; $ cd /opt/sge6<br>
&gt;&gt;     &gt;&gt;&gt; $ ./inst_sge -m -x -auto ./ec2_sge.conf<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; ~Justin<br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt; On 03/15/2011 06:30 PM, Kyeong Soo (Joseph) Kim wrote:<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Hi Jeff,<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; I experienced the same thing with my 50-node configuration<br>
&gt;&gt;     (c1.xlarge).<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Out of 50 nodes, only 29 nodes are successfully identified by<br>
&gt;&gt;     the SGE.<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Regards,<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; Joseph<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; On Sat, Mar 5, 2011 at 10:15 PM, Jeff White &lt;<a href="mailto:jeff@decide.com">jeff@decide.com</a><br>
</div></div><div><div></div><div class="h5">&gt;&gt;     &lt;mailto:<a href="mailto:jeff@decide.com">jeff@decide.com</a>&gt;&gt; wrote:<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; I can frequently reproduce an issue where &#39;starcluster<br>
&gt;&gt;     start&#39; completes<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; without error, but not all nodes are added to the SGE pool,<br>
&gt;&gt;     which I verify<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; by running &#39;qconf -sel&#39; on the master. The latest example I<br>
&gt;&gt;     have is creating<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; a 25-node cluster, where only the first 12 nodes are<br>
&gt;&gt;     successfully installed.<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; The remaining instances are running and I can ssh to them<br>
&gt;&gt;     but they aren&#39;t<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; running sge_execd. There are only install log files for the<br>
&gt;&gt;     first 12 nodes<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; in /opt/sge6/default/common/install_logs. I have not found<br>
&gt;&gt;     any clues in the<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; starcluster debug log or the logs inside master:/opt/sge6/.<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; I am running starcluster development snapshot 8ef48a3<br>
&gt;&gt;     downloaded on<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; 2011-02-15, with the following relevant settings:<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; NODE_IMAGE_ID=ami-8cf913e5<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; NODE_INSTANCE_TYPE = m1.small<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; I have seen this behavior with the latest 32-bit and 64-bit<br>
&gt;&gt;     starcluster<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; AMIs. Our workaround is to start a small cluster and<br>
&gt;&gt;     progressively add nodes<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; one at a time, which is time-consuming.<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; Has anyone else noticed this and have a better workaround or<br>
&gt;&gt;     an idea for a<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; fix?<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; jeff<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; StarCluster mailing list<br>
</div></div>&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a> &lt;mailto:<a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a>&gt;<br>
<div class="im">&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt; <a href="http://mailman.mit.edu/mailman/listinfo/starcluster" target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; StarCluster mailing list<br>
</div>&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; <a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a> &lt;mailto:<a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a>&gt;<br>
<div class="im">&gt;&gt;     &gt;&gt;&gt;&gt;&gt;&gt; <a href="http://mailman.mit.edu/mailman/listinfo/starcluster" target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
&gt;&gt;     &gt;&gt;&gt;<br>
&gt;&gt;     &gt;&gt;&gt;&gt;<br>
&gt;<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;<br>
&gt;     &gt; _______________________________________________<br>
&gt;     &gt; StarCluster mailing list<br>
</div>&gt;     &gt; <a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a> &lt;mailto:<a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a>&gt;<br>
<div class="im">&gt;     &gt; <a href="http://mailman.mit.edu/mailman/listinfo/starcluster" target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
&gt;     &gt;<br>
&gt;     &gt;<br>
<br>
-----BEGIN PGP SIGNATURE-----<br>
Version: GnuPG v2.0.17 (GNU/Linux)<br>
Comment: Using GnuPG with Mozilla - <a href="http://enigmail.mozdev.org/" target="_blank">http://enigmail.mozdev.org/</a><br>
<br>
</div>iEYEARECAAYFAk2cp6sACgkQ4llAkMfDcrkEPQCeKo3XQ8ilWlv89E76NTReqBaz<br>
k68AoIur9985wTYnBKP4+cnKkKwMyL9i<br>
=QBz+<br>
-----END PGP SIGNATURE-----<br>
</blockquote></div><br>