15 minutes here, but I&#39;ve added it.  Can I now create an AMI from the master instance so I don&#39;t need to do this every time I spin up a cluster?<br><br>Scott<br><br><br><div class="gmail_quote">On Fri, May 11, 2012 at 8:22 PM, Rayson Ho <span dir="ltr">&lt;<a href="mailto:raysonlogin@gmail.com" target="_blank">raysonlogin@gmail.com</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">That&#39;s a known issue - and we would like to understand why it is taking so long.<br>
<br>
If you leave it there for around 3-5 mins, then qmon will show up. For<br>
a LAN connection it is not painful, but for a long latency network,<br>
then starting qmon takes forever :-(<br>
<div class="im HOEnZb"><br>
Rayson<br>
<br>
================================<br>
Open Grid Scheduler / Grid Engine<br>
<a href="http://gridscheduler.sourceforge.net/" target="_blank">http://gridscheduler.sourceforge.net/</a><br>
<br>
Scalable Grid Engine Support Program<br>
<a href="http://www.scalablelogic.com/" target="_blank">http://www.scalablelogic.com/</a><br>
<br>
<br>
</div><div class="HOEnZb"><div class="h5">On Fri, May 11, 2012 at 11:18 PM, Scott Le Grand &lt;<a href="mailto:varelse2005@gmail.com">varelse2005@gmail.com</a>&gt; wrote:<br>
&gt; StarCluster - (<a href="http://web.mit.edu/starcluster" target="_blank">http://web.mit.edu/starcluster</a>) (v. 0.93.3)<br>
&gt;<br>
&gt; If I starcluster sshmaster -X mycluster and type qmon, then the splash<br>
&gt; screen for it shows up but it doesn&#39;t seem to progress from there.  How long<br>
&gt; should it take to get past that?<br>
&gt;<br>
&gt; Scott<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Fri, May 11, 2012 at 8:15 PM, Rayson Ho &lt;<a href="mailto:raysonlogin@gmail.com">raysonlogin@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; If you have a recent enough version of StarCluster, then you should be<br>
&gt;&gt; able to run qmon without any special settings that forward X in SSH.<br>
&gt;&gt;<br>
&gt;&gt; This was added in: <a href="https://github.com/jtriley/StarCluster/issues/81" target="_blank">https://github.com/jtriley/StarCluster/issues/81</a><br>
&gt;&gt;<br>
&gt;&gt; Rayson<br>
&gt;&gt;<br>
&gt;&gt; ================================<br>
&gt;&gt; Open Grid Scheduler / Grid Engine<br>
&gt;&gt; <a href="http://gridscheduler.sourceforge.net/" target="_blank">http://gridscheduler.sourceforge.net/</a><br>
&gt;&gt;<br>
&gt;&gt; Scalable Grid Engine Support Program<br>
&gt;&gt; <a href="http://www.scalablelogic.com/" target="_blank">http://www.scalablelogic.com/</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Fri, May 11, 2012 at 10:58 PM, Scott Le Grand &lt;<a href="mailto:varelse2005@gmail.com">varelse2005@gmail.com</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt; &gt; This is a stupid question but...<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Given I access a starcluster cluster indirectly, how do I run an X<br>
&gt;&gt; &gt; application such that it displays on my remote system?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I would normally type ssh -X <a href="mailto:ec2-user@amazoninstance.com">ec2-user@amazoninstance.com</a> qmon in order<br>
&gt;&gt; &gt; to<br>
&gt;&gt; &gt; fire up qmon, yes?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; How do I do the equivalent here?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; On Fri, May 11, 2012 at 2:45 PM, Rayson Ho &lt;<a href="mailto:raysonlogin@yahoo.com">raysonlogin@yahoo.com</a>&gt;<br>
&gt;&gt; &gt; wrote:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hi Scott,<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; You can set up a consumable resource to track usage of GPUs:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; <a href="http://gridscheduler.sourceforge.net/howto/consumable.html" target="_blank">http://gridscheduler.sourceforge.net/howto/consumable.html</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; And we also have a load sensor that monitors the GPU devices:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; <a href="https://gridscheduler.svn.sourceforge.net/svnroot/gridscheduler/trunk/source/dist/gpu/gpu_sensor.c" target="_blank">https://gridscheduler.svn.sourceforge.net/svnroot/gridscheduler/trunk/source/dist/gpu/gpu_sensor.c</a><br>


&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; If you want to use the (2nd - ie. dynamic) method, then you will need<br>
&gt;&gt; &gt;&gt; to<br>
&gt;&gt; &gt;&gt; set it up by following this HOWTO:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; <a href="http://gridscheduler.sourceforge.net/howto/loadsensor.html" target="_blank">http://gridscheduler.sourceforge.net/howto/loadsensor.html</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; The first method of using a consumable resource works best if you don&#39;t<br>
&gt;&gt; &gt;&gt; run GPU<br>
&gt;&gt; &gt;&gt; programs outside of Open Grid Scheduler/Grid Engine.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Also note that in the next release of StarCluster GPU support will be<br>
&gt;&gt; &gt;&gt; enhanced.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Rayson<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; =================================<br>
&gt;&gt; &gt;&gt; Open Grid Scheduler / Grid Engine<br>
&gt;&gt; &gt;&gt; <a href="http://gridscheduler.sourceforge.net/" target="_blank">http://gridscheduler.sourceforge.net/</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Scalable Grid Engine Support Program<br>
&gt;&gt; &gt;&gt; <a href="http://www.scalablelogic.com/" target="_blank">http://www.scalablelogic.com/</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; ________________________________<br>
&gt;&gt; &gt;&gt; From: Scott Le Grand &lt;<a href="mailto:varelse2005@gmail.com">varelse2005@gmail.com</a>&gt;<br>
&gt;&gt; &gt;&gt; To: <a href="mailto:starcluster@mit.edu">starcluster@mit.edu</a><br>
&gt;&gt; &gt;&gt; Sent: Friday, May 11, 2012 5:25 PM<br>
&gt;&gt; &gt;&gt; Subject: [StarCluster] CG1 plus StarCluster Questions<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Hey guys, I&#39;m really impressed with StarCluster and I&#39;ve used it to<br>
&gt;&gt; &gt;&gt; create<br>
&gt;&gt; &gt;&gt; clusters ranging from 2 to 70 instances...<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; I&#39;ve also customized it to use CUDA 4.2 and 295.41, the latest toolkit<br>
&gt;&gt; &gt;&gt; and<br>
&gt;&gt; &gt;&gt; driver, because my code has GTX 680 support and I don&#39;t want to have to<br>
&gt;&gt; &gt;&gt; comment it out just to build it (and 4.1 had a horrendous perf<br>
&gt;&gt; &gt;&gt; regression).<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; Anyway, 2 questions, one of which I think you already answered:<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; 1. I&#39;d like to setup a custom AMI that by default has configured 2 GPUs<br>
&gt;&gt; &gt;&gt; as<br>
&gt;&gt; &gt;&gt; a consumable resource.  I already have code to utilize exclusive mode<br>
&gt;&gt; &gt;&gt; and<br>
&gt;&gt; &gt;&gt; choose whichever GPU isn&#39;t in use in my app, but that all falls down<br>
&gt;&gt; &gt;&gt; because<br>
&gt;&gt; &gt;&gt; the queueing system is based on CPU cores rather than GPU count.  How<br>
&gt;&gt; &gt;&gt; would<br>
&gt;&gt; &gt;&gt; I set this up once so I can save the customized AMI and never have to<br>
&gt;&gt; &gt;&gt; do it<br>
&gt;&gt; &gt;&gt; again?<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; 2. I&#39;m also seeing the .ssh directories disappear on restart.  But I&#39;ll<br>
&gt;&gt; &gt;&gt; look at your solution as I&#39;ve just been restarting the whole cluster up<br>
&gt;&gt; &gt;&gt; to<br>
&gt;&gt; &gt;&gt; now.<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt; _______________________________________________<br>
&gt;&gt; &gt;&gt; StarCluster mailing list<br>
&gt;&gt; &gt;&gt; <a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a><br>
&gt;&gt; &gt;&gt; <a href="http://mailman.mit.edu/mailman/listinfo/starcluster" target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; _______________________________________________<br>
&gt;&gt; &gt; StarCluster mailing list<br>
&gt;&gt; &gt; <a href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a><br>
&gt;&gt; &gt; <a href="http://mailman.mit.edu/mailman/listinfo/starcluster" target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
&gt;&gt; &gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; ==================================================<br>
&gt;&gt; Open Grid Scheduler - The Official Open Source Grid Engine<br>
&gt;&gt; <a href="http://gridscheduler.sourceforge.net/" target="_blank">http://gridscheduler.sourceforge.net/</a><br>
&gt;<br>
&gt;<br>
<br>
<br>
<br>
--<br>
==================================================<br>
Open Grid Scheduler - The Official Open Source Grid Engine<br>
<a href="http://gridscheduler.sourceforge.net/" target="_blank">http://gridscheduler.sourceforge.net/</a><br>
</div></div></blockquote></div><br>