<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">I am not sure exactly what you are
      trying to do regarding a single cluster.  But in my experience the
      setup of the "master" node is propagated to the worker nodes.  I
      would set the master as I wanted and then add "workers" that had
      different attributes ( different AMI's and EC2 types, could be
      spots and/or on-demand).  The workers always inherited attributes
      from the master node, specifically NFS volumes from the master
      were always shared amongst the workers ( this included other EBS
      volumes I had mounted using Starcluster config file). When you
      submit the "starcluster addnode" command you just have to make
      sure you specify the attributes(AMI, instance type,
      spot/on-demand, etc.) you want for the added nodes. <br>
      <br>
      In my experience, the added worker nodes have all their resources
      dedicated to the SGE queue(s). You would use "qconf" command to
      adjust how you want things set up regarding each added node and
      how you want to set up your queues. One good thing about this
      setup is you can have your master as an on-demand or reserved
      instance and your workers as spot instances (bid with cheaper
      hourly rates). This way jobs running on spots that are terminated
      (due to bid pricing) are just resubmitted back to the queue as
      long as you issue the resubmit option in your qsub calls.<br>
      <br>
      One word of caution is that I didn't mixing and match on OS type
      or virtualization type (PV, HVM) within a single cluster. My
      thought was that there might be underlying incompatibilities in
      the systems such that the propagation of attributes from master to
      worker nodes might not work seamlessly. <br>
      <br>
      Good Luck.<br>
      <br>
      -Jennifer<br>
      <br>
      <br>
      On 12/9/14 11:30 AM, Fran Campillo wrote:<br>
    </div>
    <blockquote cite="mid:5487239C.2080404@spitch.ch" type="cite">
      <meta content="text/html; charset=windows-1252"
        http-equiv="Content-Type">
      <br>
          Hi Jin!<br>
      <br>
          Thank you so much for your answer :) . Yes, I can try to do
      that, but then I would need to do manually some stuff in the new
      nodes that StarCluster usually takes care of (like the
      password-less ssh and sharing /home and potentially other EBS
      volumes). Is my assumption right?<br>
      <br>
          Thanks again!<br>
      <br>
          Fran.<br>
      <br>
      <div class="moz-cite-prefix">On 09.12.2014 16:52, Jin Yu wrote:<br>
      </div>
      <blockquote
cite="mid:CAEBYWs_E4pciVN+71oVjgm61sKQkPt+E0vZoJnKoUpZhXAvyjw@mail.gmail.com"
        type="cite">
        <div dir="ltr">
          <div class="gmail_default"
            style="font-family:verdana,sans-serif">Hi Fran, </div>
          <div class="gmail_default"
            style="font-family:verdana,sans-serif"><br>
          </div>
          <div class="gmail_default"
            style="font-family:verdana,sans-serif">You can start a
            master node first and then add different types of nodes
            later. You may setup the SGE to define the job allocation
            behavior among these nodes.</div>
          <div class="gmail_default"
            style="font-family:verdana,sans-serif"><br>
          </div>
          <div class="gmail_default"
            style="font-family:verdana,sans-serif">-Jin</div>
        </div>
        <div class="gmail_extra"><br>
          <div class="gmail_quote">On Mon, Dec 8, 2014 at 6:19 AM, Fran
            Campillo <span dir="ltr">&lt;<a moz-do-not-send="true"
                href="mailto:fran@spitch.ch" target="_blank">fran@spitch.ch</a>&gt;</span>
            wrote:<br>
            <blockquote class="gmail_quote" style="margin:0 0 0
              .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
                   Hi,<br>
              <br>
                   I began using StarCluster a couple of weeks ago for
              my research,<br>
              and I find it really useful framework. I had to setup SGE
              myself several<br>
              times in the past, and StarCluster makes our life way
              easier.<br>
              <br>
                   I still don't know many of the features of
              StarCluster, and I would<br>
              like to ask the community whether certain things I want to
              do are<br>
              actually possible with the current version from
              StarCluster. In<br>
              particular, I would like to create a heterogeneous cluster
              on<br>
              StarCluster (this is, with different kinds of instances,
              that I could<br>
              have in different SGE queues. In the problem I have to
              solve there are<br>
              some stages that need GPU and others that do not, and I
              would like to be<br>
              able to setup the complete cluster at the beginning of the
              process and<br>
              work like this:<br>
              <br>
              ------------<br>
              <br>
                   1.- Init: setup of the heterogeneous cluster
              {gpu_clust, no_gpu_clust).<br>
              <br>
                   2.- No cuda tasks:<br>
                   2.1.- stop gpu_clust instances.<br>
                   2.2.- run tasks in no_gpu_clust.<br>
              <br>
                   3.- Cuda tasks:<br>
                   3.1.- stop no_gpu_clust.<br>
                   3.2.- start gpu_clust.<br>
                   3.3.- run tasks in gpu_clust.<br>
              <br>
                   4.- No cuda tasks:<br>
                   ...<br>
              <br>
              ------------<br>
              <br>
                   Is this currently possible with StarCluster? I guess
              that I can<br>
              already fake this behavior creating both clusters from
              another Amazon<br>
              instance and run the tasks with one or another via ssh,
              but I find it a<br>
              worse solution.<br>
              <br>
                   Thank you very much in advance!<br>
              <br>
                   Cheers!<br>
              <br>
                   Fran.<br>
              <br>
              _______________________________________________<br>
              StarCluster mailing list<br>
              <a moz-do-not-send="true"
                href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a><br>
              <a moz-do-not-send="true"
                href="http://mailman.mit.edu/mailman/listinfo/starcluster"
                target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
            </blockquote>
          </div>
          <br>
        </div>
      </blockquote>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
StarCluster mailing list
<a class="moz-txt-link-abbreviated" href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a>
<a class="moz-txt-link-freetext" href="http://mailman.mit.edu/mailman/listinfo/starcluster">http://mailman.mit.edu/mailman/listinfo/starcluster</a>
</pre>
    </blockquote>
    <br>
  </body>
</html>