<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
        Thank you very much, Jennifer and Jin. This is very useful
    information. The only detail that I miss now is how to add nodes and
    stop them from the master (this is, from inside the cluster). With
    that, I would be able to automate easily the whole process. Does any
    of you guys happen to know whether this is possible?<br>
    <br>
        Cheers!<br>
    <br>
        Fran.<br>
    <br>
    <div class="moz-cite-prefix">On 09.12.2014 18:35, Jennifer Staab
      wrote:<br>
    </div>
    <blockquote cite="mid:548732F0.4070404@cs.unc.edu" type="cite">
      <meta content="text/html; charset=windows-1252"
        http-equiv="Content-Type">
      <div class="moz-cite-prefix">I am not sure exactly what you are
        trying to do regarding a single cluster.  But in my experience
        the setup of the "master" node is propagated to the worker
        nodes.  I would set the master as I wanted and then add
        "workers" that had different attributes ( different AMI's and
        EC2 types, could be spots and/or on-demand).  The workers always
        inherited attributes from the master node, specifically NFS
        volumes from the master were always shared amongst the workers (
        this included other EBS volumes I had mounted using Starcluster
        config file). When you submit the "starcluster addnode" command
        you just have to make sure you specify the attributes(AMI,
        instance type, spot/on-demand, etc.) you want for the added
        nodes. <br>
        <br>
        In my experience, the added worker nodes have all their
        resources dedicated to the SGE queue(s). You would use "qconf"
        command to adjust how you want things set up regarding each
        added node and how you want to set up your queues. One good
        thing about this setup is you can have your master as an
        on-demand or reserved instance and your workers as spot
        instances (bid with cheaper hourly rates). This way jobs running
        on spots that are terminated (due to bid pricing) are just
        resubmitted back to the queue as long as you issue the resubmit
        option in your qsub calls.<br>
        <br>
        One word of caution is that I didn't mixing and match on OS type
        or virtualization type (PV, HVM) within a single cluster. My
        thought was that there might be underlying incompatibilities in
        the systems such that the propagation of attributes from master
        to worker nodes might not work seamlessly. <br>
        <br>
        Good Luck.<br>
        <br>
        -Jennifer<br>
        <br>
        <br>
        On 12/9/14 11:30 AM, Fran Campillo wrote:<br>
      </div>
      <blockquote cite="mid:5487239C.2080404@spitch.ch" type="cite">
        <meta content="text/html; charset=windows-1252"
          http-equiv="Content-Type">
        <br>
            Hi Jin!<br>
        <br>
            Thank you so much for your answer :) . Yes, I can try to do
        that, but then I would need to do manually some stuff in the new
        nodes that StarCluster usually takes care of (like the
        password-less ssh and sharing /home and potentially other EBS
        volumes). Is my assumption right?<br>
        <br>
            Thanks again!<br>
        <br>
            Fran.<br>
        <br>
        <div class="moz-cite-prefix">On 09.12.2014 16:52, Jin Yu wrote:<br>
        </div>
        <blockquote
cite="mid:CAEBYWs_E4pciVN+71oVjgm61sKQkPt+E0vZoJnKoUpZhXAvyjw@mail.gmail.com"
          type="cite">
          <div dir="ltr">
            <div class="gmail_default"
              style="font-family:verdana,sans-serif">Hi Fran, </div>
            <div class="gmail_default"
              style="font-family:verdana,sans-serif"><br>
            </div>
            <div class="gmail_default"
              style="font-family:verdana,sans-serif">You can start a
              master node first and then add different types of nodes
              later. You may setup the SGE to define the job allocation
              behavior among these nodes.</div>
            <div class="gmail_default"
              style="font-family:verdana,sans-serif"><br>
            </div>
            <div class="gmail_default"
              style="font-family:verdana,sans-serif">-Jin</div>
          </div>
          <div class="gmail_extra"><br>
            <div class="gmail_quote">On Mon, Dec 8, 2014 at 6:19 AM,
              Fran Campillo <span dir="ltr">&lt;<a
                  moz-do-not-send="true" href="mailto:fran@spitch.ch"
                  target="_blank">fran@spitch.ch</a>&gt;</span> wrote:<br>
              <blockquote class="gmail_quote" style="margin:0 0 0
                .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
                     Hi,<br>
                <br>
                     I began using StarCluster a couple of weeks ago for
                my research,<br>
                and I find it really useful framework. I had to setup
                SGE myself several<br>
                times in the past, and StarCluster makes our life way
                easier.<br>
                <br>
                     I still don't know many of the features of
                StarCluster, and I would<br>
                like to ask the community whether certain things I want
                to do are<br>
                actually possible with the current version from
                StarCluster. In<br>
                particular, I would like to create a heterogeneous
                cluster on<br>
                StarCluster (this is, with different kinds of instances,
                that I could<br>
                have in different SGE queues. In the problem I have to
                solve there are<br>
                some stages that need GPU and others that do not, and I
                would like to be<br>
                able to setup the complete cluster at the beginning of
                the process and<br>
                work like this:<br>
                <br>
                ------------<br>
                <br>
                     1.- Init: setup of the heterogeneous cluster
                {gpu_clust, no_gpu_clust).<br>
                <br>
                     2.- No cuda tasks:<br>
                     2.1.- stop gpu_clust instances.<br>
                     2.2.- run tasks in no_gpu_clust.<br>
                <br>
                     3.- Cuda tasks:<br>
                     3.1.- stop no_gpu_clust.<br>
                     3.2.- start gpu_clust.<br>
                     3.3.- run tasks in gpu_clust.<br>
                <br>
                     4.- No cuda tasks:<br>
                     ...<br>
                <br>
                ------------<br>
                <br>
                     Is this currently possible with StarCluster? I
                guess that I can<br>
                already fake this behavior creating both clusters from
                another Amazon<br>
                instance and run the tasks with one or another via ssh,
                but I find it a<br>
                worse solution.<br>
                <br>
                     Thank you very much in advance!<br>
                <br>
                     Cheers!<br>
                <br>
                     Fran.<br>
                <br>
                _______________________________________________<br>
                StarCluster mailing list<br>
                <a moz-do-not-send="true"
                  href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a><br>
                <a moz-do-not-send="true"
                  href="http://mailman.mit.edu/mailman/listinfo/starcluster"
                  target="_blank">http://mailman.mit.edu/mailman/listinfo/starcluster</a><br>
              </blockquote>
            </div>
            <br>
          </div>
        </blockquote>
        <br>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
StarCluster mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:StarCluster@mit.edu">StarCluster@mit.edu</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://mailman.mit.edu/mailman/listinfo/starcluster">http://mailman.mit.edu/mailman/listinfo/starcluster</a>
</pre>
      </blockquote>
      <br>
    </blockquote>
    <br>
  </body>
</html>