<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); ">
<div><span class="Apple-style-span" style="font-size: 15px;"><br>
</span></div>
<span id="OLK_SRC_BODY_SECTION" style="font-size: 14px; font-family: Calibri, sans-serif; ">
<div>
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif; ">
<div>Dear folks,&nbsp;</div>
<div><br>
</div>
<div>I have the following problem while creating a cluster and mounting an ebs volume&nbsp;</div>
<div>on /data. Here is the config file part corresponding to my template:&nbsp;</div>
<div><br>
</div>
<div>
<div>[cluster issm]</div>
<div># change this to the name of one of the keypair sections defined above</div>
<div>KEYNAME = ISSMStarCluster</div>
<div># number of ec2 instances to launch</div>
<div>CLUSTER_SIZE = 2</div>
<div># create the following user on the cluster</div>
<div>CLUSTER_USER = sgeadmin</div>
<div># optionally specify shell (defaults to bash)</div>
<div># (options: tcsh, zsh, csh, bash, ksh)</div>
<div>CLUSTER_SHELL = bash</div>
<div># AMI to use for cluster nodes. These AMIs are for the us-east-1 region.</div>
<div># Use the 'listpublic' command to list StarCluster AMIs in other regions</div>
<div># The base i386 StarCluster AMI is ami-899d49e0</div>
<div># The base x86_64 StarCluster AMI is ami-999d49f0</div>
<div># The base HVM StarCluster AMI is ami-4583572c</div>
<div>NODE_IMAGE_ID = ami-4583572c</div>
<div># instance type for all cluster nodes</div>
<div># (options: cg1.4xlarge, c1.xlarge, m1.small, c1.medium, m2.xlarge, t1.micro, cc1.4xlarge, m1.medium, cc2.8xlarge, m1.large, m1.xlarge, hi1.4xlarge, m2.4xlarge, m2.2xlarge)</div>
<div>NODE_INSTANCE_TYPE = cc2.8xlarge</div>
<div># Uncomment to disable installing/configuring a queueing system on the</div>
<div># cluster (SGE)</div>
<div>#DISABLE_QUEUE=True</div>
<div># Uncomment to specify a different instance type for the master node (OPTIONAL)</div>
<div># (defaults to NODE_INSTANCE_TYPE if not specified)</div>
<div>#MASTER_INSTANCE_TYPE = m1.small</div>
<div># Uncomment to specify a separate AMI to use for the master node. (OPTIONAL)</div>
<div># (defaults to NODE_IMAGE_ID if not specified)</div>
<div>#MASTER_IMAGE_ID = ami-899d49e0 (OPTIONAL)</div>
<div># availability zone to launch the cluster in (OPTIONAL)</div>
<div># (automatically determined based on volumes (if any) or</div>
<div># selected by Amazon if not specified)</div>
<div>#AVAILABILITY_ZONE = us-east-1c</div>
<div># list of volumes to attach to the master node (OPTIONAL)</div>
<div># these volumes, if any, will be NFS shared to the worker nodes</div>
<div># see &quot;Configuring EBS Volumes&quot; below on how to define volume sections</div>
<div>VOLUMES = issm</div>
</div>
<div><br>
</div>
<div>
<div># Sections starting with &quot;volume&quot; define your EBS volumes</div>
<div>[volume issm]</div>
<div>VOLUME_ID = vol-7d113b07</div>
<div>MOUNT_PATH = /data</div>
</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div>when I first start this cluster:&nbsp;</div>
<div>starcluster start issm, everything works perfectly.&nbsp;</div>
<div><br>
</div>
<div>
<div>&nbsp;start issm</div>
<div>StarCluster - (<a href="http://web.mit.edu/starcluster">http://web.mit.edu/starcluster</a>) (v. 0.9999)</div>
<div>Software Tools for Academics and Researchers (STAR)</div>
<div>Please submit bug reports to <a href="mailto:starcluster@mit.edu">starcluster@mit.edu</a></div>
<div><br>
</div>
<div>&gt;&gt;&gt; Using default cluster template: issm</div>
<div>&gt;&gt;&gt; Validating cluster template settings...</div>
<div>&gt;&gt;&gt; Cluster template settings are valid</div>
<div>&gt;&gt;&gt; Starting cluster...</div>
<div>&gt;&gt;&gt; Launching a 2-node cluster...</div>
<div>&gt;&gt;&gt; Creating security group @sc-issm...</div>
<div>&gt;&gt;&gt; Creating placement group @sc-issm...</div>
<div>Reservation:r-e3538485</div>
<div>&gt;&gt;&gt; Waiting for cluster to come up... (updating every 10s)</div>
<div>&gt;&gt;&gt; Waiting for all nodes to be in a 'running' state...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Waiting for SSH to come up on all nodes...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Waiting for cluster to come up took 2.281 mins</div>
<div>&gt;&gt;&gt; The master node is ec2-107-22-25-149.compute-1.amazonaws.com</div>
<div>&gt;&gt;&gt; Setting up the cluster...</div>
<div>&gt;&gt;&gt; Attaching volume vol-7d113b07 to master node on /dev/sdz ...</div>
<div>&gt;&gt;&gt; Configuring hostnames...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Mounting EBS volume vol-7d113b07 on /data...</div>
<div>&gt;&gt;&gt; Creating cluster user: None (uid: 1001, gid: 1001)</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Configuring scratch space for user(s): sgeadmin</div>
<div>0/2 | &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;| &nbsp; 0% &nbsp;</div>
<div><br>
</div>
<div><br>
</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Configuring /etc/hosts on each node</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Starting NFS server on master</div>
<div>&gt;&gt;&gt; Configuring NFS exports path(s):</div>
<div>/home /data</div>
<div>&gt;&gt;&gt; Mounting all NFS export path(s) on 1 worker node(s)</div>
</div>
<div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Setting up NFS took 0.152 mins</div>
<div>&gt;&gt;&gt; Configuring passwordless ssh for root</div>
<div>&gt;&gt;&gt; Configuring passwordless ssh for sgeadmin</div>
<div>&gt;&gt;&gt; Shutting down threads...</div>
<div>20/20 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Configuring SGE...</div>
<div>&gt;&gt;&gt; Configuring NFS exports path(s):</div>
<div>/opt/sge6</div>
<div>&gt;&gt;&gt; Mounting all NFS export path(s) on 1 worker node(s)</div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Setting up NFS took 0.102 mins</div>
<div>&gt;&gt;&gt; Installing Sun Grid Engine...</div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Creating SGE parallel environment 'orte'</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Adding parallel environment 'orte' to queue 'all.q'</div>
<div>&gt;&gt;&gt; Shutting down threads...</div>
<div>20/20 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Configuring cluster took 1.506 mins</div>
<div>&gt;&gt;&gt; Starting cluster took 3.877 mins</div>
<div><br>
</div>
<div>The cluster is now ready to use. To login to the master node</div>
<div>as root, run:</div>
<div><br>
</div>
<div>&nbsp; &nbsp; $ starcluster sshmaster issm</div>
</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div>I checked, /data is correctly mounted on my ebs volume, everything fine.&nbsp;</div>
<div>Here is an frisk dump:&nbsp;</div>
<div><br>
</div>
<div>
<div>root@master:/data# df</div>
<div>Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1K-blocks &nbsp; &nbsp; &nbsp;Used Available Use% Mounted on</div>
<div>/dev/sda1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;8246240 &nbsp; 5386292 &nbsp; 2441056 &nbsp;69% /</div>
<div>udev &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;31263832 &nbsp; &nbsp; &nbsp; &nbsp; 4 &nbsp;31263828 &nbsp; 1% /dev</div>
<div>tmpfs &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 12507188 &nbsp; &nbsp; &nbsp; 220 &nbsp;12506968 &nbsp; 1% /run</div>
<div>none &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;5120 &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp;5120 &nbsp; 0% /run/lock</div>
<div>none &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;31267964 &nbsp; &nbsp; &nbsp; &nbsp; 0 &nbsp;31267964 &nbsp; 0% /run/shm</div>
<div>/dev/xvdb &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;866917368 &nbsp; &nbsp;205028 822675452 &nbsp; 1% /mnt</div>
<div>/dev/xvdz &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;103212320 &nbsp; &nbsp;192268 &nbsp;97777172 &nbsp; 1% /data</div>
</div>
<div><br>
</div>
<div>the ebs volume I'm mounting is 100Gb in men, so everything checks out.</div>
<div><br>
</div>
<div><br>
</div>
<div>Now, if I stop the cluster, and start it again using the –x option, the cluster will boot&nbsp;</div>
<div>fine, but will not attach to the volume (won't attempt it at all) and will not even try&nbsp;</div>
<div>to mount /data. It's as though the [volumes] section of my config did not exist!</div>
<div><br>
</div>
<div><br>
</div>
<div>Here is the output of the starcluster start –x issm command:&nbsp;</div>
<div><br>
</div>
<div>
<div>st start -c issm -x issm</div>
<div>StarCluster - (<a href="http://web.mit.edu/starcluster">http://web.mit.edu/starcluster</a>) (v. 0.9999)</div>
<div>Software Tools for Academics and Researchers (STAR)</div>
<div>Please submit bug reports to <a href="mailto:starcluster@mit.edu">starcluster@mit.edu</a></div>
<div><br>
</div>
<div>&gt;&gt;&gt; Validating existing instances...</div>
<div>&gt;&gt;&gt; Validating cluster template settings...</div>
<div>&gt;&gt;&gt; Cluster template settings are valid</div>
<div>&gt;&gt;&gt; Starting cluster...</div>
<div>&gt;&gt;&gt; Starting stopped node: node001</div>
<div>&gt;&gt;&gt; Waiting for cluster to come up... (updating every 10s)</div>
<div>&gt;&gt;&gt; Waiting for all nodes to be in a 'running' state...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Waiting for SSH to come up on all nodes...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Waiting for cluster to come up took 1.780 mins</div>
<div>&gt;&gt;&gt; The master node is ec2-23-22-242-221.compute-1.amazonaws.com</div>
<div>&gt;&gt;&gt; Setting up the cluster...</div>
<div>&gt;&gt;&gt; Configuring hostnames...</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Creating cluster user: None (uid: 1001, gid: 1001)</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Configuring scratch space for user(s): sgeadmin</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Configuring /etc/hosts on each node</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100%</div>
<div>&gt;&gt;&gt; Starting NFS server on master</div>
<div>&gt;&gt;&gt; Configuring NFS exports path(s):</div>
<div>/home</div>
<div>&gt;&gt;&gt; Mounting all NFS export path(s) on 1 worker node(s)</div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Setting up NFS took 0.106 mins</div>
<div>&gt;&gt;&gt; Configuring passwordless ssh for root</div>
<div>&gt;&gt;&gt; Configuring passwordless ssh for sgeadmin</div>
<div>&gt;&gt;&gt; Shutting down threads...</div>
<div>20/20 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Configuring SGE...</div>
<div>&gt;&gt;&gt; Configuring NFS exports path(s):</div>
<div>/opt/sge6</div>
<div>&gt;&gt;&gt; Mounting all NFS export path(s) on 1 worker node(s)</div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Setting up NFS took 0.065 mins</div>
<div>&gt;&gt;&gt; Removing previous SGE installation...</div>
<div>&gt;&gt;&gt; Installing Sun Grid Engine...</div>
<div>1/1 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Creating SGE parallel environment 'orte'</div>
<div>2/2 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Adding parallel environment 'orte' to queue 'all.q'</div>
<div>&gt;&gt;&gt; Shutting down threads...</div>
<div>20/20 |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 100% &nbsp;</div>
<div>&gt;&gt;&gt; Configuring cluster took 0.846 mins</div>
</div>
<div>
<div>&gt;&gt;&gt; Starting cluster took 2.647 mins</div>
<div><br>
</div>
<div>The cluster is now ready to use. To login to the master node</div>
<div>as root, run:</div>
<div><br>
</div>
<div>&nbsp; &nbsp; $ starcluster sshmaster issm</div>
</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div>As you can see, no attempt was made at attaching to the ebs volume, and mounting of&nbsp;</div>
<div>/data was not attempted! When I log in, there is no ebs volume device for /data either</div>
<div>&nbsp;</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
<div>Any help or pointers would be appreciated!&nbsp;</div>
<div><br>
</div>
<div>Thanks in advance!&nbsp;</div>
<div><br>
</div>
<div>Eric L.</div>
<div><br>
</div>
<div>
<div>
<div>
<div style="font-family: Calibri, sans-serif; font-size: 14px; ">--------------------------------------------------------------------------</div>
<div>
<div style="font-family: Calibri, sans-serif; font-size: 14px; ">
<div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">Dr. Eric Larour, Software Engineer III,</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">ISSM Task Manager &nbsp;(<a href="http://issm.jpl.nasa.gov/" style="color: blue; text-decoration: underline; ">http://issm.jpl.nasa.gov</a>)&nbsp;</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">Mechanical division, Propulsion Thermal and Materials Section, Applied Low Temperature Physics Group.</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">Jet Propulsion Laboratory.</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">MS 79-24, 4800 Oak Grove Drive, Pasadena CA 91109.</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; "><a href="mailto:eric.larour@jpl.nasa.gov" style="color: blue; text-decoration: underline; ">eric.larour@jpl.nasa.gov</a></span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; "><a href="http://issm.jpl.nasa.gov/" style="color: blue; text-decoration: underline; ">http://issm.jpl.nasa.gov</a></span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">Tel: 1 818 393 2435.</span></div>
<div class="x_MsoNormal" style="margin-top: 0in; margin-right: 0in; margin-bottom: 0.0001pt; margin-left: 0in; font-size: 12pt; font-family: 'Times New Roman', serif; ">
<span style="font-size: 11pt; color: black; font-family: Calibri, sans-serif; ">&nbsp;</span><span class="x_apple-style-span"><span style="font-size: 10.5pt; color: black; font-family: Calibri, sans-serif; ">--------------------------------------------------------------------------</span></span></div>
</div>
</div>
</div>
</div>
</div>
</div>
<div><br>
</div>
<div><br>
</div>
<div><br>
</div>
</div>
</div>
</span>
</body>
</html>