<div>Hello, </div><div><br></div>I hate being a headache, but this didn&#39;t go smooth as I was hoping, and I appreciate your support to get moving, <div><br></div><div>I finally successfully attached the volume I created, but didn&#39;t see where it should be on the cluster, and how my data will be saved from session to session, </div>


<div><br></div><div>The volume I created is a 30 GB, I first mounted it to /mydata, and didn&#39;t see this when I started the cluster, this is what I get:</div><div><br></div><div><div>root@ip-10-16-3-102:/dev# fdisk -l</div>


<div><br></div><div>Disk /dev/sda: 8589 MB, 8589934592 bytes</div><div>255 heads, 63 sectors/track, 1044 cylinders, total 16777216 sectors</div><div>Units = sectors of 1 * 512 = 512 bytes</div><div>Sector size (logical/physical): 512 bytes / 512 bytes</div>


<div>I/O size (minimum/optimal): 512 bytes / 512 bytes</div><div>Disk identifier: 0x00000000</div><div><br></div><div>   Device Boot      Start         End      Blocks   Id  System</div><div>/dev/sda1   *       16065    16771859     8377897+  83  Linux</div>


<div><br></div><div>Disk /dev/xvdb: 901.9 GB, 901875499008 bytes</div><div>255 heads, 63 sectors/track, 109646 cylinders, total 1761475584 sectors</div><div>Units = sectors of 1 * 512 = 512 bytes</div><div>Sector size (logical/physical): 512 bytes / 512 bytes</div>


<div>I/O size (minimum/optimal): 512 bytes / 512 bytes</div><div>Disk identifier: 0x00000000</div><div><br></div><div>Disk /dev/xvdb doesn&#39;t contain a valid partition table</div><div><br></div><div>Disk /dev/xvdc: 901.9 GB, 901875499008 bytes</div>


<div>255 heads, 63 sectors/track, 109646 cylinders, total 1761475584 sectors</div><div>Units = sectors of 1 * 512 = 512 bytes</div><div>Sector size (logical/physical): 512 bytes / 512 bytes</div><div>I/O size (minimum/optimal): 512 bytes / 512 bytes</div>


<div>Disk identifier: 0x00000000</div><div><br></div><div>Disk /dev/xvdc doesn&#39;t contain a valid partition table</div></div><div><br></div><div><div>root@ip-10-16-3-102:/dev# df -h</div><div>Filesystem            Size  Used Avail Use% Mounted on</div>


<div>/dev/sda1             7.9G  5.1G  2.5G  68% /</div><div>udev                   12G  4.0K   12G   1% /dev</div><div>tmpfs                 4.5G  216K  4.5G   1% /run</div><div>none                  5.0M     0  5.0M   0% /run/lock</div>


<div>none                   12G     0   12G   0% /run/shm</div><div>/dev/xvdb             827G  201M  785G   1% /mnt</div></div><div><br></div><div><br></div><div><br></div><div>no 30GB volume attached, then I terminated and followed the suggestions in this page:</div>


<div><br></div><div><a href="http://web.mit.edu/star/cluster/docs/latest/manual/configuration.html" target="_blank">http://web.mit.edu/star/cluster/docs/latest/manual/configuration.html</a></div><div><br></div><div>making it mount to /home thinking it will be used in place of the /home folder, and this way all my installations and downloads will be saved after I terminate the session, </div>


<div><br></div><div>however, when I started the cluster this is what I get:</div><div><br></div><div><div>root@ip-10-16-24-98:/home# df -h</div><div>Filesystem            Size  Used Avail Use% Mounted on</div><div>/dev/sda1             7.9G  5.1G  2.5G  68% /</div>


<div>udev                   12G  4.0K   12G   1% /dev</div><div>tmpfs                 4.5G  216K  4.5G   1% /run</div><div>none                  5.0M     0  5.0M   0% /run/lock</div><div>none                   12G     0   12G   0% /run/shm</div>


<div>/dev/xvdb             827G  201M  785G   1% /mnt</div><div><br></div><div><br></div><div>There is no 30 GB volume as well, and neither / nor /mnt are getting bigger, </div><div><br></div><div>here is what I am having in my config file:</div>


<div><br></div><div><div>[cluster mycluster]</div></div><div><div>VOLUMES = mydata</div></div><div><br></div><div><br></div><div><div>[volume mydata]</div><div># attach vol-c9999999 to /home on master node and NFS-shre to worker nodes</div>


<div>VOLUME_ID = vol-c9999999 #(used the volume ID I got from the AWS console)</div><div>MOUNT_PATH = /home  #(not sure if this is true or not, I used /mydata in the first run and didn&#39;t work as well)</div></div><div>

<br></div><div>also when I was running before attaching the volume, I had starcluster put and starcluster get commands working very well. After attaching the volume, I had them working and saying 100% complete on my local machine, but when I log in to the cluster, I find the paths where I was uploading the files to, empty, no files went through! I am not sure if this is related to attaching the volume and whether there should be anything I need to do </div>

<div><br></div>P.S. I noticed in the ec2 command line tools to attach a volume to an instance, I should define the volume ID, the instance ID and the device ID (/dev/sdf), same as found in the aws online console. However, the mount path in the starcluster configuration file, doesn&#39;t seem to be a device ID that should have been (/dev/sdf) for linux as far as I understand. Not sure where to define this in starcluster if this is the missing point, </div>

<div><br></div><div>I appreciate your help  very much, </div><div><br></div><div>thanks again, </div><div><br></div><div>Manal<br><div class="gmail_quote"><br></div>
</div>