<div dir="ltr">Hi Developers, All,<div><br></div><div style>I am struggling operationally with the snapshots and volumes that starcluster creates when I attach extra (non-root) EBS volumes to the  cluster nodes that I launch.  </div>
<div style><br></div><div style>I have read everything I can find that&#39;s relevant in the mailing list -- in particular, <a href="http://star.mit.edu/cluster/mlarchives/1368.html">this</a> -- and understand that this is just how it&#39;s designed to work.  </div>
<div style><br></div><div style>As background for anyone unfamiliar with this, currently, starcluster only will NFS-share volumes that are specified in the cluster template.  It doesn&#39;t share volumes that are already existing devices in an AMI.  </div>
<div style><br></div><div style>I have also experimented with the Delete on Termination setting for volumes associated with my AMIs.  The volume has to be built into an AMI (as a block device), and  has to be attached to an instance when it&#39;s terminated, in order for the deletion to take place.</div>
<div style><br></div><div style>Starcluster terminate operation umounts devices and detaches  volumes before terminating cluster instances.  This negates the Delete on Termination operation for such volumes.</div><div style>
<br></div><div style>I would like to be able to have starcluster share such additional volumes that are already present as block devices in the AMI.  This would allow me to flip the bit in the AMI that would cause delete-on-termination for the volume.</div>
<div style><br></div><div style>Could we have a new option, basically a &quot;--share-also=&lt;dev&gt;:&lt;mount_point&gt;&quot;?  I think you would also need to *not* detach such extra volumes (though you&#39;d of course umount them) in the cluster termination process, in order for the Delete-on-Termination setting to take effect.</div>
<div style><br></div><div style>I acknowledge that it&#39;s more complex than I&#39;ve described, because the &quot;volumes&quot; attached to the instances are actually snapshots, in the way that starcluster (and AWS) functions.  I haven&#39;t found anything in AWS-land that auto-deletes snapshots on termination.</div>
<div style><br></div><div style>This is all pretty confusing and frustrating. </div><div style><br></div><div style>I&#39;d appreciate it if Justin and others would discuss the feasibility of such a &quot;--share-also&quot; function, any reasons why it could not work correctly, or would foul up the Starcluster design or operations.</div>
<div style><br></div><div style>And if anyone has overcome the operational issue of volumes and snapshots piling up -- that is, if you&#39;ve automated recognition and deletion of temporary copies of volumes and snapshopts -- I&#39;d love to hear about your approach.</div>
<div style><br></div><div style>Thanks to all,</div><div style>Lyn</div></div>