Nutanix Shadow Clones

Shadow Clones kommen vor allem in VDI-Umgebungen mit Linked Clones zum Einsatz. Sowohl Citrix XenDesktop mit MCS als auch VMware Horizon View arbeiten hier mit einem Master-Image, auf welchem alle Linked Clones basieren bzw. darauf verweisen. Das spart enorm viel Speicherplatz, da das Golden Image nur einmal gespeichert werden muss und alle damit verknüpften VMs lesend auf dieses Image zugreifen. Die vermeintlichen Nachteile von Linked Clones sind, der erhöhte I/O-Bedarf auf dem Storage und ein erhöhter Netzwerkverkehr. Das können in einer 3-Tier Umgebung eine LUN und ein FibreChannel Netzwerk sein, oder Falle von HCI Umgebungen, ein einzelner Host mit seinen lokalen Festplatten und dem 10G Ethernet. Ohne Shadow Clones würden also alle Linked Clones über das Netzwerk auf die „vDisk“ des Golden Images zugreifen.

shadowclones2Um den daraus resultierenden Hotspot auf den physischen Festplatten zu vermeiden und Netzwerkverkehr zu reduzieren, überwacht die Distributed Storage Fabric (DSF) den Zugriff auf alle vDisks. Entdeckt sie dabei eine vDisk, welche zum einen Zugriffe von mindestens zwei remote CVMs und der lokalen CVM aufweist und zum anderen ausschließlich Read Requests bedient, so wird diese als immutable (read-only – unveränderbar) markiert. Von nun an wird diese vDisk auf den allen Hosts zwischengespeichert, welche Daten von dieser vDisk anfragen. Damit können die CVMs im Cluster nun Leseanfragen von Linked Clones sofort lokal bedienen. Somit wird quasi die Data Locality automatisch sichergestellt und die VMs profitieren so von einer extrem niedrigen I/O-Latenz.

shadowclones1-page-1Ein manuelles Kopieren des Golden Images auf alle Hosts im Cluster entfällt dadurch. Um das Netzwerk zu schonen, passiert dies auch nicht pro-aktiv, sondern erst wenn ein Block erstmalig angefragt wird. Nimmt man Änderungen am Golden Image vor, z.B durch das Einspielen von Windows Updates, werden die Shadow Clones verworfen und der Prozeß neu gestartet.

Wie konfiguriert man Shadow Clones? Gar nicht! Shadow Clones sind automatisch aktiv. Das Ein- und Ausschalten erfolgt über die nCLI:
ncli cluster edit-params enable-shadow-clones=<true/false>

Zu Shadow Clones gibt es auch ein Video im nu.school-Kanal von Nutanix auf YouTube:

Nutanix Foundation – oder: „Wie schnell kann ich wieder produktiv sein?“

Alle IT-Verantwortlichen stehen nach einer gewissen Zeit vor dem Problem, das die vorhandene Infrastruktur entweder erweitert, oder komplett erneuert werden muss. Eine Erneuerung findet normalerweise statt, wenn die bestehende Hardware Plattform keinen Support mehr vom jeweiligen Hersteller erhält, oder Ersatzteile sehr schwierig und teuer erworben werden müssen. Es gibt nun mehrere Wege zur neuen Infrastruktur:

  1. Man bleibt bei der bisher bewährten und eingesetzten Technik
  2. Neue Möglichkeiten und Techniken werden evaluiert
  3. Man versucht die ersten beiden Punkte zusammen zu vereinbaren.

Eines haben aber alle Möglichkeiten gemeinsam: Es folgen lange Planungen und Umsetzungszeiten für die Installation, Inbetriebnahme zu einer neuen Infrastruktur.  In diesem Artikel möchte ich den Nutanix Foundation Prozess kurz erläutern und aufzeigen das eine Inbetriebnahme nicht Wochen dauern muss, sondern auch in wenigen Stunden erledigt werden kann.

Für die Installation eines neuen Nutanix Clusters wird der Block im Rack eingebaut, aber noch mit keinerlei Kabeln verbunden. Um den Foundation Prozess von Eurem Rechner aus zu starten, ladet Ihr Euch das Foundation Discovery Applet hier herunter. Bevor Ihr das Applet ausführt werden die shared IPMI Ports an einen Switch eurer Wahl verkabelt. Es hat sich als sinnvoll herausgestellt für die Installation einen möglichst einfachen Switch für die Installation zu verwenden, da intelligente Switch Funktionen wie z.B. Spanning Tree sehr häufig zu Problemen führen. Ich nutze z.B. den Switch von NetGear GS108E.

Nach dem Start des Applet wird eine Discovery durchgeführt welche alle Nodes im angeschlossenen Netzwerk finden sollte. Taucht hier nichts auf, sind vermutlich nicht die shared IPMI Ports verkabelt, oder es wird ein „intelligenter“ Switch verwendet, welcher z.B. das IPv6 Discovery blockiert.

Screen Shot 2017-02-27 at 15.00.11.png

Zum besseren Verständnis, die Nutanix Systeme werden immer mit dem Hypervisor AHV und dementsprechend auch lauffähigen CVMs ausgeliefert. Das Java Applet schlägt quasi die Brücke zwischen den physischen Nodes und der so genannten Foundation Software, welche innerhalb der CVMs läuft. Der eigentliche Installationsprozess wird dann von einer der CVMs gestartet. Der Button „Launch Foundation“ leitet dann entsprechend zum Foundation Service auf eine der CVMs weiter. Im Browser der Wahl wird man nun zu folgendem Prozess geleitet. Im ersten Schritt wählt man alle Nodes aus, die Teil des neuen Clusters sein sollen.

Screen Shot 2017-02-27 at 15.02.13.png

Im folgenden Dialog werden alle generellen Cluster Informationen eingegeben. Eine Anpassung der RAM Kapazität der CVMs, lässt sich jederzeit realisieren, wer sich diesen Schritt jedoch sparen möchte, kann direkt auf z.B. 32GB RAM gehen. Jedoch besteht auch die Möglichkeit mit einer kleineren  Konfiguration wie z.B. 16GB zu starten.

Screen Shot 2017-02-27 at 15.04.04.png

Die Einstellungen der einzelnen Knoten erfolgt im nächsten Schritt. Hier gibt es die Möglichkeit im unteren Teil alles manuell auszufüllen. Füllt man den oberen Teil zuerst aus, werden die Einstellungen automatisch unten übernommen. Das automatische Ausfüllen funktioniert natürlich nur, wenn die IP Adressen aufeinanderfolgend sein sollen.

Screen Shot 2017-02-27 at 15.05.49.png

Als nächstes werden nun zu installierenden Versionen der CVM (Acropolis) und des Hypervisors ausgewählt. Wie bereits erwähnt werden neue Nutanix Systeme mit AHV als Hypervisor ausgeliefert. Sollte vSphere zum Einsatz kommen, kann die entsprechend gewünschte ESXi Version entsprechend hochgeladen werden. Die Foundation Software ist in der Lage, jeden unterstützen Hypervisor automatisiert zu installieren.

Screen Shot 2017-02-27 at 15.09.28.png

Die Installation ist nun fast abgeschlossen. Es werden nun alle Eingaben überprüft und falls keine Fehler entdeckt wurden, startet direkt die Installation. Bei einem Klick auf log kann der Status der Installation verfolgt werden.

Screen Shot 2017-02-27 at 15.19.50.png

In meinem Fall im Labor, wurde der Cluster nach 13 Minuten und 23 Sekunden (!) eingerichtet und die erste virtuelle Maschinen kann nun direkt über PRISM installiert werden.

Screen Shot 2017-02-27 at 15.24.19.png

Screen Shot 2017-02-27 at 15.24.46.png

Sollte ein anderer Hypervisor, wie beispielsweise ESXi zum Einsatz kommen, dauert die Installation etwas länger als bei AHV. Nach der erfolgreichen Installation haben allerdings auch alle Knoten bereits die wichtigste Grundkonfiguration hinter sich, wie z.B. Storage (Datastore), Netzwerk, etc. Sollte bereits ein vCenter vorhanden sein, können die ESXi Hosts sofort integriert und ein neues vSphere Cluster erstellt werden.

Hinweis: Der gleiche Prozess funktioniert auch für vorhandene Cluster, die um neue Nodes erweitert werden sollen. Sprich die Skalierung eines Nutanix Clusters ist denkbar leicht. Hierzu wird es in Kürze noch einen weiteren Artikel geben.