USB-C, fehlender Kopfhöreranschluss, Apple’s Courage mit Traditionen zu brechen und die Parallelen zu Nutanix

Apple’s Courage wurde in letzter Zeit öfter in den Medien erwähnt. Begonnen hat alles mit der Veröffentlichung des iPhone 7, ein Smartphone ohne Kopfhöreranschluss. Spätestens jedoch mit der neuesten Generation von MacBook Pro Geräten, welche auf alle herkömmlichen Anschlüsse (z.B. USB-A, HDMI, SD Card Reader) verzichten und voll auf den neuen USB-C Standard setzen.

Courage nennt Apple es, dem Kunden eine bessere, neuere Technik mehr oder weniger aufzuzwingen, um somit aber gleichzeitig einen neuen Standard zu definieren. Einen Standard der sich auf Grund seiner vielen Vorteile auf kurz oder lang mit sehr hoher Wahrscheinlichkeit durchsetzt. Alle neuen Smartphones bzw. Gadgets werden heute mit USB-C ausgestattet, z.B. das Nintendo Switch, Tablets, Smartphones, Monitore und vieles mehr.

Natürlich gibt es auch einige Nachteile in der Übergangsphase: Man benötigt entsprechende Adapter für Ethernet, HDMI, VGA, USB-A, etc. Das klingt zunächst beschwerlich aber unterscheidet sich in der Realität nicht viel von anderen Herstellern am Markt. Für die meisten Notebooks benötigt man heute den ein oder anderen Adapter, z.B. von Mini-Displayport auf HDMI bzw. VGA, oder Gigabit-Ethernet-USB-Adapter. Das gilt auch für Business Notebooks. Und mit dem richtigen Adapter, ist der Übergang mühelos zu bewältigen und der neue Standard, zeigt dann auch gleich seine Stärken.

Das geniale, ein USB-C Anschluss ist in der Lage Bild, Ton, Strom, USB und Ethernet zu übertragen. Perfekt für Dockingstations oder Multiport-Adapter.

Wo besteht jetzt die Parallele zwischen einem Apple MacBook und der Nutanix Plattform?

Man muss mit manchen Traditionen brechen um in die Zukunft zu gelangen und nur wenn man dazu bereit ist, kann man die Vorzüge neuer Technologien nutzen.

Hier ein paar Beispiele:

  • Fibre Channel (FC) vs. Ethernet: Bis heute schwören die traditionellen Storage Hersteller auf Fibre Channel. Alles ist besser, schneller und stabiler mit Fibre Channel. Das mag bis dato sogar gestimmt haben, doch nicht mehr seit dem es Hyper-converged Infrastructure (HCI) gibt. Hier sucht man FC vergebens. Warum dies keiner macht? Ganz einfach: es macht die Sache nur unnötig komplex. Ethernet ist heute schnell, sehr schnell, schlägt sogar den ein oder anderen FC-Standard mit 40 Gbit Ethernet. Auch die Latenzen können dank RDMA entsprechend minimiert werden. Und das entsprechende Know-How für Ethernet Infrastrukturen, ist oft in den Unternehmen vorhanden.
  • RAID: Auch eine Technologie die seit Jahren genutzt wird und auch noch immer in jeglichen traditionellen Storage vertreten ist. RAID ist eine bewährte Technologie und hilft vor Festplattenfehlern, doch zu welchem Preis? Massive Rebuild Zeiten im Zeitalter von 6TB bzw. 8TB Festplatten, verbunden mit entsprechenden Performance Einbrüchen. Begrenzte Ausfallsicherheit, selbst mit RAID-DP können maximal zwei Festplatten ausfallen. In einer modernen und verteilten Storage Fabrics sind Rebuild Zeiten minimal, alle Komponenten dürfen ausfallen (sogar bis zu 24 Festplatten pro Node gleichzeitig)  und die Last eines Rebuilds wird über möglichst viele Komponenten im Cluster verteilt. Selbst wenn eine 8TB Festplatte ausfällt, werden nur die Daten wiederhergestellt die sich tatsächlich auf dieser befanden und alle Komponenten die über eine Kopie der Daten verfügen, helfen entsprechend beim Rebuild. Dabei werden die Daten natürlich nicht auf eine einzige HDD zurückgesichert, sondern auf viele SSDS/HDDs im Cluster verteilt. Das heißt, je größer ein  Cluster wird, desto kürzer werden die Rebuild Zeiten.

Die Quintessenz dieser Aussagen: Neue Technologien führen meistens zu einem Bruch mit Traditionen und schrecken im ersten Moment vielleicht noch ab. Doch am Ende überwiegen die Vorteile der neuen Technologien die initialen Bedenken. Nutanix stellt den Status Quo auf den Prüfstand und ist disruptiv. Google,  AWS, Facebook leben es vor, hier nutzt niemand RAID oder ein traditionelles Storage System. Scale-Out und Web-Scale wurden dort geboren und werden jeden Tag gelebt. Die Nutanix Enterprise Cloud bringt diese Technologien in Ihr Rechenzentrum und erleichtert so Ihr IT-Leben.

Nutanix Cluster Erweiterung (Scale-Out)

In diesem Artikel möchte ich etwas näher auf die Erweiterungsmöglichkeiten (Scale-Out) der Nutanix Plattform eingehen. Doch zu Beginn die Frage, warum denn ein unkompliziertes und schnelles Scale-Out ein essentielles Feature der Plattform ist?

Nutanix verfolgt die Philosophie, dass das bisherige Vorgehen, Storage und Compute auf 3, 5 oder gar mehr Jahre „vorausschauend“ zu beschaffen, nicht mehr zeitgemäß ist. Zum einen ist es extrem schwer den genauen Bedarf an Ressourcen über einen längeren Zeitraum wirklich präzise vorauszusagen und so läuft man Gefahr, wohlmöglich zu schnell Anforderungen nach neuen Ressourcen nicht nachkommen zu können, oder schlicht, zu groß zu planen und man so ungenutzte Ressourcen vorhält. Selbst wenn die Einschätzung halbwegs passen sollte, werden die Ressourcen über einen längeren Zeitraum nicht genutzt und schaffen so erst über die Zeit einen reellen Wert für das Unternehmen, wenn diese tatsächlich über den Lebenszyklus hinweg auch tatsächlich genutzt werden.

Wie sieht hierzu jetzt die Antwort der Nutanix Plattform aus?

Nutanix empfiehlt tatsächlich nur die Ressourcen zu beschaffen, die stand heute nötig sind, um die bestehenden Workloads und wirklich kurzfristig anstehenden Projekte zu stemmen. Um dies zu ermöglichen, muss es technisch möglich sein, die Plattform möglichst schnell und unkompliziert zu skalieren.

 

Scale-Out

Möchte man ein bestehendes Nutanix Cluster erweitern, so ist der wohl härteste Job, der Einbau und die Verkabelung der Nodes im Rack. Der restliche Prozess kann dagegen bequem per Prism gesteuert werden. Alles das es dazu braucht, sind die folgende Informationen/Daten:

  • IP Adressen für die neuen Nodes (je 3 Adresse pro Node – Hypervisor, CVM, IPMI)
  • Angabe des gewünschten Hypervisors (Upload der entsprechenden .iso Datei)

Die Nodes werden über ein IPv6 Discovery automatisch erkannt und der Installationsprozess, welcher die neuen Nodes mit allen benötigten Komponenten im Hintergrund betankt, erfolgt über die so genannte Nutanix „Foundation“ Komponente. Hierzu folgt in Kürze ein dedizierter Beitrag, der erklärt was die Foundation genau macht. Die folgenden beiden Screenshots zeigen, wie einfach ein Nutanix Cluster zu erweitern geht:

 

Node Rebalancing

Da neue Nodes neben CPU und RAM auch zusätzliche Storage Ressourcen mitbringen, müssen diese in die vorhandene Distributed Storage Fabric (DSF) integriert werden. Nach der Integration des neuen Nodes werden die Daten im Cluster neu verteilt, sodass das  Cluster gleichmäßig ausgelastet ist. Dabei bleibt die Data Locality der bereits laufenden virtuellen Maschinen natürlich erhalten. Dieser Prozess ist völlig transparent und wird automatisch als Teil der Clustererweiterung angestoßen. Da durch diesen Prozess auch wieder Freiräume auf den bestehenden Nodes entstehen, kann so auch die Performance verbessert werden. Auch partizipieren die neuen Nodes direkt, indem sie den Replication Traffic anderer Nodes entgegennehmen.

ntnx_storagepool_1

ntnx_storagepool_2

 

 

 

 

 

ntnx_storagepool_3

Hypervisor

Im Falle von ESXi und Hyper-V, muss der Host noch in den vorhandene Cluster aufgenommen werden. Im Gegensatz dazu, ist dieser Prozess bei AHV komplett automatisiert und erfordert keine weiteren Schritte. In allen Fällen jedoch, ist es möglich, dass direkt nach der Erweiterung virtuelle Maschinen auf die neuen Nodes migriert werden können.

 

Gemischte Cluster

Ein wichtiger Punkt ist, dass ein Nutanix Cluster nicht homogen ausgestattet sein muss. Verschiedene Workloads haben entsprechend unterschiedliche Anforderungen, denen man mit unterschiedlicher Ausstattung entgegnen kann. So können verschiedene Node Typen in einem Cluster gemischt werden, z.B. NX-3060-G5 Nodes mit je 2 SSDs und 4 HDDs mit NX-8050-G5 Nodes, mit 4 SSD und 20 HDDs kombiniert werden. Über Hypervisor Technologien, wie Affinity-Rules, können die Workloads entsprechend den am besten geeigneten Nodes zugeordnet werden.

 

Storage Only Nodes

Jetzt kann es jedoch auch vorkommen, dass die Anforderungen nach Ressourcen ungleich entwickeln, sprich Storage Anforderungen schneller steigen, als die nach CPU und RAM. Auch hier bietet die Plattform eine einfache Lösung, so genannte Storage Only Nodes. Diese Nodes können dem Cluster hinzugefügt werden, haben jedoch die Besonderheit, dass diese:

  1. Mit reduzierten RAM und CPU Kapazitäten ausgestattet sind.
  2. Keine virtuellen Maschinen hosten und auch nicht Teil des Hypervisor Clusters sind.
  3. Immer mit dem AHV Hypervisor betrieben werden, damit hier keine zusätzlichen Kosten für den Hypervisor anfallen.

Somit kann die DSF des Clusters ohne Probleme um mehrere TB Storage Kapazität erweitert werden. Diese sollten immer im Paar hinzugefügt werden, sofern deren Kapazität die der vorhandenen Nodes deutlich übersteigt, sodass wenn ein Storage Only Node ausfällt, genügend freie Kapazitäten im Cluster vorhanden sind, damit der Rebuild in Gänze abgeschlossen werden kann.

ntnx_storagepool_4