Musings on 2017 Storage

Dieses Posting dümpelt schon eine Weile in meinem Draft-Folder und immer wenn man Muse hat, sich doch wieder abstrakt zu äußern, passiert irgendetwas, was diesem Thema einen ganz neuen Drive gibt.

So etwas rauscht gerade durch den Blätterwald: HPE ackquiriert Simplivity. Die selbe HPE, die vor achtzehn Monaten noch im Brustton festester Überzeugung bei der Diskussion um Hyperconvergente Architekturen und in der Positionierung ihrer VSA behauptet hat, dass inline Compression und Deduplizierung der Tod jedes Storage Systems sind.

Zwischenzeitlich hat Dell EMC erworben. Damit ist die Storage Kompetenz von VMWare VSAN, Nexenta und EMC klassisch unter einem Dach vereint, aber nicht mehr länger unter der Federführung des Platzhirschen.

Bewegung kommt in das Spiel.

Meine nunmehr bald acht Jahre alte Behauptung, dass Storage über Software-Projekte wettbewerbsfähig bereitgestellt und in nie dagewesener Skalierbarkeit präsentiert werden kann, greift immer Weiter um sich.

War ich mit einem unter VMWare manuell virtualisierten Software-defined Storage im April 2016 noch ein wagemutiger Pionier, macht die Referenz die Runde und immer mehr Anwender, zumindest die weniger ängstlichen, geben dem Konzept eine Chance. Alleine in Deutschland finden sich zusehends Nachahmer, wie mir durch den Hersteller unlängst nahe getragen wurde.

Alles in allem kein Wunder. Der einzige native Hyperconverger Nutanix ist zwar ein Challenger, aber eben nicht unbedingt so ausgestattet, dass er in den Wettbewerbskrieg ziehen kann. Vermutlich ist er der nächste Übernahme Kandidat. HPE hatte ja schon zuvor mit den ProLiant 250 eine Plattform geschaffen, die den Appliance Anbietern Kopfweh bereitet haben dürfte. Simplivity und Nutanix haben sich als Storage Plattform positioniert, eine Position in der sie nur verlieren konnten. Im direkten Vergleich von Datenvolumen zum Rest der Welt, hat der Anwender immer zu viel CPU und damit auch zu viel Lizenzbedarf bei seinen eigentlichen Plattformen erwerben müssen. Die Applianceartigen Baukästen von Dell, HPE und auch Nischenanbiertern haben schon lange darauf  gezielt hier eine bessere Auslastung hin zu kriegen.

Sogar NetApp hat mit seinem ONTAP-Edge den Schritt in Richtung Do-It-Yourself Hyperconvergence gewagt und bietet ein Produkt, das man in Eigenregie oder einrm erfahrenen Systemhaus integrieren kann. Was ich bei all der Hype tatsächlich auffallend finde ist, wie still es um Hitachi und IBM geworden ist. Ob diese Dinosaurier sich nach wie vor hinter ihren Hardware-Virtualisierern verstecken?

Mittlerweile bricht die starre Bindung zwischen den verschiedenen Kapazitäten Disk, CPU, Memory zusehends auf und das Software-defined Datacenter nimmt auch im kleinen Formen an. Eigentlich (soll man nicht benutzen, ich mache dies mit Absicht) hat auch der kleinformatige Anwender von IT-Infrasturkutur heute alle Mittel zur Hand um Maßgeschneidert eine extrem leistungsfähige und Skalierbare Lösung zu bauen.

Ist man etwas mutiger stehen aus meiner Sicht mit Openindiana – Illumos, Comstar, Linux oder FreeBSDZFS zahlreiche Open-Source-Varianten zur Verfügung, mit welchen man sowohl Block-Storage als auch Filesystem-Storage an einen der gängigen Hypervisor präsentieren kann. Skaliert die Anwendungslandschaft noch weiter, lohnt es sich ohnehin sich über verteilten Object-Storage Gedanken zu machen und auch hier gibt es neben den etablierten Spielern im Open-Source Bereich mit Ceph, GlusterFS und Lustre durchaus ernst zu nehmende Aspiranten.

Hat man hier einige Piloten gewagt, stellt man auch fest, dass die vielen Nischenanbieter wie Tintri, Pure und einige mehr aus dem Bereich All-Flash-Storage oder auch In-Memory-Storage auch nur geschickt dir Lücken der großen Anbieter ausnutzen, mit Wasser kochen und am Ende, zumindest zum Teil, schneller wieder von der Bildfläche Verschwunden sind, als man bis drei zählen kann. Tatsächlich leiden gerade diese Anbieter noch mehr wie die Anbieter Hyperconvergenter Systeme unter dem Manko, dass ihre Lösungen für spezifische Anwendungen sehr gut funktionieren, doch ein offener Ansatz hier nahezu immer ein viel breiteres Anwendungsspektrum unterstützt. Im breiten Massenmarkt haben die Anwender jedoch selten den Luxus Anwendunsspezifische Storagesysteme zu beschaffen und muss sich möglichst breit aufstellen.

Genau aus diesem Grund halte ich nach wie vor die Lösungen, die sich aus einer Virtualisierung software-definierter Storage-Ressorurcen mit einer granularen Hardware-Architektur bilden lassen, für absolut weg weisend. 2017 wird das Jahr der virtualisierten Software-definierten Storages. Das Konzept ist reif für die Breite!

Als Teaser vorweg: am 17.2. geht die iX 3.17 in den Verkauf, hier kann eine detaillierte Projektbeschreibung meines letzten Do-It-Yourself Hyperkonvergence-Projektes nachgelesen werden. Für Nachfragen stehe ich zur Verfügung.

KyP.F.

 

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.