Musings zu Composable Infrastructure, Memory Centric Computing und Next Generation IT Operations

Vorsicht Buzzword Bingo:

Unlängst hatte ich mal wieder die Gelegenheit ganz grundsätzlich über IT Architekturen nach zu denken. Anlass war für mich der Besuch der Discover 2017 Europe und die Eindrücke die ich rund um The Machine sammeln durfte. Ein Ausflug den ich nicht ohne Grund angetreten habe, sondern ganz grundsätzlich vor dem Hintergrund der Aussage, daß Composable Infrastructure das nächste große Ding nach Hyperconvergenz wäre.

The Machine

Nach ersten Diskussionen um CI und den Erfahrungen aus dem Software Defined Storage Projekt der letzten zwei Jahre gab es hier reichlich Klärungsbedarf. Und dieser kolliderte dann zügig mit den einschlägigen Mindsets etablierter Hersteller. Hinzu kamen dann reichlich Erkenntnisse und Anforderungen aus dem Bereich des Memorycentric Computing. Big Data Lösungen waren erst der Anfang und diverse Verfahren aus dem Bereich der KI, insbesondere rund um das machine learning, zeigen hier tatsächlich Usecases auf, die mehr als valide auch etablierte Industrien erreichen. – Meine Ansichten zum Thema Industrie 4.0 sind hier nicht Thema, aber die Anforderungen daraus sind keinesfalls nur noch hypothetisch.

Erstens: Hyperconvergenz ist ein Konzept der Software Definition unabhängig davon, was einem Hersteller von Locked In Lösungen verkaufen wollen. Man verheiratet Software definierten virtualisierten Storage mit dem Hypervisor für die virtualisierten Server Ressourcen. Thats it. Im Idealfall erspart man sich reichlich Bandbreite auf Kommunikationsmedien und erschliesst für überschaubars Budget erhebliche Leistungsreserven. Man kann technischen Balast abwerfen und das durchaus aus voneinander unabhängigen Komponenten selbst aufbauen. VMWare mit VSAN macht hier gerade den nächsten Schritt. HPE hat es scheinbar nicht verstanden und die StoreVirtual konzeptionell beschnitten obwohl die StoreOnce ganz wesentliche Funktionen schon konnte, zumal sich auf o.g. Veranstaltung die Gerüchte häuften die VSA ginge EOL, obwohl ich das bisher nicht bestätigen konnte. Aber immerhin geht der VSA link auf der StoreVirtual Seite ins Leere.

Zweitens: Composable Infrastructure, eine Infrastruktur die zum einen recht weit skaliert und zum anderen policy basierend dynamisch System Ressourcen zur Verfügung zu stellen. Zum Einen virtualisierte Ressourcen, welche sich in der präferierten Hypervisor Umgebung melden, zum anderen auch physikalische Ressourcen, welche immer wieder in verschiedenen Umgebungen benötigt werden. Auch hier aus dem Leben gegriffen – alle Server virtualisiert, Citrix bietet CAD VDI Systeme und Terminal Services auf Basis Windows Server 2016, beides auf XEN und last but not least gibt es Simulations Knoten auf Bare Metal. Alles soll bitteschön automatisiert installiert und ggfs. auch dynmaisch reallokiert werden um entsprechende Schwankungen im Workload zu kompensieren.

Grundsätzlich sehe ich hier tatsächlich einen neuen Ansatz Stateless Server konzepte in den Markt zu bringen. Auch wenn sich die Vokabel so nie wirklich etabliert hat, verhält es sich genau so. Ein Server startet Zustandslos, wird dynamisch provisioniert, erhält seine Identitäten Profilbasierend und wird dann von einem Online Medium per iSCSI, FC oder vergleichbaren Systemen gestartet. Grundsätzlich konnte man so etwas mit CISCO UCS oder HPE Blades und Virtual Connect schon seit geraumer Zeit implementieren, nur musste das Boot Medium gesondert bereit gestellt werden. Dass HPE Synergy jetzt mit dem ImageStreamer das Boot Medium on Board zur Verfügung stellt, ist als Meilenstein zu Verkaufen schon eher lächerlich – nichts desto trotz ist die Integration in ein Package – ein integriertes Betriebskonzept durchaus leider noch nicht selbstverständlich.

Highlight Synergy Photonics: Das eigtentliche Highlight von Synergy geht dabei scheinbar verloren. Und damit wieder zum Aufreisser “Memory-centric computing”: Das Highligt findet sich im Kleingedruckten des unteren Drittels der HPE US Seite zu Synergy – prepared for “Photonics“. Aber der Reihe nach:

Eine der Lessons Learned in jüngster Zeit ist die Bestätigung, daß sich der Trend zur Hauptspeicherkommunikation als Bottleneck fort setzt, bei wachsenden Systemen. Ein Beispiel hierfür sind Zeitreihendatenbanken für Machine Learning. SAP HANA ist nur einer der kommerziellen Dauerbrenner der inMemory Trends. Googles AlphaGoZero residiert zum Wesentlichen Teil nur im Speicher und auch zahlreiche Anwendungen aus dem Bereich der Prozessdatenanalyse, meines täglichen Handwerkszeugs, sind nur vernünftig zu bearbeiten, wenn in Echtzeit auf ihnen operiert wird, was Speicheroperationen auf Medien nahezu aus schließt.

Wie sehr diese Einsicht an den den Grundfesten meines Architekturverständnis wackelt wird vielleicht in diesem Einspieler deutlich.

In der Zusammenfassung wird hier die Auspaltung der von Neumann Arhcitektur diskutiert und begründet wie fundamental sich dadurch die Möglichkeiten der Modellierung und Programmierung ändern – und damit Dinge berechenbar zu machen, die derzeit als nicht berechenbar – oder zumindest nicht terminierend berechenbar gelten. Die Demonstrationen sind vielfätig.

Age of Memory based Computing: Der erste Baustein war vermutlich die Arbeit an persistentem Hauptspeicher, damit in Memory Systeme nicht bei Null anfangen müssen, nachdem dann doch einmal ein Malheur passiert ist. BI Systeme wie auch HANA, leben davon alle relevanten Daten konsolidiert im Speicher zu haben und eine Reinitialisierung dauert oft Stunden oder gar Tage. Der Zweite Trend ist die traditionelle Scale Up schiene, immer größere single system image knoten zu bauen, welche in einem kontinuierlich adressierten Hauptspeicher große Anwendungen beherbergen können. Eine Technologie die zum einen teuer ist und zum anderen gleich in welcher Ausprägung auch immer auf starke technische Restriktionen stößt. Non Uniform Memory Architecture – NUMA – hat immer die Hardware- Grenze eines physikalischen memory Controllers mit begrenzten Leitungen zur Replikation.

Dem tritt heute die Memory Semantic Fabric entgegen – ein Konzept ein Konzept, das in “The Machine” als Prototyp läuft und Außerordentliches unter Beweis stellt. Dabei wird die Hauptspeicherorganisation einzelner Systeme abstrahiert und Hauptspeicher über die Systemgrenzen hinweg in der Fabric auch anderen Anwendungen und Systemen zur Verfügung gestellt. Die von Neumannsche Systembindung entfällt und damit ihre Restriktionen.

Mit Gen-Z hat sich ein Industrie- Konsortium gefunden, welches diese Technologie standardisieren und in den Markt tragen will. Auf der Mitglieder- Liste findet sich das Who-i-Who der IT-Technologie-Unternehmen. Und als eines der ersten konkreten Ergebnisse sind optische Übertrager zur Einsatzreife entwickelt, welche eine direkte Kommunikation verschiedener Speicherkontroller ohne teure Technologien wie Crossbar Extensions oder NUMAlink ermöglichen.

Das kombiniert mit günstigem persistentem Hauptspeicher macht sehr große Anwendungen in flexibler Ausgestaltung einzelner System Knoten realisierbar. Der wirklich große Schritt für HPE Synergy nach vorne, ist die Vorbereitung für solche memory semantic fabric fähiger systeme auf Basis der bekannten ProLiant Compute Nodes ohne Änderung an der zu Grunde liegenden Frame Infrastruktur. Bei Standzeiten von Blade Infrastrukturen von mehr als zehn Jahren, ein durchaus ganz wesentliches Qualitätsmerkmal. Damit und der Abstraktion vom einzelnen Server Knoten wird die Landschaft tatsächlich “composable”.

Themen wie Software- Schnittstellen zur Provisionierung von Systemen und zur dynamischen Erzeugung von Profilen über RestFull APIs oder gescripted per SSH auf der Kommandozeile, gehören dann 2017 schon eher zur Pflicht und sind Grundlage jedes neuen Software Defined Datacenter Konzeptes. Hersteller die hier nicht mit spielen haben da im Zweifel die Zeichen der Zeit nicht erkannt. Insbesondere, sollten sie nicht auf geschlossene Schnittstellen setzen, da wohl kaum ein Anbieter von sich behaupten kann alle Kunden- Anforderungen zu antizpieren.

In diesem Sinne kann man gespannt sein, was hier auf uns zu kommt.

Kyp. F.

 

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.