Partnerschaft will gelebt sein und auch wenn IT Einkauf rein ökonomisch austauschbar scheint, vernachlässigt dies häufig den Fakt, dass die Lösungsentwicklung von Lieferant und Kunde gleichermaßen betrieben wird und Lieferanten das gerne als Presales verbuchen. Teil dieser Partnerschaft kann dann eben auch sein, aus dem eigenen Erfahrungsschatz Referenz- Vorträge zu halten und auf einen solchen möchte ich hier die Aufmerksamkeit lenken.
Zugegeben ein sehr kurzer Teaser zu einem aktuellen, aus meiner Sicht eher unverstandenen Thema: Edge Computing. Was ist das überhaupt, wo kommt es her und was bedeutet es. Ich will hier nicht den Vortrag wiederholen, aber doch zwei wesentliche Aspekte beleuchten und den Zusammenhang wiederspiegeln.
Edge Computing entwickelt sich aus Notwendigkeit von IoT oder Industrie 4.0 aktuell fast zwangsläufig. Wieso ist das so?
Die beiden letzteren Begriffe machen schon lange die Runde und man kann durchaus überall beobachten wie dies auch Realität wird. Sei es in Autos mit iPhone Haptik, im Smart Home oder eben auch – und vielleicht vor allen Dingen dort – in der Industrie.
Dezentrale Datenerzeugung
Das Internet der Dinge (IoT: Internet of Things) besagt nicht mehr und nicht weniger, dass Gegenstände des täglichen Lebens eine Netzwerk Schnittstelle erhalten und Daten die sie sensorisch oder aus ihrer Nutzung heraus erzeugen auch in irgendeiner Weise zur Verfügung stellen.
Industrie 4.0 besagt im Grunde nicht mehr und nicht weniger, dass dies auch in industriellen Produktionsstätten der Fall ist. In der managementtauglichen Interpretation der Begriffs taucht dann zwar auch eine Monetarisierung der Daten auf, aber man kann fast keine Teile mehr erwerben, die solche Schnittstellen nicht unabdingbar benötigen und ob man diese für datengetriebene Dienste benutzt oder eben nicht, sei mal dahin gestellt. Fakt ist, sie sind heutzutage stark auf dem Vormarsch und im Zweifel gegeben.
Ebenfalls ein unumstößlicher Fakt ist, dass die vernetzten Dinge gesprächiger werden. Hat einem das Smarthome vor einigen Jahren noch gesagt, dass es 21 Grad Warm ist, sagt es einem heute auch Luftfeuchtigkeit, Änderungsraten, Magnetfeldstärke, wann das Licht wie an und aus gegangen ist …. Der geneigte Leser versteht den Punkt. Es gibt keinen Grund warum das in der Industrie anders sein sollte. Hat – stark verkürzt – ein “Drive” vor 7 Jahren “ich drehe mich” zurück gemeldet, macht es das heute inklusive Drehzahl, Temperatur, Achsenschwingung/Vibration und Leistungsaufnahme.
Ein Mobiltelefon hat vor 20 Jahren gerade mal telefoniert. Heute hat es ein vielfaches der Rechenkapazität und Sensorik der Apollo Mission mehr oder weniger am Handgelenk. Zu Letzterem empfehle ich ausdrücklich das Buch von Frank O’Brien.
Anyway: Gegeben diese Gerätschaften nehmen in Anzahl und produziertem Datenvolumen zu – Wo sollen die Daten hin? Lange bin ich der Meinung gewesen, das müsse eine irgendwie geartete Zentrale sein. Ein Datenpool der all den einzelnen Datenelementen einen Kontext und eine übergeordnete Bedeutung gibt. Genau das was im Social Media Bereich auf ganz freiwillige Art beängstigende Formen angenommen hat. Gemeinhin redet man hier von irgendeiner Form von Cloud – wie auch immer die spezielle Wolke dann aussehen mag.
Mein Reden im kommerziellen Kontext, dass daher das Interesse von Lösungsanbietern sein muss ihr eigenes Backend zur Verfügung zu stellen. Ihre eigene Cloud zu schaffen, die eine Verwendung der zur Verfügung stehenden Daten dann doch in einer Art eingrenzt, dass man Reichweiten- oder Verwendungs- Zusagen auch belastbar einhalten kann und sich ebennicht ein Cambridge Analytica durch die Hintertür einhandelt.
Jetzt zur Realität
All diese über Jahre gemachten Beobachtungen und Eindrücke kollidierten irgendwann in den letzten beiden Jahren mit der Realität. Der Begriff Edge Computing macht zwar schon ein bisschen länger die Runde und wenn man mit einschlägigem Marketingmaterial einschlägiger Hersteller konfrontiert wird, dann gewinnt man zwar den Eindruck dass es deren feuchter Traum ist, aber leider auch wenig Substanz hat.
Das ist Mitnichten so. Und das möchte ich an Hand der oben gezeigten Grafiken einfach mal am Beispiel eines mittelständischen Sondermaschinen- Herstellers plausibilieren.
Die Zahl der in den Produkten verbauten intelligenten Komponenten (Controller, Roboter Steuerungen, Motoren, und vieles mehr) steigt seit Jahren. Das nicht nur kontinuierlich. Waren es im Jahr 2015 noch in der Spitze 20 Intelligente Komponenten, bewegte sich deren Peak 2020 bei ca. 800 Modulen und es steht zu erwarten dass Ende 2022 die Zahl knapp unter 2000 Devices in Sichtweite Rückt.
Analog hat sich die Komplexität der abgefragten Parameter gesteigert. Waren es 2015 noch ein oder zwei einfache Schlüsselwerte wie “an oder aus” oder ein gezielten Sensorwert wie “Celsius, Position oder Füllstand” liefern die eingesetzten Komponenten heute Zig wenn nicht Hunderte von Parametern – von denen effektiv dann aktuell vielleicht Fünfundzwanzig Plus Minus verwendet werden.
Da ich den Vergleich “qualitativ” machen werde, ignorieren wir an dieser Stelle die Tatsache, dass die populären Protokolle in Umfang und benötigter Bandbreite auch Daten – hungriger werden.
Plottet man einige Zwischenstände der Entwicklung mit ein, sieht man schnell, dass die Zahl der Komponenten exponentiell und die der Messpunkte mindestens linear steigen. Im Detail gibt es durchaus Anhaltspunkte, dass der Goldstaub, wie gemessene und nicht abgefragte Prozessinformation auch gerne mal genannt werden, durchaus auch das Potential hat exponentiell zu wachsen.
Multipliziert man beide Wachstumstendenzen auf sieht man eine stark exponentiell steigende Kurve an im IoT Bereich wachsender Datenkommunikation. Die Protokolle, ist eine sichere Annahme entspannen das Wachstum auf keinen Fall, sondern dürften die Tendenz noch weiter verstärken.
Jetzt kann man auf den Gedanken kommen, dass Bandbreiten und Anschlüsse ja ebenfalls kontinuierlich und stark an Geschwindigkeit zulegen und auf den ersten Blick ist das ja auch so. Dankenswerter Weise nimmt einem IEEE – Das Standardisierungsgremium, welches sich für die weltweite Normierung elektronischer Kommunikation verantwortlich zeichnet, die objektive Beobachtung ab und man kann es öffentlich nachlesen.
Ganz rechts in o.g. Grafik habe ich die sich daraus ergebende Wachstumskurve “normiert” über die vereinfachte Variante des Bedarfs gelegt – und wie geahnt, steigen die zur Verfügung stehenden Bandbreiten nicht in der notwendigen Geschwindigkeit. Der abzusehende Spagat zwischen Bedarf und technologischer Plattform wird von Tag zu Tag größer. Die Tatsache, dass reale Geschwindigkeiten nicht berücksichtigt sind, ändert nichts an der Aussage grundsätzlich, sondern verschiebt im Wesentlichen nur den Zeitpunkt zu dem sich die jeweilige Transport- Technologien als ungeeignet erweisen.
Das ist insofern auch kein Wunder, als dass Übertragungs- Technologien durchaus an physikalische Grenzen gebunden sind die immer wieder mit Kreativität und ausloten des physikalisch nutzbaren Spektrums verschoben werden müssen – Während demgegenüber die Miniaturisierung und der Preisverfall elektronischer Komponenten, sowie deren stetig wachsende Nutzungs- Perspektive (Use Cases) eine permanent steigende Proliferation entsprechender Methoden zur Folge haben.
Konklusion – Warum Edge-Computing der logische Schluss ist
Architektonisch macht es also durchaus Sinn, sich mit der strukturellen Entkopplung der eingesetzten Komponenten, ihrer Nutzung sowie der für verschiedene Anwendungsszenarien notwendigen Kommunikation mit zentralen System, zu beschäftigen. Die Konsequenz kann nur sein, die externe Kommunikation auf ein Minimum zu reduzieren und so viel als Möglich Verarbeitung und Aggregation der Daten vor Ort zu gewährleisten.
Das ist Aufgabe und Zweck von Edgecomputing. Dazu fehlten lange die notwendigen Ansätze und vielleicht auch Ideen. Aber aktuelle Entwicklungen in der KI und der Schwenk von antrainierten zu selbst lernenden Systemen liefert hier den Notwendigen Vorschub. Simulationen können die grundlegenden Verfahren im Selbst- Training erstellen, so dass in den Geräten im Feld nur noch das sogenannte Refinement überlassen wird. Die Änderungsinformationen des Refinement sind ein Bruchteil dessen, was anderenfalls übertragen werden müsste.
Mehrere Entwicklungen der letzten Jahre bereiten hierfür den Weg:
* Verfügbarkeit und Preisverfall von CPU Power und adressierbarer Hauptspeicher in Standard Servern die notwendig sind sowohl für KI Entwicklung als auch Simulationen der Use Cases
* Nutzung und Skalierung von Grafikkarten Technologie für (in der KI notwendige) Wissenschaftliche Berechnungen
* Wissen um und die Weiterentwicklung von Selbstlernenden Systemen
* Verfügbarkeit von kompakten Komponenten, die o.g. Technologie auch in der Fläche der Anwendung verteilen
Wer daran Zweifel hat, darf in der Schublade gerne Server Angebote und Dimensionierungen von 2018 und 2022 vergleichen. AMD hat mit Zen die Konkurrenz massiv belebt. Google hat mit Alpha Go 2016 die Grenze des Machbaren bei selbst lernenden Systemen massiv verschoben.
Und seit einigen Jahren kommen Feld- taugliche Komponenten wie die HPE ProLiant Edgeline oder DELL Embedded Box PCs auf den Markt, die es erlauben auch IT Verfahren vor Ort um zu setzen und zum Beispiel den Einsatz von CUDA Grafikkarten erlauben.
Damit ist zum einen die notwendige Voraussetzung der Simulation für normale Anwendungen machbar, und zum anderen kann ein Refinement von Information am Ort der Daten- Entstehung erfolgen.
Das ist dann Edge Computing.
In diesem Sinne darf man auch gerne noch einmal über moderne Smartphones und Social Media bzw. andere Smartphone- typische Anwendungen nach denken, die diesen Formfaktor groß gemacht haben.
In diesem Sinne, Kyp. F.