Die Zukunft von Edge Computing

Edge-Computing verhilft der Cloud auf die Sprünge

Der Datenverarbeitung am Rande des Netzwerks wird eine grosse Zukunft vorausgesagt. Insbesondere rechenintensive Echtzeit-Anwendungen werden auf Edge Computing angewiesen sein – allen voran komplexe IoT-Systeme und Künstliche Intelligenz am Ort des Geschehens: im Strassenverkehr, am Industriestandort, in Smart Buildings.

21.04.2021Text: tnt-graphics0 Kommentare
Edge Computing

Wenn Siri oder Alexa den Bruchteil einer Sekunde zu spät antworten, strapaziert dies höchstens unsere Geduld. Wenn die vernetzte Präzisionsmaschine in der Fertigung wegen verzögerter Feedbacks falsch reagiert, kann dies jedoch fatale Folgen haben. Echtzeit-Datenverarbeitungen in Industrie, Mobilität oder Medizin erfordern eine immer schnellere Verarbeitung grosser Datenmengen. Insbesondere zeitkritische Systeme in Zusammenhang mit dem Internet der Dinge (IoT) und Machine Learning sind darauf angewiesen, dass die Datenübertragungen zu den Rechenzentren und zurück innerhalb kürzester Zeit geschehen, da sonst problematische Latenzen entstehen. Da der Flaschenhals in die Cloud mit der Zunahme vernetzter Devices und grösserer Datenmengen künftig noch enger wird, steigt die Notwendigkeit für Edge Computing stark an. Diverse internationale Studien beurteilen Edge Computing deshalb als eine Schlüsseltechnologie der unmittelbaren Zukunft.

«Edge is the new cloud» wird allenthalben sogar behauptet. Gartner erwartet, dass künftig 75 Prozent der Daten «on the Edge» verarbeitet werden. Demzufolge soll der Edge-Computing-Markt jährlich um bis zu 50 Prozent steigen. «Edge ordnet die Landschaft des Enterprise Computing neu», heisst es etwa in der Edge-Studie von Reply und teknowlogy vom Februar 2021. Entsprechend wagt Grand View Research die Prognose, dass Edge Computing 2027 ein Marktvolumen von 43 Milliarden Dollar erreichen wird. Für das Fraunhofer-Institut für Integrierte Schaltungen IIS wiederum steht fest: «Die Zukunft der Cloud liegt in der Edge.»

Künstliche Intelligenz ohne Latenz

Ein grosser Treiber dieser Entwicklung dürfte die steigende Nutzung von KI-Anwendungen mit Bedarf an Echtzeit-Datenverarbeitung sein. Zwar bleibt für herkömmliche Anwendungen mit Machine Learning und KI die Cloud der bevorzugte Ort zur Datenverarbeitung – etwa für die tiefe Datenanalyse oder zum Training neuer Modelle. «Doch für autonome Entscheidungen in Echtzeit werden die Übertragungen in die Cloud damit zu träge und die Datenmengen zu gross», sagt Oliver Christen, Software Engineer bei bbv. Mit der Datenverarbeitung vor Ort ist Edge Computing in der Lage, komplexe KI-Anwendungen enorm zu beschleunigen: Zeitkritische Entscheidungen werden am Ort des Geschehens gefällt. So wird gemäss Christen zwar die Latenz nicht ganz eliminiert, doch aber deutlich reduziert.

Vom Connected Car bis zum Türöffner

Laut verschiedenster Studien und Prognosen hat Edge Computing das Potenzial, die Lösung für verschiedenste technologische Herausforderungen von morgen zu sein. Die kurze Reaktionszeit kann bei zeitkritischen Anwendungen wie in halbautonomen oder selbstfahrenden Fahrzeugen lebenswichtig sein. So lässt etwa die Entscheidung, ob eine Vollbremsung eingeleitet oder Hindernis umfahren werden soll, kein Aufschieben zu. Die Entscheidungen für Notfallmanöver sollten deshalb nicht in einem fernen Rechenzentrum gefällt werden, sondern direkt im Fahrzeug. Ähnliche Szenarien betreffen etwa die Robotik, medizinische Instrumente oder bilderkennende Drohnen. Edge kann künftig in komplexen Anwendungen zur Naturüberwachung oder in der Landwirtschaft zum Zug kommen, wo der Zugang zu leistungsstarken Netzwerken zwar fehlt, aber dennoch Echtzeitdaten benötigt werden. Vor allem in der Industrie, wo Edge Computing bereits heute zum Einsatz kommt, wird seine Bedeutung zunehmen. «Während einfache Edge Gateways heute an einem Industriestandort lokal die nutzbaren Daten nach bestimmten Mustern noch eher rudimentär herausfiltern, werden künftig auch rechenintensive Datenverarbeitungen in der On-Premises-Infrastruktur vorgenommen», erklärt Michel Estermann, Software Engineer bei bbv. Die Vernetzung der Edge-Hubs und -Devices kann zudem mittels 5G beschleunigt werden. Der neue Mobilfunkstandard werde deshalb beim Ausbau von Edge-Systemen eine wichtige Rolle spielen.

Auch in ganz alltäglichen Anwendungen bestehen Echtzeitanforderungen, die auf diese Weise gelöst werden können. Man denke etwa an ein Türöffnungssystem mit Gesichtserkennung: Im Idealfall funktioniert dieses so schnell, dass man seinen Schritt nicht verlangsamen muss, um den Eingang zu passieren. Entsteht jedoch eine Wartezeit, bis das System das Gesicht der Mitarbeitenden erkennt, ist das System für die täglich eintretenden Personen alles andere als komfortabel und zeitsparend. Statt also sämtliche Daten aus dem Smart Building mit dem Rechenzentrum auszutauschen, genügt es, diese vor Ort zu verarbeiten. Ein weiterer Vorteil solcher Anwendungen ist die Tatsache, dass personenbezogene Daten mit Edge-Verarbeitung nicht in die Public Cloud gelangen.

Trotz aller Vorteile von Edge und mitunter gemachten Verheissungen: Die Edge-Technologie zieht auch Nachteile mit sich. So gelten die Einstiegskosten und der Wartungsaufwand als relativ hoch – etwa im Vergleich zum Cloud Computing. Nicht zeitkritische (grössere) Datenmengen, die an einem Industriestandort oder in einer anderen Edge-Anwendung anfallen, werden deshalb zur tieferen Analyse weiterhin ins Rechenzentrum gesendet. Edge wird nie für sich alleine funktionieren, sondern wird immer im Zusammenspiel mit der Cloud stehen. Ohne Cloud kein Edge. «Hyperscaler wie Microsoft Azure oder AWS werden diesem Umstand gerecht, indem sie bereits komplette PaaS-Lösungen für Edge-IoT-Anwendungen anbieten», sagt Michel Estermann. «Mit diesen lassen sich die Vorgänge in der Edge zentral steuern und kalibrieren.»

Fog Computing: zwischen Edge und Cloud

Wachsende Anforderungen an die Datenverarbeitung am Rande der Netzwerke erfordern leistungsfähigere Edge-Systeme und -Devices. Wenn in Zukunft die Edge-Architekturen für komplexe Anwendungsfälle nicht mehr ausreichen, geht man davon aus, dass das sogenannte Fog Computing zum Einsatz kommen wird. Bei Fog Computing (von engl. «Nebel») sorgen «Mini-Rechenzentren» zwischen Edge und Cloud für schnelle, aber dennoch umfangreiche Datenverarbeitungen nahe der Datenquelle. Je mehr Entscheidungen und Analysen in den sogenannten Fog nodes vorgenommen werden können, desto mehr reduzieren sich die zu übermittelnden Datenmengen ans Rechenzentrum bzw. in die Cloud. Vom Prinzip her ist Fog Computing also lediglich eine Verlagerung der Rechenleistung vom Rande des Netzwerks in eine Zwischenstation. Verschiedentlich werden solche Szenarien auch als leistungsfähigere Edge-Architekturen beschrieben, in welche grössere Speicher- und Rechenleistungen möglich sind und in welche die Businesslogik implementiert werden kann.

Dezentral statt in der Cloud

Als weiteres Szenario, wie die Kapazitätsengpässe zwischen Edge und Cloud umgangen werden könnten, gilt der dezentralen Datenverarbeitung. In diesem Fall werden Rechenleistungen aus der Edge direkt an Peer-to-Peer-Netzwerke mit einer hohen Verfügbarkeit und einer geringen Latenz ausgelagert. Als Möglichkeit wird dazu beispielsweise das ehemalige Bit-Torrent-Netzwerk Resilio genannt, deren Dienste als stabil gelten und das auch mit grossen Datenmengen umgehen kann. Die Peer-to-Peer-Fähigkeiten werden aber auch innerhalb der Edge-Systeme zunehmen. Denn mit zunehmender Komplexität wird auch die Kommunikation am Rande des Netzwerks unter den Edge Devices wichtiger. Neben schnellen, lokalen Übertragungstechnologien wie WiFi 6, NB IoT oder LoRaWAN wird deshalb vor allem auch 5G dafür sorgen, dass Edge Computing leistungsfähiger wird.

Sicherheit am «Rand des Netzwerks»

Mit der steigenden Komplexität im Edge Computing ändern sich auch die Sicherheitsmassnahmen. Einerseits bieten die vernetzten, leistungsfähigen Systeme vor Ort mehr Angriffsfläche, sodass Edge Devices und wichtige Knotenpunkte verletzliche Angriffsziele von Hackern werden könnten. Zudem können Systeme, die sich ausserhalb von Industriestandorten oder in abgelegenen Gebieten befinden, manuellen Manipulationen ausgesetzt sein.

Edge kann gemäss Oliver Christen künftig aber auch vermehrt Sicherheitsvorteile bieten: «Sensible Daten sind besser geschützt, wenn sie nicht in die Public Cloud transferiert werden müssen und stattdessen in den On-Premises-Infrastrukturen verarbeitet werden.» Auch die Einhaltung gewisser regulatorischer Vorgaben und Datenschutzbestimmungen ist bei lokaler Speicherung besser zu handhaben. Zudem ist davon auszugehen, dass die Systeme bei reiner Offline-Datenverarbeitung robuster gegen Netzwerkausfälle sind. «Um die Risiken zu vermindern, werden in Layers eingeteilte Edge-Systeme an Bedeutung gewinnen – insbesondere für Anwendungen mit sensiblen Daten», so Christen weiter. Bei diesen Systemen erhalten ausschliesslich die oberen Schichten direkte Verbindung zum zentralen Rechenzentrum. Die unteren Schichten bleiben komplett offline und werden durch Firewalls von den oberen Schichten getrennt. Eine andere Methode zur Risikoverminderung besteht in der temporären Internet-Konnektivität: Die Edge Devices sind bloss in kurzen Zeitfenstern mit der Cloud verbunden – etwa, um Daten für die tiefere Analyse zu senden oder für Updates.

Edge ist nicht die neue Cloud. Vielmehr ist Edge die ideale Ergänzung zur Cloud. Deshalb wird diese Technologie, die heute bereits in einigen Bereichen unverzichtbar geworden ist, in Zukunft noch eine viel wichtigere Rolle spielen. Zwar wird Edge Computing immer am Rande des Netzwerks stattfinden, doch wird es alles andere als eine Randerscheinung sein.

Dieser Artikel erschien als erstes im «Swiss IT Magazine».

Die Experten

Oliver Christen

Oliver Christen war Senior Software Engineer bei bbv. Er ist ein ausgewiesener Teamplayer und überzeugt, dass in einem multifunktionalen, agilen Team die besten Lösungen entstehen. Er ist mit den neusten Microsoft-Technologien vertraut und hat langjährige Erfahrung in diversen Branchen gesammelt. Seit einiger Zeit ist er im IoT-Umfeld tätig und beschäftigt sich insbesondere mit Edge Computing.

Michel Estermann

Michel Estermann ist Senior Software Engineer bei bbv. Er ist überzeugt, dass ein gemeinsames Verständnis der Vision, Ziele und Anforderungen essentiell für das Gelingen eines Projektes ist – ganz nach dem «Manifest für Agile Softwareentwicklung». Als Entwickler möchte er auch seinen Beitrag dazu leisten.

Cloud als Innovationsbeschleuniger

Coffee-as-a-Service: Kundenerlebnis neu definiert

Cloud Computing
MS Azure Migration

eHealth: Wachstum dank Cloud-Technologie

Cloud Computing
bbv als Arbeitgeber

Ein Blick hinter die bbv-Kulissen

.NET Software Engineer

Beachtung!

Entschuldigung, bisher haben wir nur Inhalte in English für diesen Abschnitt.

Achtung!

Entschuldigung, bisher haben wir für diesen Abschnitt nur deutschsprachige Inhalte.