Facts
Edge-Computing
Wie jede neue Systemarchitektur bringt Edge-Computing auch neue Herausforderungen mit sich. Statt einer zentralen Version der Software hat man plötzlich mehrere. Vor Ort gespeicherte Daten sind nicht unbedingt sicherer als die in der Cloud. Trotzdem: Edge-Computing ist die Zukunft.
Analysten sagen für die nächsten Jahre einen rasanten Anstieg für Edge-Computing einschließlich einer Reihe von neuen Anwendungen, mit denen lokale Abläufe und Prozesse besser gesteuert werden können.
Edgizer bietet die notwendige Unterstützung, um Edge-Computing beherrschbar zu gestalten!
Der Bedarf steigt, neben der eigentlichen Prozesssteuerung immer mehr Daten von Maschinen, Sensoren oder anderer Peripherie zu erheben. Hierdurch wird Edge-Computing für moderne Anwendungen zur unverzichtbaren Schlüsseltechnologie.
Beim Edge-Computing werden Daten dezentral verarbeitet – an dem Ort, wo sie entstehen. Die Bedeutung dieser Technologie steigt mit der Menge der Daten, die durch IoT erzeugt werden.
Analysten sind sich einig, dass die Datenvolumen in den nächsten zehn Jahren explodieren werden.
Die überwiegende Computing-Last tragen bisher konventionelle Datacenter. Hier wird die größte Menge an Daten verarbeitet, gesichert, verwaltet und bereitgestellt. Diese Datacenter konsolidieren massive Datenmengen, sind jedoch weit davon entfernt, den Anforderungen niedriger Latenzzeiten gerecht zu werden. Die Echtzeit-Relevanz neuer Daten wächst dabei aber schneller als die Datenmenge selbst. Die Kombination aus beiden – Datenmenge und geringe Latenzzeiten – zwingen das konventionelle Computing-Modell in die Knie.
Um diese Datenflut mit geringen Verzögerungszeiten, lokalen Analysen und Entscheidungen bewerkstelligen zu können, müssen Computing-Systeme an den „Rand“ des Netzwerkes gelegt werden. Für ihre Funktionalität benötigen IoT-Systeme einen Großteil der Sensordaten, nach der Verarbeitung werden diese aber obsolet.
Edge-Computing verarbeitet diese Daten ohne größere Verzögerungen vor und leitet nur noch die daraus resultierenden Erkenntnisse an die Cloud- oder zentralen Systeme weiter. Diese reduzierte Datenmenge wird für die weitere Verwendung permanent gespeichert, um später Analysen oder anderen Nutzen daraus zu ziehen. Wenn die Echtzeitdaten auf dem Edge-Device nicht mehr von Relevanz sind, werden sie dort gelöscht.
Edge-Computing bildet eine Schicht zwischen dem (privaten) Cloud-Rechenzentrum und der IoT-Sensorik oder Maschinen. Es hat das Ziel, die Latenz zu minimieren, die Netzbelastung zu verhindern und die reibungslose Funktionalität von kognitiven Systemen wie maschinelles Lernen und künstliche Intelligenz zu ermöglichen. Die Edge-Computing-Systeme unterscheiden also zwischen „Wegwerfdaten“ und „kritischen“ Daten. So erzeugt ein autonomes Fahrzeug ein Datenaufkommen von mehr als 4 Terrabyte pro Tag, von dem nur ein Bruchteil für spätere Analyse zu gebrauchen ist und sich lohnt, diese langfristig in einem zentralen System zu speichern.
Die Mehrheit dieser Informationen sind „Wegwerfdaten“, geprägt durch minimales oder fehlendes Potential für eine spätere Wiederverwendung. Das Edge-Device benötigt diese Daten zwar in Echtzeit zwecks sofortiger Entscheidungsfindung – danach aber nicht mehr. Das Edge schaltet sich als eine hyper-responsive Vermittlerschicht zwischen Cyber-physische Systeme auf der einen Seite und das Datacenter auf der anderen Seite. Das Edge-Computing verschiebt die Datenverarbeitung an den „Rand“ des Netzwerks, um die Latenzzeiten zu minimieren und die Entstehung von Flaschenhälsen – Engpässe bei der Datenübermittlung – zu verhindern. Mit Edge-Computing kann die Priorisierung des Datentransfers direkt am Ort des Geschehens und daher in Echtzeit mit nur minimaler Netzwerkbelastung stattfinden.
Auf den ersten Blick scheint das Edge-Computing sehr homogen zu sein und alle Aktivitäten zu bezeichnen die außerhalb des „Kerns“ – wie der physikalischen, primären IT-Infrastruktur eines Unternehmens – abzulaufen. Tatsächlich ist das Edge-Computing jedoch ein Mix aus Multi-Tier-Komponenten, die nach Anwendungsfall oder Workload organisiert sind. Da jedoch noch branchenweite Standards und Architekturansätze für das Edge-Computing fehlen, sind die meisten heutigen Edge-Implementierungen stark an den jeweiligen Anwendungsfall angepasst.
Anders als bei klassischen zentralen oder Cloud-Computing-Systemen, deren Bestandteile Virtualisierungsebenen, horizontal skalierbare Speicher, Microservices und Software-Verteilsysteme einen „Quasi“-Standard für die Architektur bilden, haben sich typische Ansätze für das Edge-Computing noch nicht durchgesetzt. In der Regel reicht ein Knopfdruck, um die Skalierung von Software bei Engpässen oder Überlast in Data-Center zu managen. Das Containerisieren von Software, zum Bespiel durch „Docker“, und managen mit „Kubernetes“ ermöglicht eine maximale Flexibilisierung von Microservices, die im Verbund ihren Dienst als einzige enorme Rechenressource darstellen. Dabei ist es egal auf welchem physikalischen oder virtuellen Host die Prozesse gerade laufen, oder bei welchem Provider.
Die Softwareentwickler brauchen und wollen sich keine Gedanken über die darunter liegende Hardware machen, ob virtuell oder physikalisch. Ebenso kennen die Entwickler meist wenig oder gar keine Einzelheiten über die zugrunde liegenden Betriebssysteme. Im Idealfall sollten die Entwickler in der Lage sein, Anwendungen selbst bereitzustellen, ohne Informationen über die Hardware-Infrastruktur zu benötigen und ohne auf die Hilfe eines Systemadministrators zurückzugreifen. Dieses Vorgehen spiegelt mit zunehmender Digitalisierung die Anforderungen und Erwartungen an rascher Verfügbarkeit neuer Anwendungen oder deren Überarbeitung in Richtung Echtzeit.
Und wie ist es beim Edge-Computing? Ein Betriebsteam muss stets eine meist große Anzahl von Geräten im Feld monitoren, das Betriebssystem auf neustem Stand halten und Sicherheitsupdates einspielen. Bei Ausfall eines Gerätes muss umgehend für Ersatz gesorgt werden, was in den meisten Fällen einen Vor-Ort-Einsatz auslöst. Ohne Automatisierungs- oder Managementsysteme ist der Betrieb solcher Netze fast unmöglich. Dazu kommen noch eine Ersatzteilhaltung und Wiederherstellung der Systeme nach Austausch.
Die Softwareentwickler müssen die Abhängigkeiten ihrer erstellten Software an die Hardware und das jeweilige Betriebssystem genau kennen. Auch hier ist diese Aufgabe, und unter der Annahme rasch aufeinander folgender Software-Releases und Änderungen ohne entsprechender Management-Werkzeuge und Software-Verteilsysteme fast unmöglich.
Verschmelzung von Edge und Cloud zu einer Einheit.
Service-Orchestrierung in der Cloud und Edge gleichermaßen
Werden Sie zum Dirigenten ihrer Services und Anwendungen. Edgizer bietet die Werkzeuge und sorgt für den stabilen Betrieb ihrer Infrastruktur.