Gastbeitrag
19.03.2018, 08:35 Uhr
Turbo-Booster des Internet of Things
Im Internet häufen sich «Staus»: Inhalte beanspruchen mehr Bandbreite und die Zahl vernetzter Geräte steigt. Edge Computing bietet die Möglichkeit, Daten nahe bei den Anwendern zu verarbeiten – ohne «Hänger». Oft fehlt es aber noch an der notwendigen Strategie.
Wie wir künftig Nahrungsmittel einkaufen könnten, zeigt der kürzlich in Seattle eröffnete Shop «Amazon Go». Kunden mit Amazon-Account checken sich am Eingang mit dem Smartphone ein, ähnlich wie beim Boarden eines Flugzeugs. Sie stecken ihre Artikel direkt in die eigene Tasche und spazieren einfach wieder aus dem Ladengeschäft heraus. Kassen gibt es keine mehr. Dank Sensoren und Kameras wird der Einkauf in einem virtuellen Warenkorb registriert; Beim Verlassen des Geschäfts erhält der Kunde lediglich eine Push-Mitteilung mit der Quittung der Einkäufe.
Vernetzte «Dinge» (IoT) wie die Amazon-Regale und dort gelagerte Produkte gibt es auch in der Business-Welt immer öfter. Ein Beispiel sind etwa durchgängig digitalisierte Produktionsprozesse und Applikationen in der Industrie. Sie helfen dem Personal, Probleme wie etwa ungewollte Stillstandzeiten zu vermeiden. So ist es beispielsweise möglich, mit einem Tablet direkt mit einer Maschine zu kommunizieren und virtuell in sie hineinzublicken, ohne sie zu stoppen und zu öffnen – Augmented Reality und wiederum eine Vielzahl von Sensoren machens möglich.
“Edge Computing löst zentrale Probleme der Customer Experience„
Vincent Barro
Latenzzeiten massiv verkürzen
Allen IoT-Anwendungen gemeinsam ist der hohe Anspruch an Verfügbarkeit und Leistung des Internets. Längere Latenzzeiten werden nicht akzeptiert. Sie beeinträchtigen die Customer Experience allzu sehr: Die Amazon-Kundin etwa möchte am Ausgang nicht warten, bis sie die Einkaufsquittung ausgestellt bekommt. Mit der breitbandintensiveren Internetnutzung und der steigenden Zahl vernetzter Geräte – Cisco geht von 50 Milliarden aus bis 2020 – müssen die Cloud-Computing-Architekturen überdacht und ergänzt werden. Um die künftigen Bedürfnisse zu unterstützen, verschieben sich Rechenleistung und Speicherplatz in den nächsten Jahren immer mehr in die «Edge», sprich an die Peripherie des Netzwerks. Also dorthin, wo die Daten tatsächlich entstehen. Deren Transportzeit verkürzt sich dadurch enorm. Verfügbarkeit und Sicherheit nehmen zu.
Anwendungen für Edge Computing
Edge Computing bringt Datenerfassungs- und Steuerungsfunktionen, die Speicherung von Inhalten mit hoher Bandbreite und Anwendungen näher zum Nutzer. Es wird als Teil einer grösseren Cloud-Computing-Architektur ins Internet oder in ein privates Netzwerk eingefügt. Es gibt drei Hauptanwendungen für Edge Computing. Erstens: als Werkzeug, um grosse Datenmengen aus lokalen «Dingen» in einem lokalen Aggregations- und Kontrollpunkt zu sammeln. Zum Beispiel der IoT-Hub im Amazon-Shop oder in der Fabrik mit vernetzten Maschinen. Zweitens als lokaler Speicherund Bereitstellungsprovider für bandbreitenintensive Inhalte und Teil eines Verteilnetzes wie etwa Swisscom TV oder Netflix. Drittens als vor Ort installiertes Anwendungsund Prozess-Tool zur Replikation von Cloud-Services und zur Isolierung des Rechenzentrums von der Public Cloud.
Edge-Strategie notwendig
Cloud Computing basiert auf einer zentralisierten Netzwerk-Architektur. Mit Edge Computing entsteht eine verteilte respektive hybride Cloud-Architektur. Der Hauptvorteil besteht darin, dass Störungen nie das gesamte Netzwerk betreffen. Ein Distributed Denial of Service (DDoS)-Angriff oder ein lang anhaltender Stromausfall beispielsweise würde sich auf das Edge-Computing-Gerät und die lokalen Anwendungen auf diesem Gerät beschränken. Unternehmen, die auf Cloud Computing umgestellt haben, sollten sich Gedanken zum Potenzial von Edge Computing machen: Geschäftskritische Anwendungen oder Applikationen, die für den Betrieb der Kernfunktionen des Unternehmens benötigt werden, können vor Ort dupliziert werden – zum Vorteil der Sicherheit und Verfügbarkeit. Diese Edge-Strategie fehlt allerdings noch vielerorts.
Edge-Computing-Lösungen gibt es integriert in lokale Geräte, als lokale oder regionale Data Center. Ein Beispiel für «Edge-Geräte» sind Videorekorder mit eingebautem Datenspeicher oder Cloud-Storage-Gateways. Sie erlauben es den Konsumenten, die Cloud-Speicherressourcen in Applikationen zu integrieren, ohne die Anwendungen selbst in die Cloud zu verlagern.
Drei Typen von Lösungen
Lokale Data Center mit einem bis zwei Racks bieten umfangreiche Verarbeitungs- und Speichermöglichkeiten und lassen sich schnell in bestehende Umgebungen integrieren. Diese sogenannten Micro Data Center sind Rechenzentren im «Westentaschenformat». Sie können für die unterschiedlichsten Bedürfnisse konfiguriert werden: etwa mit robustem Gehäuse, regensicher, feuerfest oder mit normalen IT-Gehäuse für Büroumgebungen. Einzel-Rack-Versionen nutzen meist im Gebäude vorhandene Kühlung, Energie und Netzwerkanschlüsse. Dadurch sinken die Investitionskosten im Vergleich zu einem Data-Center-Neubau massiv. Multi-Rack-Versionen sind aufgrund ihrer Grösse leistungsfähiger und flexibler, erfordern aber auch mehr Planungs- und Installationszeit, insbesondere für die Kühlung. Als regionale Rechenzentren werden Data Center bezeichnet, die über eine grössere Anzahl Racks verfügen und näher am Benutzer und an der Datenquelle liegen als zentrale Cloud-Rechenzentren. Aufgrund ihrer Grösse verfügen sie über mehr Verarbeitungs- und Speichermöglichkeiten als Micro Data Center. Selbst wenn sie vorgefertigt sind, dauert ihre Umsetzung länger als bei lokalen Data Centern. Dies aufgrund des wahrscheinlichen Bedarfs an Bau-, Genehmigungs-und lokalen Compliance-Abklärungen.
Wichtiges Standbein der Cloud-Architektur
Für einen effizienten Betrieb von verteilten IT-Infrastrukturen wie beispielsweise in Verkaufsstellen oder Zweigniederlassungen ist ein hoher Standardisierungsgrad unabdingbar, da diese meist ohne Personal vor Ort (remote) verwaltet werden müssen. Idealerweise erfolgt die Fertigung der Gesamtlösung deshalb zentral in der «Fabrik». Dadurch kann ein rasches, standardisiertes und damit kostengünstiges Rollout reproduzierbarer und getesteter IT-Infrastrukturen sichergestellt werden.
Edge Computing löst zentrale Probleme der Customer Experience wie Netzwerküberlastung und lange Latenzzeiten, indem die Rechenleistung am «Rand» des Netzwerks massiv verstärkt wird. Unternehmen können auf diese Weise ihre bestehende Cloud-Computing-Architektur wirkungsvoll ergänzen. Das Zauberwort heisst Nähe: Edge-Rechenzentren bringen bandbreitenintensive Inhalte näher an den Endbenutzer und latenzempfindliche Anwendungen näher an die Daten heran.
Der Autor
Vincent Barro ist Vice-President Switzerland and End-Users DACH bei Schneider Electric.
www.schneider-electric.ch/de
www.schneider-electric.ch/de