Edge Computing
25.11.2021, 09:24 Uhr
KI für den Netzwerkrand
Dem Edge Computing gehört die Zukunft. Am IBM Forschungslabor in Rüschlikon wird derzeit daran gearbeitet, auch KI-Anwendungen mit Gerätschaften am Netzwerkrand zu ermöglichen.
Robert Haas vom IBM-Forschungslabor Rüschlikon spricht dem Edge Computing das Wort: «Es macht mehr Sinn, Berechnungen dort auszuführen, wo das Geschehen ist».
(Quelle: Jens Stark/NMGZ)
Das Internet der Dinge (Internet of Things; IoT) wächst rasant. Bis 2025 soll jede Person weltweit durchschnittlich drei IoT-Geräte besitzen, die Daten von 80 Zettabyte genieren werden. Aber auch intelligenter wird das IoT. Wichtigste Entwicklung dabei: Die dort agierenden Gerätschaften sollen künftig nicht nur Daten sammeln, etwa durch Sensoren, sondern die akkumulierten Informationen auch gleich vor Ort verarbeiten.
Die Entwicklung rund um dieses sogenannte Edge Computing ist denn eines der vielen Themen, das die Forschenden am IBM-Labor in Rüschlikon bei Zürich derzeit beschäftigt. Wie Robert Haas, Leiter des Bereichs Cloud bei IBM Research Europe — Zurich an einer Presseveranstaltung betonte, sei es wichtig, dass das, was an den Rändern von Computernetzen so gerechnet werde, auch dort bleiben könne.
Und er nennt drei Gründe, warum die lokale Datenverabeitung so wichtig sein wird. So ist ihm zufolge der Energieverbrauch geringer, wenn die gesammelten Infos gleich im Edge-Device verarbeitet werden, statt die Daten zur Berechnung zuerst in ein Rechenzentrum oder in eine Cloud zu schicken. «Die Energie, die wir verbrauchen, um Daten hin und her zu schicken, ist um Faktoren höher als wenn sie vor Ort verarbeitet werden», argumentiert Haas. Daneben ist die lokale Verarbeitung aus Datenschutzgründen vorteilhaft. Heikle Daten bleiben dann nämlich vor Ort «und werden nicht über das ganze Netzwerk verteilt», wie Haas weiter ausführt. Schliesslich gibt es Performance-Gründe, um auf Edge Computing zu setzen. So sei beispielsweise die Erkennung und sofortige Behebung eines Fehlers vor Ort effizienter, als wenn dieser erst viel später nach einer zentralen Verarbeitung in einem Rechenzentrum erkannt werde.
KI muss effizienter und intelligenter werden
Allerdings gibt es auch Probleme in Sachen Edge Computing. So lassen sich KI-Modelle (Künstliche Intelligenz) derzeit mit ihren zu trainierenden Billionen von Parametern noch nicht eins zu eins auf den Gerätschaften am Netzwerkrand ausführen. Diese Modelle etwa für Spracherkennung oder Textanalysen und -zusammenfassungen grasen heute laut Haas noch das ganze Internet ab und benötigen gigantische Ressourcen, um ihre Aufgaben zu erledigen. Haas stellt daher die etwas ketzerische Behauptung auf, dass KI derzeit noch einem Dinosaurier gleicht.
Neben dem grossen Ressourcenverbrauchen, der benötigt werde, seien neuronale Netze nicht einmal besonders schlau, meint Haas. Edge-Computing zwinge die Branche daher dazu, KI effizienter und intelligenter werden zu lassen. Und hieran arbeitet man offenbar am IBM-Forschungslabor. Haas präsentiert als eines der Beispiele einen analogen für KI konzipierten In-Memory-Computing-Chip der von IBM entwickelt wird. Dieser ermöglicht sowohl die Speicherung als auch Verarbeitung der Daten direkt auf dem Halbleiter. Gemäss Haas nähert sich die Funktionsweise damit derjenigen unseres Gehirns an. Auch dort werden die Informationen nicht in einer Gehirnhälfte gespeichert und in der anderen verarbeitet sowie nicht ständig hin und her geschaufelt, sonder vor Ort verarbeitet. Der von IBM gezeigte In-Memory-Chip erlaube unter anderem eine wesentlich energieeffizientere Verarbeitung. Haas spricht von 10 Mal mehr Operationen pro Watt als mit einer herkömmlichen GPU (Graphical Processing Unit). «Und dabei handelt es sich erst um einen Prototypen, der noch optimiert werden kann», sagt Haas.