Networking 28.02.2013, 13:34 Uhr

Das Verkehrswachstum im Griff

Mit neuen Computing-Trends wie Servervirtualisierung und der Anbindung mobiler Geräte (BYOD) nimmt die Komplexität von Netzwerken stetig zu. Welche aktuellen Technologien sich dieser Herausforderung stellen, berichten Schweizer Networking-Experten aus der Industrie gegenüber Computerworld.
Die Netzwerkwelt befindet sich im Umbruch. Gleich mehrere Entwicklungen führen dazu, dass in der Welt der Switches und Router demnächst nichts mehr so sein wird, wie es einmal war. Neben der sich seit Jahren abzeichnenden Konvergenz im Rechenzentrum, also dem Zusammenführen von Rechen- und Speicherressourcen, sorgen Trends wie Speicher- und Servervirtualisierung, Cloud Computing sowie die Vielfalt von Geräten, mit denen auf das Firmennetz zugegriffen wird (Stichwort: Bring Your Own Device) für mehr Datenverkehr. Eine zunehmende Komplexität ist die Folge. So spricht der vor Kurzem veröffentlichte Cloud-Index von Cisco (siehe Seite 4) von einer Vervierfachung des weltweiten Daten­verkehrs in den Rechenzentren bis 2016. Wie soll diese veränderte Netzwerkwelt künftig verwaltet und gemanagt, wie der zunehmend komplexere Traffic abgewickelt werden? Computerworld hat einige Exponenten der Schweizer Networking-Branche nach ihren Einschätzungen gefragt. Das Ergebnis: Es gibt fast so viele Herangehensweisen und Ideen im Netzwerkmanagement, wie es Router-Pfade gibt. Trotzdem lassen sich einige Haupttrends ausmachen. Flache Netze Künftig werden die Verkehrsströme innerhalb der Data Center Networks anders fliessen. Statt dem seit den 1990er-Jahren bestehenden Drei-Stufen-Modell wird eine Verflachung der Netzwerkarchitektur unter Zuhilfenahme sogenannter Fabrics angestrebt. «Die Servervirtualisierung im Rechenzentrum führt dazu, dass der tradi­tionelle Nord-Süd-Verkehr überholt ist», meint Marco Wenzel, der bei Hewlett-Packard (HP) Schweiz das Netzwerkgeschäft verantwortet. «Stattdessen werden wir künftig immer mehr Ost-West-Verkehr sehen», ergänzt er, und erklärt auch gleich, was er damit meint: «Die Server, speziell die virtualisierten Server, werden zunehmend direkt untereinander kommunizieren wollen.» Auch Marco Kündig, bei Cisco Schweiz für den Bereich Data Center zuständig, sieht diese Verflachung. Er macht dafür aber zusätzlich auch die Konvergenz der zuvor unterschied­lichen Netze verantwortlich: «Neu transportiert man auch den Storage-Traffic übers gleiche Netzwerk, wo früher ein dediziertes SAN im Einsatz war.» Zudem würden viele Rechenzentrenbetreiber auf eine dynamische Verteilung der Arbeitslasten setzen, ebenfalls mit Auswirkungen: «Durch die Virtualisierung lassen sich die Workloads zwischen verschiedenen Hosts hin- und herschieben, was zu mehr Verkehr führt.» Kündig gibt ausserdem zu bedenken, dass in diesen Szenarien der ebenfalls ins Haus stehende Maschine-zu-Maschine-Verkehr noch gar nicht berücksichtigt sei: «Der Datenverkehr, der von Sensoren und von Videostreams in Kameras stammt, wird ebenfalls durchs Rechenzentrum fliessen.» Nächste Seite: Intelligenz statt Bandbreite Intelligenz statt Bandbreite Vielerorts wird deshalb der Ruf nach mehr Bandbreite laut. Für die Schweizer Netzwerkexperten ist diese Reaktion zwar nachvollziehbar, aber sicherlich nicht die einzige, geschweige denn beste Lösung. HPs Marco Wenzel etwa spricht sich für die sogenannten «Purpose-built Top of the Rack Switches» aus, die Daten in einem eigenen Buffer zwischenspeichern. Denn nicht jede Anwendung müsse in Real-time abgewickelt werden, es gebe auch genügend Applikationen, die bei erhöhtem Verkehrsaufkommen etwas Verzögerung vertragen würden. «Wenn Sie eine Webseite aufrufen oder in einer Business-App arbeiten, können Sie im Notfall etwas Latency akzeptieren», argumentiert er. «Wir sprechen hier natürlich von Millisekunden, die der Benutzer im Normalfall nicht bemerkt.» Das gelte allerdings nicht für alles: «Im High-Speed-Trading bei Banken ist das nicht mehr möglich, hier sind Millisekunden tödlich», meint Wenzel. Er plädiert deshalb dafür, den Netzwerkaufbau und -betrieb der jeweiligen Anwendung anzupassen. Mehr Intelligenz fürs Netzwerk gehört auch zu den Forderungen von Cisco. Deren Data-Center-Experte Marco Kündig erinnert die «heutige Diskussion ums Rechenzentrum an jene vor einigen Jahren, als man IP-Telefonie konvergiert und Voice ins Datennetz eingeführt hat». Auch damals habe man nach intelligenten Mechanismen gesucht, um die Daten mit unterschiedlichen Anforderungen zu trennen. «Genau dasselbe passiert auch jetzt wieder im Rechenzentrum», ist Kündig überzeugt. Statt nur Bandbreite in die Gleichung zu werfen, sei es viel wichtiger, den Verkehr frühzeitig zu regeln. «Es ist besser, schon in den Ports den Traffic sauber zu priorisieren, sodass dieser schon auf dem untersten Level getrennt ist.» Dies verhindere die Verschwendung von Bandbreite. Pascal Tscharner, der bei Cisco Schweiz dem Bereich «Borderless Networks» vorsteht, meint allerdings, dass vielerorts nur deshalb immer noch die Bandbreite erhöht werde, weil diese schlicht zu günstig zu haben sei – zumindest innerhalb eines Rechenzentrumraums. «Sobald aber die Leitungen eines Carriers in Anspruch genommen werden müssen, ändert sich die Sichtweise. Dann muss man haushälterischer mit seiner Bandbreite umgehen», führt Tscharner aus. Services statt Elemente managen Der bewusstere Umgang mit Bandbreite führe schlussendlich zu einer fundamentalen Änderung in der Art und Weise, wie die Netzwerk­infrastruktur verwaltet wird, ergänzt Andreas Moser, der bei Cisco Schweiz den Bereich «Systems Engineering» leitet. «Wir sind heute bei einem Servicemanagement angelangt und haben uns vom reinen Management von Netzwerkelementen entfernt», sagt Moser, und spricht in diesem Zusammenhang von einem richtiggehenden Paradigmenwechsel. Noch vor wenigen Jahren habe man erst ein Netz aufgebaut und erst in einem zweiten Schritt  das Netzwerkmanagement aufgesetzt. «Heute gehen wir umgekehrt vor: Wir definieren erst die Dienstleistungen und Services und gehen von diesem Servicemanagement aus daran, das Netz auszurollen oder ein bestehendes Netz zu erweitern.» Dabei sei vermehrt die Sicht auf die ganze IT gefragt. In diesem Zusammenhang werden dann auch andere Prozessabläufe im Unternehmen wichtig. Moser erwähnt in diesem Zusammenhang auch den ITIL-Servicekatalog (IT Infrastructure Library): «Die Managementtools werden typischerweise schon so geschrieben, dass sie sich in den ITIL-Prozess einspannen lassen. Der ist schliesslich auch serviceorientiert und basiert auf einem Servicekatalog.» Nächste Seite: Allheilmittel SDN? Visibilität als Vorbedingung Diese servicebasierte Verwaltbarkeit eines Netzes – und zwar von einem Ende zum andern – verlangt laut Moser aber nach Visibilität. «Und zwar müssen die Komponenten diese Visibilität liefern können», präzisiert er. Dies sei wiederum nur durch intelligente Netzwerkkomponenten möglich, etwa anwendungsspezifischen integrierten Schaltungen (Application-Specific In­tegrated Circuit) möglich und mithilfe dedizierter Betriebssysteme. Mit eben dieser Erhöhung der Visibilität beschäftigt sich Rivberbed schon seit einiger Zeit. Wie Gérard Bauer, Verantwortlicher für die Region Emea-Süd des WAN-Beschleunigungsspezialisten, ausführt, ist Visibilität das A und O eines effizienten Netzwerkmanagements. «Wir müssen erst einmal verstehen, wie der Datenverkehr zusammengestellt ist, wo er generiert wird und wo sich die Datenflüsse stauen», erklärt er. «Erst dann können wir gezielt auf mögliche Probleme eingehen.» Aus solchen Beobachtungen lasse sich beispielsweise ein Load-Balancing auf Applikations-Level durchführen. In einem weltweit operierenden Unternehmen könnten die Anwender so – je nach Zeitverschiebung – von dem Rechenzentrum bedient werden, das gerade Kapazitäten frei hat. Wie so etwas im Netzwerk funktioniert, erklärt Marco Wenzel von HP. «Alle Komponenten werden einzeln auf ihre Performance geprüft und erhalten einen Wert», erklärt er. Über diese Werte, vergleichbar mit Schulnoten, könnten die Netzwerkmanager herausfinden, welches Element in der Kette nicht richtig funktioniert. Allheilmittel SDN? Als weiterer Schritt zu einer Verbesserung der Managebarkeit von Netzwerken wird von der Industrie seit rund einem Jahr eine Trennung von Hardware und Software im Netzwerk durch das Einziehen einer Abstraktionsebene und die Virtualisierung von Netzwerkressourcen gefordert – eine Technik, die unter der Bezeichnung Software Defined Networking (SDN) bekannt ist. In Sachen SDN scheinen die Schweizer Vertreter der Networking-Industrie weniger enthusiastisch zu argumentieren, als man das von einigen US-Start-ups, die in diesen Bereich vorpreschen, gewohnt ist. Die Vorteile der Trennung von Hardware und Software und die mögliche Auswirkung auf die Industrie, sieht HPs Wenzel klar gegeben. Er fordert in diesem Zusammenhang quasi eine Befreiung des Netzwerks: «Das Netzwerk muss zur Commodity werden, dessen Komponenten man frei austauschen kann.» Das sei heute oft ganz und gar nicht der Fall. Dennoch hätten Software Defined Networks noch ein gutes Stück Weg zurückzulegen. «Das Problem ist, dass SDN noch nicht ausdefiniert ist», meint Wenzel. Zudem beschränke sich SDN nur auf das Netzwerk. HP propagiere deshalb einen gesamthafteren Ansatz, der nicht nur das Netzwerk, sondern auch Server, Storage und Applikationen einbezieht. Auch für Cisco ist die SDN-Diskussion derzeit noch zu eindimensional. «SDN sollte nicht nur auf ein Protokoll wie OpenFlow reduziert werden», meint Andreas Moser. Stattdessen müsse man von der Anwendung, dem sogenannten Used Case, ausgehen. Diesen Ansatz sieht er derzeit allerdings eher in der Forschung als in der Wirtschaft gegeben. Als Folge von Experimenten wie etwa mit dem LHC am CERN müssen dort riesige Datenmengen abgeführt werden. Punkto Netzwerktechnik, so Moser, sind «die Hochschulen mit ihren hohen Anforderungen ans Networking derzeit eindeutig die Treiber». Nächste Seite: Global Cloud Index Global Cloud Index: die Cloud als Verkehrstreiber Der«Cisco Global Cloud Index» analysiert den globa-len Datacenter-IP-Verkehr. Der aktuelle Report prog-nostiziert die Entwicklung zwischen 2011 und 2016. Die zentralen Prognosen: Der Datenverkehr in Rechenzentren wird sich vervierfachen und bis 2016 rund 6,6 Zettabyte betragen. Neben dieser fantastisch anmutenden Zahl – sie entspricht 7 Billionen Stunden High-Definition Videostreaming – wird sich auch der Fokus verschieben, und zwar Richtung Cloud Computing. Die Cloud wird für zwei Drittel des gesamten Datenverkehrs über Rechenzentren verantwortlich sein. Heute ist das Verhältnis noch umgekehrt. Gut ein Drittel des Traffics ist auf Cloud-Computing-Aktivitäten zurückzuführen. Somit wird der Datenverkehr in der Cloud bis 2016 um das Sechsfache gestiegen sein. Dieser Trend ist zudem in Europa noch ausgeprägter als im globalen Durchschnitt. Von 2011 bis 2016 nimmt in der Emea-Region (Europe, Middle East, Africa) der jährliche Cloud-Traffic sogar um das Neunfache zu, von 21 auf 190 Exabyte. Dies entspricht einer jährlichen Wachstumsrate von 55 Prozent. Der gesamte Datenverkehr über Rechenzentren steigt in diesem Zeitraum von 54 auf 295 Exabyte, also um das 5,4-Fache. http://www.cisco.com/en/US/netsol/ns1175/networking_solutions_sub_solution.html


Das könnte Sie auch interessieren