14.02.2011, 06:00 Uhr
Die Zukunft ist flach
Die klassische dreistufige Netzwerktopologie befindet sich auf dem Prüfstand. Konsolidierung, Virtualisierung, konvergente Speicher- und Datennetze sowie der Trend zu privaten Clouds sind die Wegbereiter für flache Network-Hierarchien.
Das Netzwerk im Rechenzentrum wird in den nächsten Jahren kräftig durchgeschüttelt. Grund ist der Umbau in der Unternehmensinformatik selbst. Trends wie Virtualisierung und die damit einhergehende Vereinheitlichung der Infrastrukturen stellen eine Herausforderung für bisherige Netzwerkarchitekturen dar. So sorgt die grassierende Servervirtualisierung für zunehmende Komplexität. Auf einem physischen Rechner lassen sich beispielsweise zehn virtuelle Server betreiben, die zudem sehr flexibel je nach Bedarf von Hardware zu Hardware verschiebbar sind. Wo also ein Netzwerk früher den Datenverkehr von 1000 Servern zu verwalten hatte, sind es jetzt 10000 virtuelle Maschinen, die sich zu allem Übel auch noch in Bewegung befinden. Mit dieser Komplexität haben klassische dreistufig aufgebaute Netzwerke, die das Rechenzentrum seit den späten 1990er-Jahren beherrschen, zunehmend Mühe. Der Ruf nach einer flachen Architektur wird laut, bei der das Netzwerk einem Gewebe (englisch: fabric) von gleichberechtigten Knoten gleicht. Statt reinen Punkt-zu-Punkt-Verbindungen sind auch Querverbindungen zwischen den Nodes möglich, was die Leistungsfähigkeit eines solchen Netzes erhöht. Doch die Hauptsache: Diese Topologie passt besser zur neuen automatisierten, konvergenten und virtualisierten IT-Welt. «Das Rechenzentrennetzwerk war wohl seit 10 Jahren nicht mehr so aufregend wie heute», ist André Kindness, leitender Netzwerkanalyst von Forrester Research, überzeugt. Dass das Interesse an flachen Netzwerken steigt, stellt auch Jim Metzler vom Beratungshaus Ashton, Metzler & Associates fest. Der gefragte Redner an Networking-Veranstaltungen wie der Interop in New York berichtet, das Thema habe noch vor gut zwei Jahren herzlich wenig interessiert. Das ist inzwischen anders: An der letzten Interop setzte Metzler das Thema «Warum Networking sich fundamental ändern muss» auf die Agenda. Die Besucher stürmten seine Veranstaltung und die Hersteller beklagten sich, dass sie nicht auf dem Podium sitzen durften. «Netzwerkerei macht wieder Spass», folgert Metzler.
Chance für Cisco-Konkurrenz
Den potenziellen Spassfaktor von Netzwerk-topologien einmal beiseitegestellt: Spannend dürfte es auf dem Markt für Netzwerkprodukte jedenfalls werden. Denn Hersteller wie Brocade, Hewlett-Packard (HP) und Juniper Networks propagieren flache Netzwerkarchitekturen. Schliesslich werden Firmen, die sich für einen Wechsel entscheiden, neue Switches für ihr Rechenzentrum kaufen müssen. Und genau hier meinen diese Anbieter, den langjährigen Networking-Platzhirsch Cisco he-rausfordern zu können. «Sogar Unternehmen mit Catalyst-Switches von Cisco müssen ihr Rechenzentrum neu bewerten und sich nach brandneuen Gerätschaften umsehen, wenn sie eine flachere Netzwerkarchitektur implementieren wollen», erklärt Forrester-Analyst Kindness. «Das ist eine riesige Chance für die Konkurrenz, die Dominanz von Cisco im Rechenzentrumsnetz zu brechen.» Doch so einfach wird sich Cisco nicht die Butter vom Brot nehmen lassen – und schmiedet ebenfalls Pläne für ein Netzwerk der nächsten Generation rund um seine Nexus-Switches.
IT-Strategien in flachen Zeiten
Mit wehenden Fahnen sollten IT-Verantwort-liche allerdings nicht in die neue flache Networking-Welt überlaufen, gibt Tom Nolle, Präsident des Technologieberatungshauses CIMI und langjähriger Branchenkenner, zu bedenken. Auch für ihn ist klar, dass sich die Netzwerkarchitekur im Rechenzentrum ändern wird, wenn man die Verwerfungen auf der Nachfrageseite in Betracht zieht. Dabei sei aber eine flache Topologie nicht immer die passende: «Man muss wirklich genau hinsehen, was im Rechenzentrum geschieht, ob beispielsweise die Kommuni-kation zwischen den Prozessoren zunimmt und wie dies den Verkehrsfluss sowie die Anforderungen an das Netzwerk beeinflusst», warnt er. «Wenn man beschliesst, die Netzwerkhierarchie zu verflachen, ohne die ganze Kette in Betracht zu ziehen, dann investiert man vielleicht zu früh oder in die falsche Technik.» Nolle empfiehlt daher, nur dann in ein flaches Netz zu investieren, wenn ein weiteres IT-Projekt dies erforderlich mache, etwa wenn zusätzliche Kapazitäten benötigt werden. Die Netzwerkarchitektur zu verflachen, nur weil es derzeit en vogue ist, hält er dagegen für eine schlechte Idee. Schliesslich handle es sich um eine grössere Investition, die hier getätigt werden müsse. «Netzwerkverantwortliche werden den Finanzchef überzeugen müssen, dass ein flaches Netzwerk mehr Umsatz und weniger Kosten auch ausserhalb des Rechenzentrums bedeutet», meint er. Diese Überzeugungs-arbeit sei alles andere als leicht. Einmal mehr werden finanzielle Argumente also ausschlaggebend sein, ob das flache Netzwerk eine Chance hat. «Mir ist doch Wurst, ob das Netz am Ende drei, zwei oder x Schichten, besitzt», wirft Metzler ein. «Was zählt, sind die Kosten, die wir in den Griff bekommen müssen.» Übereilen sollten Netzwerkverantwortliche auch nach Meinung von Forrester-Analyst Kindness jedoch nichts. «Der Umstieg auf flache Netzwerke wird nicht über Nacht passieren, sondern im Laufe der nächsten zwei bis fünf Jahre», ist Kindness überzeugt. Allerdings sollte man die zur Verfügung stehenden Optionen schon jetzt evaluieren.
Die Geschichte der dritten Schicht
Dreistufige Netze, sogenannte Three Tier Networks, bestehen aus einer Zugangsschicht (Access Layer) mit Switches zu Desktops, Servern und Storage-Ressourcen, einer Bündelungsebene (Aggregation Layer), auf der Schaltzentralen die Datenströme aus der Zugangsschicht einerseits zusammenfassen und andererseits etwa durch Firewalls schützen, sowie aus der Core-Switch-Stufe, die den Verkehr ins und im Backbone regelt. Entstanden sind die Three-Tier-Netze Ende der Neunzigerjahre aus zweistufigen Networks. Diese waren an ihre Kapazitätsgrenzen gestossen. Mit einer zusätzlichen Bündelungsschicht konnte der entstandene Flaschenhals behoben werden. Technisch gesehen war die Beigabe einer dritten Schicht also eine kostengünstige Notlösung zur Behebung damaliger Performance-Probleme. Beide Netzwerkarchitekturen werden durch das Spanning Tree Protocol (STP) beherrscht. Dieses wurde 1985 durch Radia Perlman entwickelt und legt fest, wie sich Switching-Verkehr im Netzwerk zu verhalten hat. Nach über 25 Jahren stösst das STP aber an seine Grenzen. Die IETF (Internet Engineering Task Force) will STP deshalb durch das Trill-Protokoll (Transparent Interconnection of Lots of Links), das STP verinnerlicht hat, ersetzen.