13.11.2012, 13:39 Uhr

Industrialisierung im Rechenzentrum

Rechenzentren wandeln sich zum Herzstück der Unternehmen, auch wenn ihre strategische Bedeutung oft kaum erfasst wird. Doch ein Umdenken lohnt sich, zumal die Industrialisierung der Data­center nicht mehr aufzuhalten ist.
Der Autor ist Data Center Consultant bei IBM Schweiz. Die sind meist schon jahrelang im Betrieb, wurden ständig ausgebaut und benötigen immer mehr Strom und Gebäude­fläche, um die steigenden IT-Anforderungen aus dem Business zu erfüllen. Die Rede ist von klassischen Rechenzentren (RZ), bestehend aus einer Ansammlung von Servern,
Speicher-, Netzwerk- und mechanischen wie elektrischen Systemen, Anwendungen, Tools, Governance-Verfahren und Mitarbeitern. Solange es nur darum ging, die Service Level Agreements (SLAs) in ausreichender Qualität zur Verfügung zu stellen und Investitionen zu minimieren, mochte diese einfache Sicht auf den RZ-Betrieb durchaus ausreichen. Neue Projekte blieben dabei aber genauso auf der Strecke wie die Umsetzung von Innovationen. Wenn jedoch ein Unternehmen mit dem richtigen Mass an IT-Services und Kosteneffi-zienz eine klare Ausrichtung an den Geschäftszielen sicherstellen will, kommt es ohne evo­lutionäre Weiterentwicklung nicht mehr aus. Dazu muss der RZ-Bau und -Betrieb weiter standardisiert werden, sich von starren Lösungen verabschieden und viel stärker als bisher auf eine modulare Systembauweise setzen. Das Stichwort heisst: Industrialisierung. Gefragt ist eine eng mit dem Business verbundene Sicht, welche die ohnehin bestehenden Business- und IT-Strategien um ein stra­tegisches Verständnis des Rechenzentrums erweitert. Denn Unternehmen, die für ihr Kerngeschäft auf ein Rechenzentrum angewiesen sind, kommen nicht darum herum, schnelle Veränderungen zu unterstützen. Flexibilität nahezu in Echtzeit und kontinuierliche Verfügbarkeit sind die Schlüsselfaktoren. Wobei völlig klar ist, dass der Umstieg von der einfachen in diese hochoptimierte RZ-Klasse nicht auf Knopfdruck geschehen kann. Vielmehr ist für den sukzessiven Umbau eine klare Roadmap umzusetzen, die durchaus mehrere Jahre in Anspruch nehmen kann. Treiber dieser Entwicklung sind insbesondere das schnelle Anwachsen der Daten­bestände und immer neue Ansprüche. Dass ein Wandel nötiger denn je ist, zeigt die kürzlich gemeinsam von IBM und IDC erstellte IBM Global Data Center Studie 2012 auf. Erst rund 20 Prozent der bestehenden RZs werden als strategisch eingestuft und erreichen den höchsten Optimierungsgrad. Auf diesem Niveau liefern sie nicht nur die ohnehin überall angestrebten Effizienzgewinne und Kosteneinsparungen, sondern besitzen auch die Fähigkeit, schnell auf das sich ändernde Geschäftsumfeld zu reagieren. Weil der strategische Ansatz immer die Anforderungen der Endbenutzer in den Vordergrund stellt, wirkt er sich unmittelbar in Umsatzvorteilen, Innovationen und einem Wett­bewerbsvorsprung aus. Lesen Sie auf der nächsten Seite: Potenziale kaum ausgeschöpft

Potenziale kaum ausgeschöpft

Konkret lässt sich die Notwendigkeit einer Neuorientierung am Einsatz der Virtualisierungstechnik ablesen. Während einfache, meist seit rund zehn Jahren im Einsatz stehende Rechenzentren ihre Server erst zu 27 Prozent und die Speicher zu 21 Prozent virtualisiert haben, sind es bei den bereits strategisch ausgerichteten RZs knapp 50 Prozent bei den Servern und schon über 90 Prozent beim Storage. Noch krasser öffnet sich die Schere beim Blick auf die Datenduplizierung. Der Befund ist umso erstaunlicher, weil längst bekannt ist, dass eine Konsolidierung ohne den Rückgriff auf virtua­lisierte Systeme nicht zu schaffen ist. Ähnlich prekär stellt sich die Situation dar, wenn man die flexible Planung für sich ändernde Geschäftsprozesse betrachtet. Wer hier mithalten will, muss das richtige Mass an Verfügbarkeit und Redundanz aufgebaut haben, um die vereinbarten Service Levels einhalten zu können. Praktisch geht es darum, auch die mechanischen und elektrischen Komponenten im laufenden Betrieb aufrüsten und symmetrische Konfigurationen auf anderen Systemen bei Ausfällen garantieren zu können, Backup-Systeme aufzubauen und sekundäre Standorte für das Disaster-Recovery zu unterhalten. Hier hinken noch knapp 80 Prozent der RZs teilweise dramatisch hinterher.

Automatisierung noch am Anfang

Druck zum sukzessiven Umstieg kommt zudem von dem noch wenig ausgeprägten Grad der Automatisierung. Dabei wird beispielsweise eine deutlich höhere Flexibilität und Verfügbarkeit erreicht, wenn das Verschieben virtueller Maschinen (VM) zwischen physischer Hardware ohne manuelle Eingriffe auf der Basis von SLAs von automatisierten Tools übernommen wird. Ähnlich sieht es mit einem Self-Service-Portal aus, das Cloud-ähnliche Funktionen liefert, wobei selbst die Speicherverwaltung auch mehrschichtiger Storage-Umgebungen automatisch abläuft. Noch kaum verwendet wird ausserdem das automatisierte Netzwerkmanagement. Es basiert auf Richtlinien für alle Prozesse und ermöglicht viel schnellere Reaktionszeiten als bisher. Die Netzwerkwiederherstellung reduziert sich von Tagen oder Stunden auf Minuten oder Sekunden. Strategische RZs verfügen sogar schon über Software-Tools, um die thermischen Bedingungen in den Gebäuden zu überwachen und in Echtzeit anzupassen. Lesen Sie auf der nächsten Seite: Das Umdenken hat begonnen

Das Umdenken hat begonnen

Nimmt man die bisher noch viel zu oft brachliegenden Potenziale zum Massstab, drängt sich der Umstieg in eine strategische Ausrichtung und damit in die Industrialisierung des RZ-Betriebs regelrecht auf. Hinzu kommt, dass die Krisenzeiten der letzten Jahre nicht selten Investitionsstaus zur Folge hatten. Jetzt ist also genau der richtige Zeitpunkt, die Rechenzentren sukzessive zu optimieren. Gefragt ist bei dieser Evolution allerdings eine saubere Planung, ist doch der Weg zur Steigerung der Effizienz mit Änderungen an den Tools, Technologien und Prozessen eines Unternehmens verbunden. Auch wenn man grundsätzlich davon ausgehen kann, dass die CIOs durchaus ein gutes Gespür dafür haben, was sie für den Umstieg brauchen, ist bereits bei der Bestandsaufnahme eine zweite Meinung durch externe Berater sehr zu empfehlen. Denn die Verantwortlichen stehen vor zahlreichen Herausforderungen. Sie müssen sich konkret darauf vorbereiten, dass an ihre Hardware neue Anforderungen gestellt werden, ohne vorab genau zu wissen, wann und wie viel real benötigt wird. Hier ist Kostenflexibilität auf CIO-Ebene gefragt. Die RZ-Verantwortlichen müssen die neue Energiedichte ihrer Systeme kennen und eine optimale Nutzung des Platzbedarfs planen. Aufgrund der Roadmap müssen die Kühlung angepasst und Probleme bei der Stromversorgung bereinigt werden. Die Verfügbarkeit ist zu definieren und Systemausfälle sind auszuschliessen. Zudem haben die CIOs die Kosten für zusätzliche Standorte zu klären und generell Transparenz in die Kostenstruktur zu bringen, wobei das auch den Energieverbrauch umfassen sollte. Denn es geht darum, mindestens für die nächsten drei bis fünf Jahre einen Forecast zu erstellen. Derartige Prognosen sind umso wichtiger, weil nur schon die Energiedichte der RZs ständig zunimmt und Probleme verursacht, die bisher noch kaum im Fokus stehen. Lesen Sie auf der nächsten Seite: Stufenplan

Stufenplan

Sobald ein Unternehmen weiss, in welcher Evolutionsphase es sich befindet und welche Effizienzstufe es erreichen will, wird über entsprechende Investitionen von Zeit und Ressourcen nachgedacht. Da diverse Abhängigkeiten zu berücksichtigen sind, ist ein sukzessives Vor­gehen zum Erreichen der höchsten Effizienzstufe unumgänglich. Grundsätzlich lassen sich drei Punkte festhalten:
  • Die System- und damit die Energiedichte nehmen weiter drastisch zu. Man spricht schon von bis zu 30 kW echte Last pro Rack.
  • Der Flächenbedarf bleibt trotzdem auf gleichem Niveau bestehen, da die Anzahl der Daten zunimmt und noch kein Ende dieses Wachstums zu sehen ist.
  • Die Rechenzentrumsplaner antworten auf diese Herausforderungen mit einem «indust­riellen» Denken, das sich in hochflexiblen Systemlösungen niederschlägt.
Natürlich lässt sich zu keiner Zeit eine allgemein richtige RZ-Lösung für alle Unternehmen definieren. Doch bei jedem RZ steht im Fokus, die RZ-Investitionen in strategisch wichtige Ini­tiativen zu stecken, einen hohen Effizienzgrad und möglichst grosse Flexibilität im Kern­geschäft zu erreichen. Ohne geeignete Strategien und Konzepte sind diese Resultate nicht zu haben. Und genau darin werden die CIOs von den externen RZ-Spezialisten unterstützt. Lesen Sie auf der nächsten Seite: Kühlung
Kühlung: Drastisch den Energiebedarf reduzieren
Bei der derzeit in vielen Rechenzentren eingesetzten Luftkühlung verpuffen bis zu 50 Prozent des Energieverbrauchs im Kühlprozess. Grund ist die enorme Hitzeentwicklung der Prozessoren, die ohne Kühlung nach wenigen Betriebssekunden verdampfen würden. Um diesen Energieverbrauch radikal zu reduzieren, haben sich die IBM-Forscher des Rüschliker Labors von der Natur inspirieren lassen. In kleinen Mikrokanälen, ähnlich unseren Blutkapillaren, lassen sie bis zu 60°C heisses Wasser direkt bis zum Chip fliessen. Das spart aufwendige Kältezuführung, reduziert den Energiebedarf der Rechenzentren um 40 Prozent und liefert zudem wertvolle Abwärme, etwa für die Heizung von Gebäuden. Damit verringert sich die CO2-Bilanz eines Rechenzentrums um bis zu 85 Prozent.

Die Heisswasserkühlung wird bereits in der Praxis eingesetzt: Nach dem Pilotsystem Aquasar an der ETH Zürich, verwendet auch Europas schnellster Supercomputer, das 3-Petaflop-System SuperMUC am Leibniz-Rechenzentrum in Garching, diese Technologie.


Das könnte Sie auch interessieren