30.12.2008, 09:19 Uhr
Sieben heisse Virtualisierungstipps
Mit zunehmend strategischer Bedeutung gehen die Auswirkungen von Virtualisierung über rein technische Änderungen hinaus und wälzen den Rechenzentrumsbetrieb um.
1. Virtualisierung ganzheitlich angehen
Unternehmen, die sich einen Fahrplan für die Virtualisierung von x86-Servern zurechtlegen, sollten darüber nachdenken, dass künftig auch Desktop-, Applikations-, Speicher- und Netzwerk-Virtualisierung in dieses Konzept passen sollten.
In der IT herrscht bis heute oft eine Silo-Mentalität, bei der spezifische Technikexpertise in kleinen Einheiten gekapselt wird. Die verschiedenen Zuständigkeiten für Server, Netzwerk, Speicher, Sicherheit und Anwendungen und der daraus resultierende Mangel an Kommunikation könnten den Wandel zu einem virtualisierten Rechenzentrum erschweren.
Die Virtualisierung von Servern dient anfangs nur wenigen Zielen wie etwa der Konsolidierung, aber mit einer strategischen Ausrichtung sollte ein übergreifender Nutzen erreicht werden, der sich über mehrere IT-Bereiche erstreckt.
Neben einer regelmässigen Diskussion zwischen den verschiedenen Zuständigkeitsbereichen sollten Hersteller auf die umfassenden Anforderungen und längerfristige Ziele angesprochen werden. Anbieter mit einem breiteren Portfolio, das neben Servern etwa auch Desktops einschliesst, könnten IT-Verantwortliche besser bei der Realisierung einer Virtualisierungsstrategie helfen.
2. Virtuelle Ressourcen inventarisieren
Damit IT-Verantwortliche zu jedem Zeitpunkt einen Überblick über verfügbare virtuelle Ressourcen haben, ist striktes Life-Cycle-Management erforderlich, das jede virtuelle Maschine (VM) von ihrer Erstellung bis zu ihrer Ausmusterung verfolgt. Dabei sollte ersichtlich sein, welche Änderungen an einer VM vorgenommen und welche Patches eingespielt wurden. Daraus resultieren Vorteile für Performance und Sicherheit, weil sich problematische VMs leicht ausmustern und bewährte Images erkennen liessen.
Die Verfolgung von virtuellen Ressourcen erfordert ein länger gültiges Benennungsschema als in der physikalischen Welt, weil die virtuellen Umgebungen viel flexibler sind. VMs können mit Hilfe von Migrationstechniken wie VMwares "VMotion" an allen möglichen Orten auftauchen. Wenn virtuelle Rechner in einer bestimmten Umgebung unbekannt sind, dann sollten etwa strengere Zugriffsregeln für das Netzwerk greifen.
Die manuelle Verwaltung könnte bald nicht mehr mit der steigenden Zahl an VMs Schritt halten, so dass einschlägige Tools vonnöten sind. Dazu zählen unter anderem BMC Topology Discovery, EMC Application Discovery Manager oder mValent's Integrity.
3. Verbindliche Kapazitätsplanung
Virtuelle Maschinen lassen sich schneller und leichter in Betrieb nehmen als physikalische. Das verführt zum ad-hoc-Erstellen von VMs und kann in unkontrollierter Vermehrung von virtuellen Servern enden. Dies führt nicht nur zu Unübersichtlichkeit, sondern unter Umständen zu Lizenzproblemen und erhöhtem Energieverbrauch.
Tools wie VKernel Capacity Analyzer machen auf alle VMs in einer bestimmten Umgebung aufmerksam. Damit lassen sich beispielsweise Zombie-VMs entdecken, die vermeintlich gelöscht wurden und dabei munter weiterlaufen. Das trifft gerne auf VMs zu, die nur für Testzwecke angelegt wurden und dann länger leben als geplant.
Als gute Praxis hat sich dabei erwiesen, dass eine neue VM gleich bei der Erstellung mit einem Ablaufdatum versehen wird, zu dem sie entfernt werden muss. Als Faustregel hat sich bewährt, eine VM für drei Monate zu parken. Wenn sie über diesen Zeitraum nicht mehr benötigt wird, kann sie ganz aus dem Verkehr gezogen werden. Notfalls lässt sie sich später wieder aus dem Archiv holen.
4. Virtuelle und physikalische Welten vereinen
Nur die wenigsten IT-Services werden auf absehbare Zeit ausschliesslich auf einer virtuellen Infrastruktur beruhen. IT-Abteilungen müssen zumindest während einer Übergangszeit beide Varianten messen, etwa hinsichtlich der Performance. Dazu bedarf es Tools, die beide Betriebsarten überblicken und Vergleichsdaten liefern können.
Idealerweise können solche Report-Werkzeuge nicht nur zeigen, was in der virtuellen Umgebung passiert, sondern auch die Auswirkungen auf die physikalische Basis darstellen. Detaillierte Ansichten beider Systemtypen sollten zusammengeführt werden, um Korrelationen aufzuzeigen. Wenn beispielsweise die Auslastung einer physikalischen Maschine um 10 Prozent fällt, dann wäre es nützlich zu erfahren, dass zum Beispiel VMwares "Distributed Resource Scheduler" gerade eine oder mehrere VMs auf eine neue Hardware verschoben hat. Außerdem lässt sich auf diese Weise verfolgen, wenn problematische VMs bei ihrer Wanderung von Server zu Server immer wieder die gleichen Schwierigkeiten verursachen.
5. Virtuellen Traffic messen
Es ist gang und gäbe, den Verkehr in physikalischen Netzwerken zu überwachen. Für den virtuellen Traffic ist das aber nicht so selbstverständlich, obwohl ohne entsprechende Daten die Suche nach Ursachen für Performance-Probleme schwierig werden kann.
Besonders wenn die Zahl der VMs jene der physikalischen Server um ein Vielfaches übersteigen kann, gewinnt die Kommunikation zwischen virtuellen Maschinen an Bedeutung.
Tools wie Altor's Virtual Network Security Analyzer (VNSA) betrachten das Netzwerk nicht nur auf Switch-Ebene, sondern berücksichtigen auch die Inter-VM-Kommunikation oder den Traffic zwischen virtuellen Desktops. Dabei lassen sich etwa auch die Anwendungen ermitteln, die für die grösste Netzlast verantwortlich sind oder die meistgenutzten Protokolle aufspüren.
6. Fachabteilungen sollen von Einsparungen profitieren
Unternehmen mit einem Rückvergütungssystem sollten dieses auch auf die Sphäre der Virtualisierung ausdehnen. Firmen ohne eine solche Einrichtung wäre zu empfehlen, über die Einführung eines Chargeback nachzudenken. Für IT-Abteilungen ist die Konsolidierung von Servern nämlich nahe liegend, weil sie damit Kosten sparen können. Fachabteilungen hingegen befürchten häufig, dass der Umzug ihrer Anwendungen von einem physikalischen auf einen virtuellen Server negative Auswirkungen auf die Performance haben könnte. Wenn sie hingegen an den wirtschaftlichen Vorteilen der Virtualisierung beteiligt werden, dann könnten sie derartigen Veränderungen leichter zustimmen.
Ausserdem sollten die IT-Verantwortlichen anderen Abteilungen transparent machen, welchen Nutzen sie aus der Virtualisierung ziehen können. Dazu zählen neben ökonomischen Faktoren eine höhere Verfügbarkeit und schnellere Auslieferung neuer Server. Während es durchschnittlich sechs Wochen dauert, bis ein physikalischer Server einsatzbereit ist, kann eine virtuelle Maschine innerhalb weniger Stunden in Betrieb gehen.
7. Nutzen Sie internes Know-how
IT-Abteilungen müssen ihre Mitarbeiter für die Virtualisierung weiterbilden, etwa durch Zertifizierungsprogramme wie "VMware Certified Professional" (VCP) und Microsofts "Windows Server Virtualization". Aufgrund der hohen Kosten für diese Ausbildungen empfiehlt das Marktforschungsunternehmen Gartner, einige ausgewählte Mitarbeiter zu den Schulungen zu schicken. Diese sollen dann ihr Wissen an ihre Kollegen weitergeben, indem sie auf Arbeitsgruppen verteilt werden.
Derzeit sind viele IT-Manager nicht in der Lage, mit dem vorhandenen Personal eine Virtualisierungsstrategie umzusetzen. Die Weitergabe von Wissen innerhalb der IT-Abteilungen würde ein Unternehmen unabhängiger und die Implementierungen besser machen.
Bei Mangel an Virtualisierungskenntnissen kann Linux-Kompetenz helfen, weil gerade die Verwaltung von VMware-Infrastrukturen eng an das Open-Source-Betriebssystem angelehnt ist.