06.07.2011, 06:00 Uhr

Virtualisieren für die Nachhaltigkeit

Die Geschichte der Virtualisierung ist geprägt vom effizienten Umgang mit begrenzten Ressourcen. Das war damals bei der Mondlandung so und ist heute im Zeitalter des Cloud Computings nicht anders.
Bild: © khz / Fotolia.de
Der Autor ist Senior Systems Consultant bei IBM (Schweiz). Von Apollo 11 aus betrat am 20. Juli 1969 erstmals ein Mensch den Mond. Ein Ereignis, das unmittelbar mit der Virtualisierungstechnik verbunden war. Den Wettlauf der USA und der einstigen Sowjetunion um den ersten Menschen auf dem Mond entschieden die Amerikaner unter anderem deshalb für sich, weil sie es schafften, die benötigte Rechnerleistung für Betrieb und Steuerung der unterschiedlichsten Computersysteme rechtzeitig in den Griff zu bekommen. Ohne virtualisierte Grossrechner wäre die erste Mondlandung nicht in der geforderten Zeit möglich gewesen. Die Lösung dafür lieferte 1965 ein gemeinsames Forschungsprojekt von IBM und MIT (Massachusetts Institute of Technology). Mit dem sogenannten CP-40 (Control Program) und seinem Nachfolger CP-67 konnten Gross-rechner­kapazitäten komplett als Hardware simuliert und damit mehrere unabhängige Betriebssysteme gleichzeitig verwendet werden. Damit war erstmals ein «Multitasking» über mehrere Mainframes möglich – bei gleichzeitiger Ausführung verschiedener Betriebssysteme, Anwendungen und Prozesse auf viel weniger Rechnern als zuvor. Damals entstand bei IBM mit dem Hypervisor oder auch Virtual Machine Monitor (VMM) eine bis heute wegweisende Technik.

Technische Meilensteine

Die Virtualisierung zählt zu den technischen Meilensteinen, die von Anfang an eng mit dem Aufbruch in neue Dimensionen verbunden war – und bis heute ist. Seit über 40 Jahren ist diese Technik ein Synonym für den schonenden Umgang mit Ressourcen. Statt Systemkapazitäten in nur zu rund 20 Prozent ausgelasteten Rechenzentren zu produzieren, zu installieren, zu warten, mit Strom zu versorgen und zu kühlen, werden vir­tuelle Infrastrukturen weit effizienter genutzt. Im Zeitalter von Green IT die wesentlichste Voraussetzung, um IT-Leistungen ohne Einbussen zu konsolidieren und massiv Energie einzusparen. Die ständig weiterentwickelte Virtualisierungstechnik adressierte zwar längst nicht mehr nur die Domäne der Grossrechner, blieb aber weitgehend auf grosse IT-Umgebungen wie Data-Warehouse-Systeme und kritische Produktionsumgebungen in Rechenzentren beschränkt. 1978 legte Intel mit dem ersten x86-Mikroprozessor die Basis zur Beseitigung dieser Hürde. IBM verbaute diesen 1981 in ihren ersten PC. In den folgenden 20 Jahren trat der PC seinen Siegeszug an, man war aber der Meinung, x86-Server könnten nicht virtualisiert werden. Diese Grenze überschritt dann Ende der 1990er-Jahre VMware mit einer Software-Lösung. Während IBM nach wie vor mit erweiterter Firmware direkt in der Hardware virtualisiert, legen VMware und in der Folge auch Xen oder KVM einen zusätzlichen Software-Layer über die physikalische Schicht. Nötig macht das die zugrunde liegende Prozessorarchitektur von Intel und AMD. In neueren Varianten beginnt zwar auch diese Grenze zu bröckeln, doch noch existieren die Unterschiede zwischen den zwei Virtualisierungs-konzepten weiter. Der Hauptgrund ist, dass bestimmte Betriebssysteme nicht auf Mainframes oder Power-Systemen laufen. Direkt unterstützt werden hier etwa z/OS, Linux oder AIX – aber kein Windows.

Traditionell Hardwarebasiert

Auf Grossrechnern oder Hochleistungs-Unix-Servern virtualisierte Systeme haben nach wie vor einen technischen Vorteil: Laufen unterschiedlichste Betriebssysteme und Anwendungen in hardwarebasierten virtuellen Umgebungen, erzielen sie eine grössere Auslastung als x86-Server. Die physische Basis kann bis zu 90 oder 100 Prozent beansprucht werden. Grundsätzlich ist die praktisch erreichbare CPU-Auslastung in softwarebasierten virtuellen Lösungen geringer als in hardwarebasierten. Der grösste Unterschied liegt jedoch darin, dass in hardwarebasierten virtualisierten Umgebungen auch grösste Systeme, zum Beispiel für die Produktion oder für Terabyte-grosse Datenbanksysteme, eingebunden werden, was automatisch grosse, nicht benutzte Kapazitäten für kleinere Umgebungen bzw. Anwendungen zur Folge hat. Deshalb rechnen sich die üblicherweise höheren Hardware- und Lizenzkosten von Mainframes und Unix-Servern durchaus. Allein im Vergleich mit den Lizenzkosten grosser Serverfarmen weisen sie schon bei wenigen Anwendungen Preisvorteile aus. Vor allem bei der Wartung und damit bei den Personalkosten lassen sich durch ein einheitliches Management für alle Anwendungen die Kosten deutlich reduzieren. Da hardwarebasierte Virtualisierungsumgebungen ohne den Software-Layer auskommen, müssen sie auch nicht zusätzlich gepflegt werden und sind zudem unangreifbar von aussen. Bekannt ist, dass beim National Institute of Standards and Technology (NIST), das die Sicherheitslücken sämtlicher Hersteller sammelt, keine einzige Lücke für hardwarebasierte Virtualisierung gelistet ist, zur Software-Lösung VMware aber zum Beispiel bereits über 200.

Rechenzentren leeren sich

Wegzudenken ist die Virtualisierung heute nicht mehr. Gewaltige ungenutzte Systemkapazitäten konnten so abgebaut werden. Die künftige Entwicklung wird diese Effizienzverbesserungen noch erweitern. Dabei wird es zu einer Annäherung der beiden, bisher noch durch die CPU-Architekturen begrenzten, Virtua­lisierungskonzepte kommen. Insbesondere die Vorteile der hardwarebasierten Lösung in Sachen Sicherheit, Auslastung und Wartungsfreundlichkeit dürften dabei den Takt vorgeben. Wie stark die damit einhergehenden Aus-wirkungen sind, lässt sich daran ablesen, dass etwa die Bank of Russia 200 Server an 74 Standorten auf nur vier Mainframes konsolidieren konnte. In der Schweiz stehen Hunderte grosser hardwarebasierter Virtualisierungslösungen im produktiven Einsatz – in kleinen wie in Mega-Rechenzentren. Konsequent umgesetzt, wird immer mehr Rechenleistung auf weniger Platz und mit weniger Ressourcen produziert. Zugute kommt dieser Fortschritt einer umweltfreundlichen Informatik, die in Zukunft noch leistungsfähiger und noch ressourcenschonender als bisher wird. Das gerade aufkommende Cloud Computing setzt virtualisierte Umgebungen per Definition voraus. Auch in der Peripherie wird immer stärker auf Virtualisierung gesetzt. Waren früher virtualisierte SAN-Architekturen nur in grossen Umgebungen anzutreffen, setzen sie heute auch kleinere Betriebe ein. Ob über ausgeklügelte Grid-Konzepte im Diskbereich mit per Architektur vermiedener Administration oder auch bei Backup-Konzepten, die nur noch effektiv geänderte einzelne Byte sichern – die Virtualisierung geht mit grossen Schritten voran und wird die Informatiklandschaft weiterhin spürbar prägen.


Das könnte Sie auch interessieren