10.12.2010, 06:00 Uhr
Backup für virtuelle Umgebungen
Die zunehmende Verbreitung von Virtualisierungstechniken verlangt Administratoren neue Storage-Strategien und ein effizientes Datenmanagement ab.
Die Autorin ist Product Manager für die Region EMEA bei der Acronis Germany GmbH Laut einer Erhebung von IDC waren schon im letzten Quartal 2009 nahezu 18 Prozent der ausgelieferten Server virtuell. Unternehmenswerte und Kapital in Form von geschäftskritischen Informationen verlagern sich immer mehr in die virtuelle Welt. Gleichzeitig prophezeien die Analysten von Gartner, dass im laufenden Jahr 2010 nahezu 60 Prozent der virtuellen Server weniger sicher sein werden als die Systeme, die sie ersetzen. Gründe dafür sind nicht zuletzt mangelhafte Planung, unzureichende Werkzeuge und fehlende Ausbildung. Disaster-Recovery-Konzepte Um gegen Ausfälle und Gefahren – seien es Angriffe von aussen oder systembedingte Ausfälle – abgesichert zu sein, müssen alle virtualisierten Systeme in einer stimmigen Disaster-Recovery-Planung berücksichtigt werden. Dafür gibt es mehrere Möglichkeiten: - Host-basiertes Datei-Backup: Das Backup kann zum einen «von aussen» am Host-System selbst erstellt werden. Dabei erfolgt die Sicherung der virtuellen Maschinen zunächst durch ein einfaches File-Backup der Gesamtdatei inklusive der Informationen der virtuellen Maschinen (VM). In der Praxis hat diese Methode jedoch den Nachteil, dass sich auf den produktiven VMs Benutzerdaten, Einstellungen und Anwendungen ständig ändern. Es besteht also die Gefahr, dass durch ein einfaches Datei-Backup über den Host diese Zustandsinformationen und damit der vollständige Status einer laufenden virtuellen Maschine nicht gesichert werden. Um ein konsistentes Backup zu erstellen, muss die VM für den Datensicherungsprozess in den Suspend-Modus gesetzt oder besser noch heruntergefahren werden – für einen Server in einer produktiven Umgebung keine wirklich realistische Option. - Agenten-basiertes Backup: Eine weitere Option ist die Datensicherung und Wiederherstellung durch einen Agenten innerhalb der virtuellen Maschinen – mit allen Möglichkeiten der physikalischen Backup-Welt. Die Agenten behandeln die VM wie jeden anderen Server im Netzwerk, einschliesslich dem Anlegen von Images sowie inkrementellen und differentiellen Backups im laufenden Betrieb. Alle Daten, Einstellungen, Anwendungen und Betriebssystemdateien werden so geschützt. Administratoren können im Desaster-Fall sowohl einzelne Dateien und Ordner als auch komplette Datenpartitionen in wenigen Minuten wieder herstellen.
Sobald die Zahl der virtuellen Server aber wächst, entstehen die ersten Probleme. Einerseits steigt der Verwaltungsaufwand für Administratoren, die einen Backup-Agenten für jede virtuelle Maschine managen müssen. Andererseits werden die durch die Virtualisierung erwarteten Kosteneinsparungen stark strapaziert, wenn Lizenzkosten für jeden Agenten anfallen. Vorteile bieten Software-Lösungen, die diese Hindernisse durch eine zentrale Verwaltung aller VMs und mit einem entsprechenden Lizenzmodell – zum Beispiel eine Lizenz für alle virtuellen Maschinen pro Host – adressieren. - VMWare Consolidated Backup (VCB): VMware Consolidated Backup befähigt Backup-Tools von Drittanbietern, virtuelle Maschinen und ihre Inhalte von einem zentralen Backup-Server statt direkt von einem VMware-ESX-Server aus zu schützen. Der Vorteil dieser Methode liegt vor allem in der Entlastung der ESX-Server sowie die Möglichkeit der Integration bereits bestehender Backup-Lösungen. Unterstützte Backup-Methoden sind sowohl vollständiges als auch inkrementelles Datei-Backup virtueller Maschinen, um eine Wiederherstellung auf Datei- und Verzeichnisebene durchführen zu können. Dabei wird das lokale Netzwerk nicht belastet, die Sicherungsdaten bleiben im Speichernetzwerk. Als Funktion von VMWare steht VCB allerdings nur Lösungen dieses Herstellers zur Verfügung. - Backup auf Hypervisor-Ebene: Neuere Host-basierte Lösungen arbeiten mit einem Agenten direkt auf der Hypervisor-Ebene und unterstützen so granulare Backup- und Recovery-Optionen, ohne einen Agenten in der VM installieren zu müssen. Hypervisoren wie VMWare ESX oder Microsoft HyperV setzen auf einem eigenen Kernel auf und benötigen daher kein Wirtsbetriebssystem. Auch für das Ressourcenmanagement und die Lastverteilung der einzelnen virtuellen Maschinen zeigt diese Backup-Methode ihre Vorteile. Administratoren können über Richtlinien die Service-Level der Software-Anwendungen erhöhen und im laufenden Betrieb die Ressourcenanteile für CPU, Festplatte, Arbeitsspeicher oder Netzwerkbandbreite definieren. - Ausfallsicher dank Instant Restore: Fällt eine produktive virtuelle Maschine aus, zählt im Ernstfall jede Minute. Durch das Vorhalten einer zusätzlichen, einsatzbereiten virtuellen Maschine, deren Status mit jedem Backup automatisch aktualisiert wird, lässt sich die Ausfallzeit eines Systems auf ein Minimum reduzieren. Vorgegebene Wiederanlaufzeiten werden dadurch eingehalten. Fällt das Produktivsystem aus, kann die Arbeit ohne signifikante Unterbrechung in der VM fortgeführt werden, solange Reparaturen oder ein Austausch von Hardware stattfinden.
Am Besten alles Welche Sicherungsmethode für virtualisierte Server zum Einsatz kommt, wird letztlich durch verschiedene Faktoren wie Zeit, Personalressourcen, Budget und Verlusttoleranz bedingt. Backup-Lösungen, die alle erwähnten Methoden unterstützen, sind in der Regel die beste Wahl. Um die Entwicklungen und Veränderungen der IT-Infrastruktur flexibel handhaben zu können, sollte vor der Entscheidung für einen Hersteller auch genau geprüft werden, ob eine Unterstützung für weitere Betriebssysteme wie etwa Linux gegeben ist. Moderne Disaster-Recovery-Lösungen bieten Administratoren zudem die Möglichkeit, erstellte Images in nahezu alle gängigen Dateiformate virtueller Festplatten zu konvertieren und so zwischen verschiedenen virtuellen oder auch physikalischen Maschinen zu migrieren. Datendeduplizierung Nicht zuletzt sollten beim Kauf einer Backup-Lösung integrierte Technologien wie Datendeduplizierung in Erwägung gezogen werden. Gerade in virtualisierten Umgebungen können hier erhebliche Ressourcen gespart werden, da viele Daten innerhalb der VMs redundant sind. Vor dem Hintergrund des steigenden Datenwachstums werden sich auch Überlegungen auszahlen, mit welchen Mitteln diese Entwicklung in den Griff zu bekommen ist. Eng mit der Problematik der anwachsenden Datenmengen verbunden sind die definierten Backup-Prozesse im Unternehmen. Wird beispielsweise von einem virtuellen Laufwerk jede Woche eine Sicherungskopie erstellt, entsteht dadurch eine grosse Menge an mehrfach vorhandenen Informationen. Das Thema Daten-deduplizierung zählt deshalb nicht ohne Grund zu einem Storage-Trend, der nun auch für kleine und mittlere Unternehmen an Attraktivität gewinnt. Technische Entscheider standen in der Vergangenheit meistens vor der Wahl, ob sie die Technik an der Quelle oder am Ziel einsetzen. Sie mussten entscheiden, ob der rechenaufwendige Deduplizierungsprozess zu Lasten von Netzwerkbandbreite (Deduplizierung am Ziel) oder zu Lasten der Produktivsysteme (Deduplizierung an der Quelle) vonstatten geht. Die eindeutig bessere Wahl bieten heute integrierte Disaster-Recovery-Lösungen, welche die Vorzüge beider Deduplizierungsarten verbinden. Durch einen regelmässigen, automatisierten Aufräumprozess (Repacking) am Zielsystem – ungeachtet, ob der IT-Verantwortliche die Technologie am Quell- oder Zielsystem einsetzt – wird faktisch ein zweigeteilter Deduplizierungsprozess initiiert. Der Repack-Job konsolidiert und referenziert die redundanten Dateien der einzelnen Systeme am Ziel. Die Limitierung, dass sich der Einsatz der Technologie am Quellsystem nur auf die Daten der vorliegenden Maschine beschränkt, wird durch den Aufräumprozess am Zielsystem aufgehoben. Auf diese Weise realisiert der Anwender einen wesentlichen Vorteil der Target-Deduplizierung gleichzeitig für die Quelle. Die Integration von Deduplizierung in eine ausgereifte Backup-Lösung liefert damit einen weiteren Synergieeffekt, da die regelmässige Erstellung von Vollsicherungen den Deduplizierungsprozess noch weiter optimiert. Voll-Backups können so in kürzeren Zyklen in den Sicherungsplan eingebaut werden, was für die Wiederherstellung einzelner Dateien oder kompletter Systeme eine signifikante Vereinfachung bedeutet.
Am Besten alles Welche Sicherungsmethode für virtualisierte Server zum Einsatz kommt, wird letztlich durch verschiedene Faktoren wie Zeit, Personalressourcen, Budget und Verlusttoleranz bedingt. Backup-Lösungen, die alle erwähnten Methoden unterstützen, sind in der Regel die beste Wahl. Um die Entwicklungen und Veränderungen der IT-Infrastruktur flexibel handhaben zu können, sollte vor der Entscheidung für einen Hersteller auch genau geprüft werden, ob eine Unterstützung für weitere Betriebssysteme wie etwa Linux gegeben ist. Moderne Disaster-Recovery-Lösungen bieten Administratoren zudem die Möglichkeit, erstellte Images in nahezu alle gängigen Dateiformate virtueller Festplatten zu konvertieren und so zwischen verschiedenen virtuellen oder auch physikalischen Maschinen zu migrieren. Datendeduplizierung Nicht zuletzt sollten beim Kauf einer Backup-Lösung integrierte Technologien wie Datendeduplizierung in Erwägung gezogen werden. Gerade in virtualisierten Umgebungen können hier erhebliche Ressourcen gespart werden, da viele Daten innerhalb der VMs redundant sind. Vor dem Hintergrund des steigenden Datenwachstums werden sich auch Überlegungen auszahlen, mit welchen Mitteln diese Entwicklung in den Griff zu bekommen ist. Eng mit der Problematik der anwachsenden Datenmengen verbunden sind die definierten Backup-Prozesse im Unternehmen. Wird beispielsweise von einem virtuellen Laufwerk jede Woche eine Sicherungskopie erstellt, entsteht dadurch eine grosse Menge an mehrfach vorhandenen Informationen. Das Thema Daten-deduplizierung zählt deshalb nicht ohne Grund zu einem Storage-Trend, der nun auch für kleine und mittlere Unternehmen an Attraktivität gewinnt. Technische Entscheider standen in der Vergangenheit meistens vor der Wahl, ob sie die Technik an der Quelle oder am Ziel einsetzen. Sie mussten entscheiden, ob der rechenaufwendige Deduplizierungsprozess zu Lasten von Netzwerkbandbreite (Deduplizierung am Ziel) oder zu Lasten der Produktivsysteme (Deduplizierung an der Quelle) vonstatten geht. Die eindeutig bessere Wahl bieten heute integrierte Disaster-Recovery-Lösungen, welche die Vorzüge beider Deduplizierungsarten verbinden. Durch einen regelmässigen, automatisierten Aufräumprozess (Repacking) am Zielsystem – ungeachtet, ob der IT-Verantwortliche die Technologie am Quell- oder Zielsystem einsetzt – wird faktisch ein zweigeteilter Deduplizierungsprozess initiiert. Der Repack-Job konsolidiert und referenziert die redundanten Dateien der einzelnen Systeme am Ziel. Die Limitierung, dass sich der Einsatz der Technologie am Quellsystem nur auf die Daten der vorliegenden Maschine beschränkt, wird durch den Aufräumprozess am Zielsystem aufgehoben. Auf diese Weise realisiert der Anwender einen wesentlichen Vorteil der Target-Deduplizierung gleichzeitig für die Quelle. Die Integration von Deduplizierung in eine ausgereifte Backup-Lösung liefert damit einen weiteren Synergieeffekt, da die regelmässige Erstellung von Vollsicherungen den Deduplizierungsprozess noch weiter optimiert. Voll-Backups können so in kürzeren Zyklen in den Sicherungsplan eingebaut werden, was für die Wiederherstellung einzelner Dateien oder kompletter Systeme eine signifikante Vereinfachung bedeutet.