06.03.2014, 11:16 Uhr
10 Mythen über Hochverfügbarkeit
Geredet wird darüber viel, aber nur wenige Unternehmen haben wirklich hochverfügbare Systeme im Einsatz. Ursache dafür sind oft falsche Vorstellungen zum Thema. Unser Autor entzaubert die Mythen.
Für den Unternehmenserfolg ist die kontinuierliche hohe Verfügbarkeit der IT-Systeme heute ein ausschlaggebendes Kriterium. Dennoch sind die meisten Unternehmen beim Thema Hochverfügbarkeit überaus zurückhaltend. Manche meinen, das Thema betreffe sie nicht, andere - insbesondere kleinere und mittelständische Unternehmen - erkennen zwar grundsätzlich die Risiken nicht hochverfügbarer Systeme, wissen aber nicht, wie sie sich vor Ausfällen schützen können. Für Stratus-Manager Patrick-Steeven Skwara ist das ein Anlass, um mit den gängigsten Mythen aufzuräumen.
Mythos 1: Normale Server bieten heute ausreichend Sicherheit
Tatsächlich sind Server in den letzten Jahren wesentlich zuverlässiger geworden. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben unternehmenskritische Anwendungen heute auf Standard-Servern. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können hohe Verluste entstehen, die möglicherweise sogar die Existenz des Unternehmens gefährden. Standard-Server unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent - was einer durchschnittlichen Ausfallzeit von 8,7 Stunden pro Jahr entspricht. Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich, die Server fallen dann maximal 5 Minuten im Jahr aus. Nächste Seite: Mythos 2 und 3
Mythos 2: Hochverfügbarkeit ist nur für grosse Unternehmen relevant
Ausnahmslos alle Unternehmen sind heute von ihrer IT abhängig und müssen daher Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder hochverfügbare Software-Lösungen, wie Stratus everRun oder Stratus Avance, sind aufgrund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet.
Mythos 3: Hochverfügbarkeit ist teuer
Die Kosten von Hochverfügbarkeits-Lösungen müssen im Verhältnis zum möglichen Schaden gesehen werden. Tatsächlich ist Hochverfügbarkeit heute auch für kleinere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als entsprechende Cluster-Lösungen, weil keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration anfallen. Nächste Seite: Mythos 4 und 5
Mythos 4: Hochverfügbarkeit ist aufwändig zu administrieren
Cluster-Lösungen erfordern tatsächlich aufwändige Implementierung und Administration. Fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, verhalten sich gegenüber dem Benutzer wie ganz normale Server; die Administration ist nicht schwieriger als bei einem Standard-Server.
Mythos 5: Hochverfügbarkeit erfordert spezielle Applikationen
Nur für Cluster-Lösungen müssen die Applikationen angepasst werden. Fehlertolerante Server arbeiten mit Standard-Technologien, so dass Windows- und Linux-Applikationen ohne Anpassungen oder Änderungen betrieben werden können. Anwender benötigen hier für ihre Applikation auch jeweils nur eine einzige Lizenz, was die Gesamtkosten der Lösung reduziert. Nächste Seite: Mythos 6 und 7
Mythos 6: Cluster bieten ausreichende Sicherheit
Cluster arbeiten im Störungsfall nicht völlig unterbrechungsfrei, weil beispielsweise System-Dienste und Programme neu gestartet oder Datenbank-Transaktionen zurückgesetzt werden müssen. Je nach Komplexität der Applikationen können mehrere Minuten vergehen, bis alle Systeme wieder uneingeschränkt zur Verfügung stehen. In Extremfällen kann die Übergabe der Prozesse aber auch mehrere Stunden dauern.
Mythos 7: Virtualisierung macht Hochverfügbarkeit überflüssig
Das Gegenteil ist richtig: Werden auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen. Ein einziger defekter physischer Server zieht also eine ganze virtuelle Server-Gruppe mit sich - und für jedes System müssen dann mehr oder weniger aufwändige Massnahmen zur Wiederherstellung des Betriebs vorgenommen werden. Wichtige Anwendungen müssen daher - gerade auf virtuellen Servern - auch eine hochverfügbare Hardware-Plattform haben. Nächste Seite: Mythen 8 bis 10
Mythos 8: Disaster Recovery und Hochverfügbarkeit sind dasselbe
Disaster Recovery bietet Katastrophenschutz: Unternehmen schützen damit ihre IT vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei internen technischen Störungen. Verantwortungsvolle Unternehmen werden daher immer beides in ihrem Sicherheitskonzept berücksichtigen.
Mythos 9: Hochverfügbare Systeme basieren auf proprietären Technologien
Fehlertolerante Server arbeiten mit Standard-Technologien wie Intel-x86, Windows oder Linux, Software-Lösungen bauen auf dem Open-Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit indem sie die Standard-Technologien redundant auslegen, so dass alle betriebswichtigen Teile doppelt vorhanden sind.
Mythos 10: Hochverfügbarkeit haben wir schon
Viele Unternehmen verwenden unterschiedliche Technologien, um ihre IT abzusichern. Der Einsatz einer USV oder die Durchführung regelmässiger Backups sind zwar unerlässlich, machen ein System aber keineswegs hochverfügbar.