Daten-Super-GAU
30.09.2010, 17:10 Uhr
So minimiert man Risiken
Auch Schweizer Banken schrammten schon knapp am Daten-Super-GAU vorbei, erzählen die Datenretter von Kroll Ontrack. Admins hatten elementare Sicherheitsregeln fahrlässig ignoriert.
Die Datenretter von Kroll Ontrack plauderten heute vormittag in Wallisellen aus dem Nähkästchen. Auch renommierte Schweizer Unternehmen mussten bereits die Dienste der Rettungsspezialisten in Anspruch nehmen. Ursächlich für die (Beinahe-)Katastrophen seien zu 59 Prozent Hardware-Probleme, berichtet Data-Recovery-Ingenieur Holger Engelland. 26 Prozent gehen auf das Konto der System-Anwender, die etwa aus Versehen Partitionen löschen, Snapshots falsch konsolidieren oder Virtuelle Maschinen abschiessen. Für neun Prozent der Super-GAUs sind Software-Fehlern verantwortlich. Der Trend geht hin zu menschlichem Versagen. Denn Virtualisierungstechnologie erhöht zwar Effizienz und Flexibilität, aber auch die Gesamtkomplexität der Systeme. In Folge steigt die menschliche Fehlerrate, die CIOs ins Schwitzen bringt und Datenverluste heraufbeschwört. Sie schnellt in virtuellen Systemen auf einen Rekordwert von 65 Prozent. In traditionellen, nicht-virtualisierten Systemen ist menschliches Fehlverhalten nur für 26 Prozent aller Datenverluste verantwortlich.
Für 20 Prozent kommt jede Hilfe zu spät
Virtualisierung wirkt wie eine Arbeitsbeschaffungsrakete für die Datenretter von Kroll Ontrack. "In 80 Prozent aller Fälle ist Datenrettung möglich", berichtet Engelland aus der Praxis. Für die restlichen 20 Prozent kommt jede Hilfe zu spät, weil zu viel zerstört und überschrieben wurde oder weil die Daten zu stark fragmentiert auf den Festplatten lagern. Häufig ignorieren Firmen elementare Sicherheitsregeln. Engelland empfiehlt Unternehmen deshalb dringend, ihre Sicherheitsrisiken minimieren:
- Implementieren Sie Namenskonventionen für Hosts, Gäste, physikalische Server und virtuelle File System Volumes.
- Überprüfen Sie die Default-Einstellungen ihrer Systeme
für den Fehler-, Format- und Lösch-Fall. Gilt etwa "data shreddering = enable", dann werden beim Löschen nicht nur die Meta-Verweise entfernt, sondern die Dateien auch physikalisch überschrieben. Danach kommt jede Rettung zu spät; die Daten sind unwiderruflich verloren. - Vorsicht im Umgang mit sogenannten Snapshots, sie ersetzen kein Backup, sondern protokollieren lediglich Änderungen.
- Bei Datenverlust niemals das Volume formatieren auf dem Daten vermisst werden (eigentlich selbstverständlich, aber...).
In der Cloud sind ihre Daten so sicher, wie ihr Cloud-Services-Anbieter es zulässt. Einige sicherheitsrelevante Punkte sollten Kunden daher vor der Vertragsunterzeichnung mit ihrem Provider abklären:
Unterhält der Provider eine sichere Infrastruktur, und kann er das auch glaubhaft belegen? Werden Kundendaten in der Wolke verschlüsselt übertragen und danach auch verschlüsselt gespeichert? Werden die Daten regelmässig defragmentiert? Welche Reaktionszeiten garantiert der Anbieter bei Vorfällen, welche die Sicherheit der Daten gefährden könnten? Für welche Arten von Datenverlust oder Schäden durch nicht möglichen Datenzugriff kommt der Provider auf? Wasser- und Brandschutz sollten eigentlich zum Standard gehören. Welche maximale Schadenssumme ist abgedeckt? Werden nicht mehr benötigte Daten durch Eraser- oder Degausser-Technik (Entmagnetisierung) von den Speichermedien entfernt? Wer zertifiziert, dass die Datenlöschung erfolgt ist?
Virtualisierungstechnologie bietet viele Vorteile, aber sie macht Datenrettung auch komplizierter. Im Ernstfall muss zunächst das Dateisystem des virtuellen Hosts wiederhergestellt werden, danach kommen die Virtuellen Maschinen und dann die einzelnen Dateien an die Reihe. "Eine solche Rettung dauert gut und gerne ein bis zwei Wochen", sagt Data-Recovery-Ingenieur Engelland. Ein vollständiges, an sicherer Stelle aufbewahrtes Backup und aktuelle Snapshots garantieren, dass ein komplettes Recovery auch ohne Hilfe von Spezialisten durchgeführt werden kann.