Firmenfachbeitrag
06.04.2020, 10:29 Uhr
Bald wird Storage knapp
«Wie Sand am Meer…» – Dieser Vergleich wird oft herangezogen, wenn eine Menge visualisiert werden soll, die sich niemand mehr wirklich vorstellen kann. In Bezug auf die weltweit gespeicherten Daten müssen wir uns aber bald eine Steigerung überlegen.
Storage könnte in nächster Zeit zum knappen Gut werden. Abhilfe schaffen intelligente Speicher-Management-Lösungen.
(Quelle: 105272282)
2019 beliefen sich die globalen Datenbestände laut einer IDC-Veröffentlichung (Quelle: Data Age 2025, IDC White Paper, Nov. 2018) auf etwa 40 Zettabytes, in fünf Jahren sollen es 175 Zettabytes sein. Ein Zettabyte steht für eine Sextillion Bytes, das ist eine Zahl mit 21 Nullen. Und – voilá! – das ist auch die Zahl, die Wissenschaftler für die Summe der Sandkörner an allen Stränden der Welt errechnet haben.
Ergo gibt es aktuell nicht so viele gespeicherte Bytes wie Sand am Meer, sondern mindestens 40-mal mehr. Ab 1000 Zettabytes reden wir übrigens von einem Yottabyte und wenn Xonabytes benötigt werden, kommen die aktuellen Medien an ihre Grenzen. Uns gehen offenbar mit Blick auf unsere gespeicherten Daten schnell die Massstäbe verloren.
Der Löwenanteil der weltweit gespeicherten Daten geht mittlerweile auf das Konto von Unternehmen. 2015 lag dieser Anteil noch bei gerade einmal 30 Prozent, 2025 sollen es laut der eingangs zitierten IDC-Studie bereits 60 Prozent sein, das entspricht einem Anstieg von zwölf auf etwa 105 Zettabytes. «Das ist mir egal, kaufe ich halt ein paar günstige Festplatten oder SSDs dazu», werden jetzt viele denken. Aber das wird aller Voraussicht nach nicht funktionieren.
Laut IDC (und andere Analysten sehen das ähnlich) wird die Bereitstellung dieser Menge an Speicherkapazität ein Problem werden, wenn es nicht noch einen unerwarteten Durchbruch bei neuer Speichertechnologie gibt. Zwischen 2019 und 2025 sollen insgesamt 21,9 Zettabytes Storage ausgeliefert werden, der Bedarf liegt aber bei 135 Zettabytes!
Speicher wird ein knappes Gut
Im Normalfall gehen die Marktteilnehmer davon aus, dass der Markt Angebot und Nachfrage regelt. Aktuell ist die Situation aber eine andere: Nach einem Boom 2018 ist der Markt für Flash-Speicher gerade aufgrund eines Überangebotes in einen Abschwung geraten und die Preise sind 2019 eingebrochen. Die drei grossen Hersteller Intel, Micron, SK Hynix und Samsung haben vor diesem Hintergrund ihre Produktion zurückgefahren.
Es ist schwer vorstellbar, dass sie kurzfristig das Steuer herumreissen und Zettabytes an zusätzlicher Kapazität auf den Markt werfen. Eine Alternative wären klassische Festplatten, diese sind aber technologisch betrachtet Auslaufmodelle und zudem teuer in Entwicklung und Herstellung. Einige Hersteller entwickeln hier noch weiter, investieren aber nicht mehr in zusätzliche Produktionsanlagen.
Bei der Miniaturisierung von Chips sind wir mittlerweile im Bereich weniger Nanometer angelangt, hier ist das Ende der Fahnenstange nah, spätestens auf der Ebene einzelner Atome ist nach derzeitigem Stand der Physik Schluss. Die aktuelle Prozessorgeneration von AMD weist Strukturen im Bereich von sieben Nanometern auf, das entspricht etwa 28 nebeneinander liegenden Atomen. Ein Grippevirus ist übrigens etwa 100 Nanometer gross.
Zahlreiche Forschungseinrichtungen suchen daher derzeit nach alternativen Speichermedien. Geforscht wird an zahlreichen Fronten, etwa organischen Kristalle oder DNA. Theoretisch ist das auch eine sehr vielversprechende Idee. Wissenschaftlern zufolge könnte ein Zettabyte Daten in einem Gramm DNA gespeichert werden, damit würde der Datenbestand von 2025 in einer Kaffeetasse Platz finden. Von einer Realisierung sind wir aber noch meilenweit entfernt. Mit der aktuell besten verfügbaren Technologie würde es mehrere Monate dauern und Hunderttausende von Euro kosten, die Menge DNA einer einzigen Zelle eines Koli-Bakteriums synthetisch herzustellen. Das Bakterium selbst schafft das kostenlos und in etwa 20 Minuten.
Daten managen statt kopieren
Die Idee, dass Speicher einmal knapp werden könnte, erscheint aus heutiger Sicht einigermassen absurd. Storage steht in Hülle und Fülle zur Verfügung, in der Cloud quasi unbegrenzt zu geringen Kosten. Aber wenn Speicher knapp wird, werden dies auch die Cloud-Anbieter zu spüren bekommen – und dann nach den Gesetzen der Marktwirtschaft die Preisschraube anziehen. Wer bis dahin komplett und alternativlos mit seinen Daten in die Wolke umgezogen ist, wird mit deutlich steigenden Kosten rechnen müssen.
Unternehmen werden nicht umhinkommen, nach intelligenten Wegen zu suchen, um ihre Datenbestände zu reduzieren. Deduplizierung oder Kompression sind dabei nur ein Tropfen auf den heissen Stein. Das grösste Problem sind die vielen irgendwo schlummernden oder herrenlosen Datenkopien, die in Unternehmen herumgeistern. Schätzungen zufolge sind etwa zwei Drittel der Kapazitäten externer Speichersysteme nicht durch Primärdaten belegt, sondern von Snapshots, Klonen, Archiven oder Backup-Daten. Für Datensicherung und -wiederherstellung werden nach aktuellen Erhebungen 13 bis 20 Kopien aktiver Dateien angelegt.
Das liegt unter anderem daran, dass Anwendungen und Daten enger zusammengewachsen sind und Datenkopien beispielsweise für die Verarbeitung über Computer-Cluster hinweg verteilt werden. Ein unangenehmer Nebeneffekt ist, dass dadurch Löschanfragen, die etwa die DSGVO mit sich bringt, nur schwer zu vollziehen und zu dokumentieren sind. Das Datenmanagement wird immer wichtiger – und gleichzeitig angesichts schwindelerregender Datenmengen auch schwieriger.
Vorteile durch Objektspeichertechnologie
Ein Ausweg aus dem Storage-Dilemma liegt in DataOps, der Kombination aus intelligentem Datenmanagement und Hardware, die für mehr Transparenz sorgt und die Notwendigkeit von Datenkopien verringert. Aus technischer Sicht spricht dabei vieles für Objektspeichertechnologie, die nicht nur sehr hoch skalierbar, sondern auch kostengünstig ist.
Mit Hilfe von Metadaten können Versionen verwaltet, Daten für Compliance-Anforderungen gefiltert oder Snapshots angefertigt werden, die im Vergleich zu klassischen Backups deutlich weniger Platz benötigen und eine erheblich einfachere Wiederherstellung von Dateien ermöglichen. Snapshots können auch für Testumgebungen genutzt werden, wo die eigentlichen Primärdaten nicht verändert werden, sondern lediglich die Metadaten.
Mit Objektspeicher können Unternehmen auch Anwendungen spezifischen Speicherklassen zuordnen, so dass eine produktive Datenbank schnelle NVMe-SSDs nutzen kann, während selten genutzte Archivdaten auch auf langsam drehenden Festplatten liegen können, die deutlich mehr Kapazität für den eingesetzten Euro bringen. Um alle Vorteile eines modernen Objektspeichers zu nutzen, muss aber vor allem die Software mitspielen.
Moderne Storage-Verwaltung als Lösung
Hitachi Vantara hat dazu mit der Managmentumgebung seiner HCP – Content und Collaboration Platform, die über ein Vielzahl von Schnittstellen verfügt – S3 NFS, CIFS, REST, HTTP, HTTPS, WebDAV, SMTP, NDMP - und seinem Speicherbetriebssystem SVOS RF (Storage Virtualization Operating System Resilient Flash) Betriebssysteme entwickelt, die als Verwaltungsebene oberhalb der Storage-Hardware nicht nur eigene, sondern auch Fremdsysteme einbinden können, oder die Basis für Muticloud Umgebungen sein können.
Die enthaltene künstliche Intelligenz passt sich an veränderte Bedingungen an, um die Workload-Performance zu optimieren, Speicherkosten zu senken und Fehler vorherzusagen, die den Betrieb stören könnten. Dadurch können bis zu 70 Prozent der Aufgaben in Infrastrukturmanagement und Betrieb automatisiert ablaufen, zusätzlich erhalten Admins schnellere und genauere Einblicke, um den Systemzustand zu diagnostizieren und den Datenbetrieb im Top-Zustand zu halten.
Diese sehr präzisen Predictive und Automatierungs Tools für Unternehmen sind die beste Art und Weise, ihre Datenbestände effizient zu managen – zumindest so lange, bis DNA-Speicher und andere Science-Fiction-Ansätze die Marktreife erlangt haben. Was allerdings noch eine Weile dauern wird.
Zum Autor
Jürgen Krebs ist seit Juli 2004 bei Hitachi Vantara tätig und verantwortet seit 2016 das CTO Office für die Central Region. Mit Hilfe seiner umfangreichen Branchenerfahrung von mehr als 35 Jahren gestaltet er die strategische Ausrichtung von Hitachi Vantara mit Fokus auf die Kernkompetenzen des Unternehmens. Der begeisterte Techniker beschäftigt sich in seiner Freizeit leidenschaftlich mit jeglicher Art von Elektronik, Motorenbearbeitung und dem Motocross.
Zum Unternehmen: Hitachi Vantara begleitet Unternehmen von dem, was jetzt ist, zu dem, was als nächstes kommt. Unser Know-how zu branchenspezifischen Lösungen für die digitale Transformation schafft in Verbindung mit Ihren Daten einen unschlagbaren Wettbewerbsvorteil. Skalieren Sie Ihr digitales Business in Rekordzeit und tragen Sie zum gesellschaftlichen Fortschritt Uns reicht es nicht zu fragen «Was können wir tun?». Die Frage muss lauten: «Was können wir zusammen nicht schaffen?»
Weitere Informationen: www.hitachivantara.com
Dieser Beitrag wurde von Hitachi Vantara zur Verfügung gestellt und stellt die Sicht des Unternehmens dar. Computerworld übernimmt für dessen Inhalt keine Verantwortung.