Data Services Platform
12.11.2018, 09:55 Uhr
Dateras Speichersystem setzt auf Elastizität
Das Start-up Datera erregt mit seiner Data Services Platform grosse Aufmerksamkeit. Der ambitionierte Storage-Management-Ansatz verspricht maximale Elastizität für hochskalierbare Anwendungen.
Die vielen neuen, komplexen und oft divergierenden Storage-Ansätze erschweren den Unternehmen den Überblick. Mit dem 2013 gegründeten US-Start-up Datera aus Santa Clara gibt es eine weitere im Kern auf Software basierende Speicherlösung. Dabei geht es um mehr als nur um Software-defined Storage (SDS) oder virtuelles SAN (Storage Area Network). Datera selbst spricht von einer Data Services Platform (DSP) und definiert diese so: «Die DSP-Software liefert kontinuierlich verfügbare elastische Data Services für jede skalierbare Anwendung über Rechenzentren, Private und Hybrid Clouds hinweg. Sie ist eine lebendige Plattform, um die Storage-Anforderungen für Container, Clouds, Datenbanken, DevOps und mehr zusammenzubringen, zu vereinfachen und zufriedenstellend zu lösen.»
Flexible Storage-Plattform
Datera stellt für seine DSP mit Elastic Data Fabric (EDF) einen erweiterbaren serverbasierten Speicher bereit. Die Software läuft auf x86-Servern von der Stange, die man bei Datera mitkaufen kann. Alternativ gibt es die Lösung auch bei den Server-Anbietern Cisco, Dell, Fujitsu, HPE und Supermicro.
Seit diesem Sommer unterstützt DSP auch Container und Object Storage. Der Software-Ansatz ist offen für verschiedene Architekturen auf der Array-Seite, die auch zu einem gemeinsamen virtuellen System zusammengefasst werden können. Flash-Speicher und traditionelle Festplatten lassen sich miteinander mischen, wobei die DSP-Software für automatisches Tiering und Verschieben der Daten sorgt.
Bei den Anwendungen unterstützt die «unsichtbare Daten-Infrastruktur» der DSP-Software ein breites Spektrum an Applikationen und Umgebungen einschliesslich Datenbanken (relational und nicht relational), virtualisierten Servern, Containern und Orchestratoren, offenen Cloud-Stack-Angeboten und DevOps-Modellen für Continuous Deployment.
Mit Features wie Verfügbarkeitszonen, Stretched Clusters und der Integration von Hybrid Clouds sieht Datera seine DSP-Software als ideale Basis für das automatische Verschieben traditioneller Workloads von performantem (und teurem) Tier-1-Speicher auf andere Tiering-Formen oder in die Cloud.
Datera strebt mit der DSP-Architektur eine offene Struktur an, die sich nicht von einem bestimmten Storage-Design abhängig machen will. Die Software schafft eine Art virtuelles LAN für die darunterliegenden Speichertypen – ein Vorgehen, das an den Ansatz von DataCore erinnert. Die Kunden befreien sich damit von der Abhängigkeit von einem bestimmten Hersteller, da sie viele technisch verschiedene Komponenten miteinander verbinden können. Die Nodes lassen sich laut Datera in die Infrastruktur «live einfügen oder entfernen». Man kann ältere Server und Medien länger verwenden, was wiederum zu Kostenersparnissen führt. In der Marketing-Sprache von Datera ist die Rede von «Gold-Standard-Performance und Industrie-Standard-Einsparungen». Heterogene Nodes lassen sich in einem DSP-Cluster miteinander mischen und liefern so ein «Spektrum an Preis-Performance-Varianten, das zu einer bunten Mischung von Applikationen passt».
Solche Angebote sind auch für Storage- und Server-Lieferanten von Interesse. Grosse Hersteller wie HPE oder Dell verhandeln offenbar bereits mit Datera, wie CEO Marc Fleischmann berichtet, um OEM-Varianten der DSP-Architektur auf Basis der jeweils eigenen Hardware herauszubringen. Cloud-Anbieter seien ebenfalls eine ideale Zielgruppe für Datera, da sie relativ einfach auf die Software-Lösung umsteigen könnten.
Lernen von Cloud-Services
Ansätze in der IT-Industrie, «Software-defined»-Produkte einzuführen, gibt es viele. Virtualisierte Server kann man sich auch als Software-definiert vorstellen: Mit einer bestimmten Software (Hypervisor) werden lauter virtuelle Maschinen oder kleinere Unter-Server erzeugt, die in sich ein Betriebssystem und mehrere Anwendungen aufnehmen.
Etwas Ähnliches passiert bei Containern: Durch den Einsatz einer speziellen Software werden selbstständig agierende Behälter für Programme und bestimmte Aufgaben eingerichtet und mit einer Orchestrierungs-Software (zum Beispiel Kubernetes) verwaltet. Und virtuelle Netzwerke lassen sich in mehrere Einzelstücke aufteilen, um Durchsatz, Last und die Performance insgesamt zu erhöhen. Viele dieser Neuerungen wurden in den grossen Cloud-Rechenzentren entwickelt.
Um die Besonderheit der Lösung von Datera besser zu verstehen, muss man sich klarmachen, dass cloudähnliche Services – wie man sie von den Infrastruktur-Bereichen Compute und Networking kennt – für Storage lange auf sich warten liessen. Heute wird zwar auf Herstellerseite viel von «Software-defined Storage» gesprochen, aber die grundsätzliche Problematik wird oft noch nicht angegangen. Der Analyst George Crump von Storage Switzerland hat darauf hingewiesen, dass traditionelle Storage-Systeme von Haus aus nicht für die automatisierte Unterstützung von Multi-Workloads geschaffen wurden.
Rechenzentren sind vielmehr dadurch charakterisiert, dass in ihnen eine grosse Bandbreite an Workloads stattfindet, die von Datenbanken auf Bare-Metal-Servern bis zu Anwendungen reicht, die in virtuelle Maschinen oder Container gepackt sind. Ausserdem nimmt die Menge an unstrukturierten Daten, die verarbeitet und ausgewertet werden, dramatisch zu, Stichwort Big Data. Für all diese Workload-Varianten gibt es darüber hinaus unterschiedliche Anforderungen an Performance und Kapazität.
Die klassische Lösung für das Multi-Workload-Problem, wie es George Crump beschreibt, besteht darin, für jede Art von Workload oder Programm ein eigenes, abgetrenntes Speichersystem zu schaffen. Wenn neue Workloads oder Applikationen dazukommen, wird damit ein automatisches Provisioning mit Speicherplatz annähernd unmöglich. In der Folge müssen immer mehr Storage-Arrays hinzugefügt werden, was die Infrastrukturkosten in die Höhe treibt und das Management der Systeme erschwert.
Die Antwort der Hersteller auf diese Situation – nämlich Scale-out-Systeme einzurichten – entschärft zwar das Wachstums- und Performance-Problem, ändert aber nichts daran, dass im Rechenzentrum immer noch verschiedene Speichersilos nebeneinander bestehen. Ausserdem sind in der Regel für das Wachstum fast die identischen Nodes erforderlich, während gemischte Cluster nur schwer zu verwalten sind, argumentiert Crump.
So geht Datera vor
Der Ansatz von Datera zielt dagegen darauf ab, in einem Design aus Software und Datenorientierung unterschiedliche Arten von Nodes in einem einzigen Cluster zu unterstützen, der mehrere Rechenzentren einschliesslich Cloud-Installationen umfassen kann. Diese Architektur will alle Anforderungen traditioneller Anwendungen mit den Skalierungswerkzeugen moderner, Software-definierter Umgebungen zusammenbringen. Datera spricht auch von einer «application-driven data services platform».
Ein weiteres Merkmal von Dateras Data Services Platform ist, dass sie zum Schutz von Daten auf Replikation statt auf das heute sehr verbreitete Erasure Coding setzt. Die Replikation wird dabei innerhalb des Clusters von einem einzigen Node aus eingesetzt, was die Netzwerklatenzen reduziert, wie sie bei Erasure Code üblich sind.
DSP kann zudem verschiedene Speichermedien wie Flash und Festplatten gemeinsam verwalten und die Daten je nach aktiver oder mehr «kalter» Benutzung automatisch platzieren. Mit DSP lassen sich ferner Policies festlegen, mit denen die Daten zwischen verschiedenen Rechenzentren, entfernten Zweigstellen und Cloud-Systemen verteilt werden können.
Um seinen ambitionierten Storage-Management-Ansatz professionell vertreiben und entwickeln zu können, wird Datera sein Team von derzeit etwa 100 Mitarbeitern stark ausbauen oder Partnerschaften eingehen müssen. Das wird sich nicht ohne neue Finanzierungsrunden und die Unterstützung von Venture-Capital-Firmen machen lassen. Dafür sieht sich Dateras CEO Marc Fleischmann gut gerüstet.