Hyper-converged Storage
30.07.2018, 06:00 Uhr
Cohesity gilt als das nächste grosse Ding
Das kalifornische Start-up Cohesity bringt frischen Wind in die Storage-Szene. Hyperkonvergente Infrastrukur wird neben dem primären Storage auch für Daten auf sekundären Speichersystemen angeboten.
Das im Juni 2013 gegründete Start-up Cohesity hat mit innovativen Lösungen für hyperkonvergenten Speicher allein letztes Jahr ein Wachstum von über 300 Prozent hingelegt und wird daher von vielen Experten gern als «next big thing» bezeichnet. Laut Crunchbase, der renommierten Datenbank für IT-Unternehmen, hat Cohesity in drei Finanzierungsrunden rund 160 Millionen Dollar an Funding-Geldern eingenommen. In einer vierten Finanzierungsrunde konnte das Start-up jüngst weitere 250 Millionen Dollar eintreiben.
Der Ansatz von Cohesity
Cohesity-Gründer Mohit Aron beschrieb in einem Interview mit «StorageNewsletter» im Mai 2017 den Werdegang des Unternehmens so: «Nach drei Jahren als CTO bei Nutanix wollte ich mit hyperkonvergenter Infrastruktur neu anfangen. So etwas gab es damals nur für primären Storage (Tier 1), also für Anwendungen und Daten, die auf Produktivsystemen genutzt werden.» Aber ein Grossteil der Daten, betont Aron, ist auf sekundären Speichersystemen in der Nähe der Produktivsysteme (Tier 2) abgelegt, insbesondere 80 Prozent der noch nicht archivierten Daten, zum Beispiel für Test und Development, Filesharing, Objektspeicher und Analytics. «Hyperkonvergenz war dafür nicht vorgesehen. Das wollte ich mit Cohesity ändern», so Mohit Aron.
Tier 1 vs. Tier 2
Cohesity bietet, wie viele andere Speicherhersteller, hyperkonvergenten Speicher an – allerdings mit der Besonderheit, dass seine Variante sich vor allem für sekundäre Speichersysteme (Tier 2) eignen soll. Der Hintergrund: Während primärer Speicher oder Tier 1 die Daten der Produktivsysteme sichert,
sind die weiteren Speicherebenen (Tiers) immer weiter von der Produktion entfernt – das reicht bis zur Auslagerung der Datenbänder in Keller oder entfernte Örtlichkeiten wie verlassene Bergwerke oder ehemalige Bunker.
sind die weiteren Speicherebenen (Tiers) immer weiter von der Produktion entfernt – das reicht bis zur Auslagerung der Datenbänder in Keller oder entfernte Örtlichkeiten wie verlassene Bergwerke oder ehemalige Bunker.
Für primäre Daten werden meist schnelle Flash-Speicher und hochwertige Festplatten als Medien verwendet, während man für die nachgelagerten Tiers Platten und Tapes einsetzt, bei denen weniger die Performance als vielmehr die Kapazität (und das geringere Preisniveau) entscheidend ist.
Hyperkonvergenz
Ursprünglich bestanden Server aus Compute-Elementen und integriertem Speicher (Direct Attached Storage, DAS). Doch vor ungefähr 20 Jahren kam es zu einer räumlichen Trennung von Rechen- und Speicherfunktionen: Mit SAN (Storage Area Network) und NAS (Network Attached Storage) entstanden Speichernetzwerke, die die Daten von verschiedenen Servern und Applikationen auf ihren entfernten Speichersystemen einsammelten – ein klarer Vorteil, was Kapazität, Skalierbarkeit und Entlastung der Server betraf.
Mit konvergenten und hyperkonvergenten Systemen findet in letzter Zeit eigentlich ein Entwicklungsschritt in die umgekehrte Richtung oder ein «Zurück zum Server» statt: Rechen- und Speicherfunktionen sind wieder so eng verzahnt in einem Rack, dass eine höhere Performance möglich wird – weil lange Transportwege für die Daten auf Netzwerkpfaden entfallen.
Unter Hyperkonvergenz wird heute in der Regel eine softwarebasierte Technologie verstanden, die Compute-, Storage und Virtualisierungsressourcen unter einer Oberfläche zusammenbringt. Dafür wird standardisierte Hardware verwendet, was die Anschaffungskosten mindert. Hypervisor-Software von VMware dominiert diesen Markt, aber es finden sich auch Programme auf Basis von Microsoft Hyper-V oder KVM. Einer der ersten Anbieter von Hyper-converged Infrastructure war Nutanix, wo man den eigenen Hypervisor Acropolis einsetzt. Die enge Integration der verschiedenen Komponenten erleichtert sowohl die Verwaltung der komplexen Systeme als auch ihre Erweiterung durch Hinzufügen weiterer Nodes. Während anfangs alle Komponenten zusammen erweitert werden mussten, gibt es heute auch Lösungen für getrennte Skalierung – nur für Compute oder nur für Storage.
Weitere Anbieter von hyperkonvergenter Infrastruktur sind vor allem Dell EMC mit der Appliance VxRail, Hewlett Packard Enterprise (HPE) seit dem Kauf von SimpliVity, Cisco und Net-App mit der hinzugekauften Flash-Hardware von SolidFire.
Vorsichtige Expansion
Ein wichtiger Faktor der Cohesity-Erfolgsgeschichte ist, dass die namhafte Venture-Capital-Firma Sequoia zu den massgeblichen Geldgebern zählt. Klaus Seidl, Vice President EMEA des jungen Unternehmens, betont: «Wir fahren mit Sequoia Capital sehr gut. Normalerweise ist Sequoia nur mit seinem Kapital und seinen Ratschlägen an Start-ups beteiligt, aber Cohesity beschäftigt relativ viele Ex-Sequoia-Leute. Sequoia hat zudem sehr bekannte Aufsichtsratsmitglieder wie Dan Warmenhoven, Ex-CEO von NetApp, oder Carl Eschenbach, COO von VMware – deren Stimme etwas zählt bei den verantwortlichen Managern
und IT-Leuten draussen in den Unternehmen.»
und IT-Leuten draussen in den Unternehmen.»
Trotz der guten Kapitalausstattung wird die Expansion von den USA aus in andere Weltregionen von Cohesity relativ langsam angegangen, wie Seidl berichtet. «Viele Start-ups machen den Fehler, zu früh auf Marktwachstum zu setzen und Präsenz nur vorzutäuschen.» Oft werde die Ausdehnung in andere Märkte zu sehr forciert, man stelle ungeeignetes Personal ohne ausreichende Kenntnis der lokalen Absatzmärkte und der neuen Technologie ein und die Verkaufserfolge liessen – selbst verschuldet – auf sich warten. Gleichwohl wächst die Anzahl der Cohesity-Mitarbeiter laut Klaus Seidl beinahe täglich: «Wir sind gerade dabei, die 400er-Grenze zu knacken. In Europa haben wir rund 50 Beschäftigte.»
Im Gespräch mit Klaus Seidl, VP EMEA bei Cohesity
Klaus Seidl ist VP EMEA bei Cohesity und hat eine lange Vergangenheit bei anderen US-Start-ups vorzuweisen. Vor seiner Arbeit bei Cohesity, die im November 2017 begann, war er bei Simpli-Vity, Palo Alto, Riverbed und NetApp. Im Interview mit Computerworld erläutert er, was Cohesity von der Konkurrenz unterscheidet und was er von «Cold Data» hält.
Computerworld: Sie haben viel Erfahrung mit US-Start-ups, die auf den europäischen Markt drängen. Was treibt Sie immer wieder dazu, bei solchen Start-ups einzusteigen?
Klaus Seidl: Ihre Technologie und die Art und Weise, etwas zu verändern, eine Disruption herbeizuführen, wie die Amerikaner so schön sagen. Nachdem ich lange Jahre bei IBM in der Entwicklung verbracht hatte, bin ich zum Vertriebsmann geworden – eine Position, in der man wirklich etwas verändern kann. Seitdem schlägt mein Herz für Start-ups.
Computerworld: Was ist disruptiv an Cohesity?
Seidl: Bei Unternehmen entstehen ständig riesengrosse Datenmengen. Sechs Siebtel dieser Daten gehören zu den nicht sichtbaren Teilen des Dateneisbergs, und Cohesity eröffnet den Zugang zu diesem bisher verborgenen Bereich. Damit verändert Cohesity einen Speicherbereich, in dem aus meiner Sicht in den letzten 20 Jahren wenig passiert ist: Tier-2-Storage.
Computerworld: Was ist das Besondere an den Cohesity-Lösungen?
Seidl: Bei uns geht es um File Services rund um richtig grosse Datenmengen, um Backup- und Search-Algorithmen sowie um SLAs und Smart-Contract-Elemente, um die Daten zweckmässig zu sortieren oder auszuwerten. Es geht um mehr, als nur darum, grosse Datenmengen irgendwohin zu überspielen und für den Notfall zugriffsfähig zu halten.
Computerworld: Das behauptet nicht nur Cohesity von sich.
Seidl: Cohesity stellt einen Data Backbone dar, der all diese Gesichtspunkte und technologischen Komponenten abdeckt, und nicht nur zum Beispiel Backup. Andere Anbieter sprechen auch von Hyperkonvergenz, meinen aber damit nur, dass sie Server mit zwei Höheneinheiten verwenden. Sie können nur Backup und Restore. Bei Cohesity geht es dagegen darum, wirklichen Mehrfachnutzen aus Tier-2-Daten zu gewinnen. Die Funktionalitäten, die Cohesity abdeckt, sind also andere als die, die SimpliVity oder Nutanix abdecken.
Computerworld: Was meinen Sie mit Mehrfachnutzen?
Seidl: Der Mehrfachnutzen besteht aus einer Plattform, die auf einem Google- und Hadoop-Subsystem aufsetzt. Damit kann man Daten irgendwohin schreiben, aber unter bestimmten Umständen auch wieder
zurückholen – zum Beispiel wenn ein Mitarbeiter das Unternehmen verlässt. Cohesity bietet unterschiedliche Managementformen für die Daten an – das können andere so nicht. Die Daten müssen nur einmal abgespeichert werden. Für besondere Auswertungen wie Analytics oder Big Data muss man nicht wie bei anderen Lösungen jeweils eigene Datenumgebungen aufbauen (was dazu führen kann, dass die Daten mehrfach vorhanden sind und gepflegt werden müssen).
zurückholen – zum Beispiel wenn ein Mitarbeiter das Unternehmen verlässt. Cohesity bietet unterschiedliche Managementformen für die Daten an – das können andere so nicht. Die Daten müssen nur einmal abgespeichert werden. Für besondere Auswertungen wie Analytics oder Big Data muss man nicht wie bei anderen Lösungen jeweils eigene Datenumgebungen aufbauen (was dazu führen kann, dass die Daten mehrfach vorhanden sind und gepflegt werden müssen).
Computerworld: Wie lässt sich der Unterschied zur SimpliVity-Lösung (heute Teil von HPE) beschreiben?
Seidl: Bei SimpliVity geht es auch um Backup, Restore, Cloning und entfernte Datenhaltung. Wichtig ist dort zudem der Einsatz von Flash und normalen Festplatten sowie die Cloud-Anbindung, um den Tier-1-Use-Case abzusichern. Bei Cohesity geht es um ähnliche Themen, aber eben bei Tier 2, zum Beispiel um Data-Copy-Management, wobei bei uns nicht die Datenkopien im Vordergrund stehen, sondern das Management der Daten. Sicher, es geht auch um Recovery, aber primär ist die aktive Nutzung der gesicherten Daten wichtig.
Computerworld: Es geht Ihnen also weniger um die Daten, die aktuell produktiv sind, sondern um die «Cold Data» jenseits dieser Prozesse?
Seidl: Ja, wir können sie ruhig als Cold Data bezeichnen. Aber sie sind eigentlich nicht «kalt», sondern für unterschiedlichste Zwecke «warm» und «aktiv». Es handelt sich um riesige, wachsende Datenmengen, weshalb auch eine skalierbare Architektur erforderlich ist, die mit diesem Prozess Schritt halten kann. Es braucht genügend Speicherplatz, um dann diese Daten für Analytics oder Tests dienstbar zu machen oder um Remote-Kopien davon für verschiedene Anwendungsfälle zu erstellen. Aber das alles geschieht bei Cohesity auf der Basis einer einzigartigen Tier-2-Architektur, die dem Kunden Mehrfachdienste «for free» zur Verfügung stellt.
Computerworld: Verstehen Sie unter einer «einzigartigen Architektur» so etwas wie einen einzigen grossen Datentopf?
Seidl: Genau. Und der ist frei skalierbar, es kann also je nach Bedarf ein Stück hinzugekaut werden.
Computerworld: Was passiert denn, wenn ein Teil der Daten nicht mehr gebraucht wird? Die liegen dann doch immer noch in dem gleichen Topf?
Seidl: Ja, schon.
Computerworld: Und das verursacht doch Kosten. Wäre es denn nicht sinnvoller, sie irgendwohin zu verschieben?
Seidl: Im alten Denken liegen sie dort und werden bald eiskalt. In unserem Fall geht es aber um Funktionalitäten, die in gewisser Weise dem Status von Tier 1 entsprechen. Nach bestimmten Fristen können natürlich Daten verschoben werden, wenn das Unternehmen es so entscheidet, und der Speicher wird wieder kleiner. Bei Cohesity aber wird die Brauchbarkeit der Daten zu einem eigenen Kriterium, was in den zurückliegenden 20 Jahren im Zeitalter von Backup und Restore nicht der Fall war.
Computerworld: Hyperkonvergent bedeutet bei Cohesity also Mehrfachausbeute – und nicht wie bei vielen anderen Anbietern nur die enge Koppelung von Compute und Storage.
Seidl: Das machen wir auch, es ist allerdings nicht unser Schwerpunkt. Hyper-converged-Technologie hat immer zwei Dimensionen: Einmal meint «converged», proprietäre Hardware in Standard-Hardware umzuwandeln und dann dieses eigentlich un interessante Gerät zu einem Multi-Purpose-System auszubauen. Das ist in etwa in den letzten fünf, sechs Jahren für Tier 1 geschehen, aber nicht für Tier 2. Spezialfirmen haben lediglich einzelne Funktionen für Tier 2 tauglich gemacht, was in der Praxis zu einer Vielzahl verschiedener Geräte führen konnte, die alle «Appliance» hiessen. SimpliVity, Nutanix und andere haben dann damit begonnen, in Google-Manier einzelne White-Label-Server für Spezialaufgaben wie Search oder Analytics anzubieten. Der Cohesity-Gründer Mohit Aron, der früher CTO bei Nutanix war, ist dann noch einen Schritt weitergegangen und hat on top auf die Software diverse Use Cases gepackt.
Computerworld: Liesse sich die Cohesity-Technologie denn auch für Tier-1-Daten einsetzen?
Seidl: Durchaus. Es müssten nur einige Parameter für CPU, Memory, Flash oder SLAs geändert werden. Natürlich würde bei Search-Funktionen und Ähnlichem eine starke CPU-Belastung eintreten. In unserem Modell spielen dagegen Copy Management und Second Usage die entscheidende Rolle – kalte Daten werden wieder warm oder heiss.