Firmenfachbeitrag
10.09.2018, 09:00 Uhr
Zukunfsweisende IT für den Mittelstand konzipieren
Alle Jahre lösen die IT-Ausrüster einen neuen Hype aus. Die mittel-ständische Industrie bringt das kaum weiter – eher frisst es ihre Budgets auf. Viel wichtiger sind eine klare Standortanalyse und das nüchterne Erfassen der künftigen Bedürfnisse.
Das meiste von dem, was heute gehypt wird, ist morgen bereits wieder vergessen. Michael Mullany, Partner einer Venture-Capital-Firma im Silicon Valley, räumt mit den Aufregungen um neue Technologien auf: Er hat sich die Gartner Hype Cycles for Emerging Technology für den Zeitraum von 2000 bis 2016 genauer angesehen und dabei festgestellt, dass von den über 200 darin erwähnten Technologien weniger als eine Handvoll den kompletten Zyklus durchlaufen haben. Viele andere einst als Hype gehandelte Technologien sind sang- und klanglos wieder verschwunden.
Hypes helfen nicht bei Entscheidungen
IT-Entscheider im Mittelstand sind also gut beraten, sich nicht von der Aufregung über die aktuellen Hypes den Kopf verdrehen zu lassen. Vor dem Ausbau oder der Erneuerung der IT empfi ehlt sich eine nüchterne Auslegeordnung. An erster Stelle steht die Frage, wie und wofür die IT eigentlich konsumiert wird. Hier gilt es zunächst die aktuellen Workloads systematisch zu erfassen und Verbesserungsmöglichkeiten bei der bestehenden IT festzuhalten. Häufi g ist zum Beispiel kein rechtzeitiger Restore möglich, oder es werden noch langsame Harddisks eingesetzt. In solchen Fällen können neue Storage-Produkte die Effizienz verbessern und somit auch All-Flash erschwinglich machen.
“Welchen Infrastruktur-Stack wähle ich für mein Datacenter?„
Christoph Schnidrig
Nach den bestehenden geht es darum, auch die künftig zu erwartenden Workloads abzuschätzen. Was will meine Firma morgen erreichen? Welche Anforderungen werden an die IT gestellt werden? Die IT-Architektur sollte sich vorrangig an der Geschäftsstrategie orientieren und das Business wirksam unterstützen. So sorgt beispielsweise das Internet of Things für grössere Datenmengen, die aber erst durch eine effi ziente Analyse nützlich werden. Machine Learning oder Analytics sind besonders hardwareintensiv und somit kostspielig, bieten aber auch ein enormes Potenzial. Ein kluges Konzept für den IT-Infrastruktur-Stack richtet sich also in erster Linie an den etablierten und zu erwartenden Workloads aus.
Kein eigenes Silo für jeden Workload!
Im nächsten Schritt folgt die Überlegung, wie die bestehenden und zukünftigen Workloads idealerweise abgebildet werden. Zurzeit sind Container auf dem Vormarsch, die kein Betriebssystem booten müssen und daher einen deutlich geringeren Ressourcenbedarf haben als virtuelle Maschinen. Allerdings verlangen Container ein zentrales Datamanagement. Bekommt also jeder Workload sein eigenes Silo? Davor sollten sich Mittelständler mit einigen hundert oder tausend Mitarbeiter hüten: In aller Regel wären die Silos so klein, dass sich die Konsolidierung auf einer Infrastruktur lohnt, um Skaleneffekte im Datenmanagement zu erhalten.
Welchen Infrastruktur-Stack wähle ich nun für mein Datacenter? Die Infrastruktur kann zum einen im althergebrachten Stil selbst errichtet werden: mit Servern, Netzwerk und Storage. Das ist heute noch bei etwa 60 Prozent der IT-Architekturen der Fall und bietet grösstmögliche Flexibilität. Converged Infrastructure mit integrierten Systemkomponenten kommt bei 35 Prozent zum Einsatz. Der aktuelle Verkaufsschlager Hyper Converged Infrastructure verzahnt Hard- und Software noch stärker und hat sich insbesondere bei virtuellen Workloads, zum Beispiel bei Aussenstellen oder kleineren IT-Installationen, bewährt. Heute sind 5 Prozent des Marktes «hyper converged». Die Einfachheit dieser Systeme wird allerdings mit höheren Anschaffungskosten erkauft. Sie zwingt ausserdem zur maximalen Eingrenzung und begünstigt die Silobildung.
«Cloud first» ist Unsinn
Nun folgt unweigerlich auch die Frage: Was mache ich mit der Cloud? Die in den USA zurzeit gebräuchliche Devise «Cloud first» passt nicht zum europäischen Markt: Hier fragen sich IT-Verantwortliche vorab, was die Cloud im spezifi schen Fall wirklich bringt und wie sie sinnvollerweise genutzt wird. Statt «Cloud first» sollte die Devise «Cloud also» heissen.
Der technische Aspekt der Cloud ist verhältnismässig schnell bewältigt. Schwieriger zu beantworten ist die Frage nach dem ROI. Ein Kostenvergleich zwischen Cloud und On-Premises ist nicht einfach und fällt meist zuungunsten der Cloud aus. Die Cloud muss daher einen zusätzlichen Wert für das Business erbringen, zum Beispiel indem sie es ermöglicht, flexibler zu agieren und Produkte schneller an den Markt zu bringen. Schliesslich gilt es auch die rechtliche Lage zu klären. Um die Argumente für und wider die Cloud im Einzelfall richtig einschätzen zu können, bietet NetApp einen sogenannten Cloud Value Management Workshop, in dessen Rahmen erfahrene IT-Architekten, Anwälte und Finanzleute zusammen mit dem Kunden innerhalb von drei Tagen alle relevanten Fragen ermitteln und passende Antworten erarbeiten (siehe Tabelle).
Anlass und Workshop
Zum Anlass
NetApp führt seine jährliche Endkundenveranstaltung, das NetApp Technology Forum, am 4. September in Lausanne und am 11. September in Zürich (im Hotel Dorint in Glattbrugg) durch. Die IT-Entscheider der schweizerischen mittelständischen Industrie sind herzlich eingeladen! Auf dem Programm stehen Themen wie «Konsistentes Multicloud Datamanagement mit AWS, Azure», «How-To Build a DevOps Environment in one Day», «Artificial Intelligence, Deep Learning und GPUs» (Gastvortrag von NVIDIA) und «Ransomware Protection as a Service» (Kundenvortrag von Swisscom). Für weitere Informationen und Anmeldungen siehe: https://www.technology-forum.ch/programm/
Zum Workshop
Die NetApp Cloud Value Management Workshops werden innerhalb von drei Tagen On-Site beim Kunden durchgeführt. Der Workshop wurde von NetApp entwickelt und basiert auf standardisierten Methoden und einem einzigartigen Toolset. Ziel ist es, die Unternehmungsziele mit den richtigen IT-Modellen zu unterstützen und zuvor die technischen, geschäftlichen und rechtlichen Auswirkungen für die Cloud-Adaption zu klären. Ein vom Kunden definiertes interdisziplinäres Team erarbeitet dabei das passende Deployment Model mittels drei angebotener Module: 1. Cloud Strategy; 2. Cloud Economics; 3. Cloud Compliance & Contracting.
NetApp führt seine jährliche Endkundenveranstaltung, das NetApp Technology Forum, am 4. September in Lausanne und am 11. September in Zürich (im Hotel Dorint in Glattbrugg) durch. Die IT-Entscheider der schweizerischen mittelständischen Industrie sind herzlich eingeladen! Auf dem Programm stehen Themen wie «Konsistentes Multicloud Datamanagement mit AWS, Azure», «How-To Build a DevOps Environment in one Day», «Artificial Intelligence, Deep Learning und GPUs» (Gastvortrag von NVIDIA) und «Ransomware Protection as a Service» (Kundenvortrag von Swisscom). Für weitere Informationen und Anmeldungen siehe: https://www.technology-forum.ch/programm/
Zum Workshop
Die NetApp Cloud Value Management Workshops werden innerhalb von drei Tagen On-Site beim Kunden durchgeführt. Der Workshop wurde von NetApp entwickelt und basiert auf standardisierten Methoden und einem einzigartigen Toolset. Ziel ist es, die Unternehmungsziele mit den richtigen IT-Modellen zu unterstützen und zuvor die technischen, geschäftlichen und rechtlichen Auswirkungen für die Cloud-Adaption zu klären. Ein vom Kunden definiertes interdisziplinäres Team erarbeitet dabei das passende Deployment Model mittels drei angebotener Module: 1. Cloud Strategy; 2. Cloud Economics; 3. Cloud Compliance & Contracting.
Data Fabric – eine Vision wird Realität
Was das zukünftige Datenmanagement angeht, hat NetApp bereits vor einigen Jahren eine Vision entwickelt, die sie Data Fabric nennt: das Gewebe, in dem alle Daten vernetzt sind. Im herkömmlichen System stehen auf der einen Seite die Lösungen im eigenen Datacenter, auf der anderen Seite die lokalen Outsourcer und Hyperscaler. Jeder dieser Services und jede Plattform hat ihr eigenes Datamanagement. NetApp zielt darauf ab, diese Grenzen zu überwinden, sodass Daten von jedem beliebigen Silo zu jeder beliebigen Plattform transferiert werden können. Diese Vision ist durch gezielte Produktentwicklung Schritt für Schritt zur Realität geworden. Im Zentrum steht dabei das Betriebssystem ONTAP. Sogenannte kalte Daten können damit von einem All-Flash-System in die Cloud verschoben werden. Ein Backup von Office-365-Daten in der Cloud ist ebenso möglich wie das Verlegen von lokalen Daten in die Cloud und zurück. Die NetApp-Produkte der letzten Jahre, darunter SolidFire, SnapMirror, FabricPool, StorageGRID, CloudSync und Cloud Volumes, greifen im Data-Fabric-Konzept ineinander.
Letztlich wird jeder IT-Entscheider mit Gewinn zunächst alle oben angesprochenen Fragen beantworten, um so die richtigen Entscheide treffen zu können. Eine Cloud-Ready-beziehungsweise Cloud-Connected-Infrastruktur eröffnet sodann ungeahnte Möglichkeiten, um zum Beispiel die grossen Datenmengen für Analytics in die Cloud zu verlagern – mit stets gewährleisteter Rückführbarkeit. Oft werden auch neue Projekte zunächst in der Cloud entwickelt und anschliessend dank übergreifendem Datamanagement wieder zurück ins Datacenter geholt.
Zum Autor
Christoph Schnidrig ist Manager Solutions Engineering bei NetApp Switzerland.
Zum Unternehmen: NetApp ist einer der führenden Spezia listen für Datenmanagement in der Hybrid Cloud. Mit unserem Portfolio an Hybrid-Cloud-Datenservices, die das Management von Applikationen und Daten über Cloudund On-Premises-Umgebungen hinweg vereinfachen, beschleunigen wir die digitale Transfor mation. Gemeinsam mit unseren Partnern helfen wir Unternehmen welt weit, das volle Potenzial ihrer Daten auszuschöpfen und so ihren Kunden kontakt zu erweitern, Innovationen voranzutreiben und Betriebsabläufe zu optimieren. Weitere Informationen finden Sie unter www.netapp.ch. #DataDriven
Dieser Beitrag wurde von der NetApp Switzerland GmbH zur Verfügung gestellt und stellt die Sicht des Unternehmens dar. Computerworld übernimmt für dessen Inhalt keine Verantwortung.