Das Herz der Digitalisierung
Auslaufmodell On-Premise?
Cloud-Computing, Edge-Computing, stetig steigende Datenmengen und die Herausforderungen der Datenverarbeitung beispielsweise mit Künstlicher Intelligenz - lässt sich das alles noch im unternehmenseigenen Data-Center stemmen? Oder wird das On-Premise-Rechenzentrum mehr und mehr zum Auslaufmodell?
Dominik Friedel von NTT erkennt zumindest einen klaren Trend: «Die Rechenzentren im Keller beziehungsweise am Unternehmensstandort werden tatsächlich seit einigen Jahren weniger.» Das liege zum einen an der steigenden Komplexität des Rechenzentrumsbetriebs. Gerade für Organisationen mit hohen Sicherheits- und Compliance-Anforderungen, etwa Banken oder Behörden, seien die Anforderungen und Zertifizierungen so vielschichtig, dass diese sich Friedel zufolge eher auf spezialisierte Anbieter verlassen.
Als weiteren Punkt sieht er das Cloud-Computing: So kombinierten Hybrid-Clouds lokale Ressourcen mit Angeboten in der Public Cloud und seien daher auf einen sicheren und leistungsfähigen Zugang zu diesen Cloud-Angeboten angewiesen. «Den erhalten Unternehmen in Co-Location-Rechenzentren, in denen sie eine zuverlässige und geschützte Rechenzentrumsinfrastruktur vorfinden, die volle Kontrolle über ihre Systeme behalten und gleichzeitig eine direkte, dedizierte Verbindung zu vielen Cloud-Anbietern nutzen können.» Mit einem eigenen Rechenzentrum erreiche man keine vergleichbaren Übertragungsgeschwindigkeiten und müsse in neue Leitungen investieren, was sehr teuer sei.
“Wir beobachten, dass heute schon sehr konkret nach direkten und privaten Anbindungsmöglichkeiten an die führenden Hyperscaler wie Microsoft Azure, Amazon Web Services und die Google Cloud gefragt wird.„
Holger Nicolay, Business Development Manager bei Interxion
Holger Nicolay vertritt - als Co-Locoation-Anbieter - eine ähnliche Auffassung: «Eine Cloud bietet eine Alternative zu kleinen, unsicheren und ineffizienten Server-Räumen ‚im Keller‘.» Dennoch habe - abseits des Klischees von der selbst gebastelten Keller-IT - die anwendungsspezifische IT vor Ort auch zukünftig ihre Daseinsberechtigung. Als Beispiel nennt er Industrie 4.0 in Form von Edge-Technologien und latenzkritischer Produktionssteuerung.
Nach Ansicht von Johann Dasch, CEO und Vorstand des Hosting-Spezialisten 1blu, hat das Thema jedoch verschiedene Facetten: «Angesichts der aktuellen Bedrohungslagen im Bereich Security wird es für einige Kunden immer wichtiger, auf flexible Backups zugreifen zu können, die unabhängig, schnell und sicher sind», auch wenn der Server im Unternehmen bleibe. «Andererseits gibt es immer mehr Unternehmen, die eine vollständige Auslagerung ihrer Infrastruktur bevorzugen.» Laut Dasch setzen insbesondere kostenbewusste Unternehmen auf externe Lösungen.
RZ-Checkliste
Mit dem Trend zum Outsourcing der Rechenleistung wachsen auch die Ansprüche der Unternehmen an entsprechende Dienstleister. Während nach wie vor die Themen Sicherheit und Verfügbarkeit die zentralen Anforderungen an ein Data-Center sind, werden zum Beispiel Datensicherungen in separaten Gebäuden oder an anderen Standorten, sogenannte georedundante Backups, für Data-Center-Kunden immer wichtiger - «ebenso eine gute Konnektivität zu Internetknoten, Cloud-Anbietern und Service-Providern», ergänzt Dominik Friedel von NTT. Des Weiteren würden Unternehmen heute auch vermehrt Angebote für die Installation oder die Wartung der IT-Systeme erwarten. Bei Co-Location zum Beispiel müssten sie dank solcher «Remote Hands Services» für kleinere Aufgaben wie den Austausch einer Netzwerkkarte keinen eigenen Techniker vorbeischicken.
Dass das Thema Konnektivität bei Rechenzentrumskunden vermehrt eine Rolle spielt, weiss auch Holger Nicolay von Interxion: «Wir beobachten, dass heute schon sehr konkret nach direkten und privaten Anbindungsmöglichkeiten an die führenden Hyperscaler wie Microsoft Azure, Amazon Web Services und die Google Cloud gefragt wird.»