Publireportage
17.08.2020, 08:00 Uhr
5 Gründe für ein eigenes Rechenzentrum
Flexibel und standortunabhängig: Unternehmen nutzen immer intensiver Public Cloud Services. Trotzdem braucht es immer noch eigene Rechenzentren.
Nachdenken über neue Strategien: Das eigene Rechenzentrum hat trotz Public-Cloud-Boom eine Zukunft.
(Quelle: Cisco Schweiz)
Noch nie waren sich IT und Business so nah wie heute in der «neuen Normalität». Mit einschneidenden Konsequenzen für die klassischen Infrastrukturen wie Rechenzentren. Laut einer Gartner-Studie von 2019 werden bis 2025 80 Prozent der Unternehmen ihre eigenen Rechenzentren signifikant reduzieren. 10 Prozent haben dieses Unterfangen bereits in Angriff genommen. Zeit für eine Denkpause. 5 Gründe, warum agile Unternehmen das eigene Rechenzentrum weiterhin als eine kritische Komponente einer ganzheitlichen Infrastrukturstrategie beibehalten.
1. Business Resilienz wird überlebenswichtig
Leider müssen wir annehmen, dass Pandemien, politische Krisen und andere disruptive Ereignisse in Zukunft häufiger auftreten. Organisationen und ihre IT-Infrastrukturen müssen darum maximal flexibel und agil sein, mit aufgelösten Firmengrenzen umgehen und unterschiedlichsten Anforderungen an die Infrastruktur: Sie muss schnell umschaltbar in den Krisenmodus und anpassbar an die Kundenbedürfnisse sein. Im öffentlichen Sektor ist der Wunsch besonders gross, Public Cloud Services mit der Option zu koppeln, im Krisenfall zeitnah wichtige Daten und kritische Applikationen auf das eigene Rechenzentrum zurückzuführen. Eigene skalierbare Rechenzentren sichern den nötigen Handlungsspielraum.
2. Applikationen und Daten: Motoren der Wirtschaft
Geschäftsmodelle hängen immer stärker von Informationsflüssen und der Datenqualität ab. Netzwerke werden immer komplexer. Eine stets steigende Datenmenge und Anzahl von geschäftskritischen Applikationen, die im Zuge der Digitalisierung von immer mehr Geschäftsprozessen genutzt werden, das verlangt nach einer stabilen Infrastruktur; der einfache, schnelle Zugriff auf Daten, Dienste und Applikationen, überall wo sie gerade gebraucht werden, stärkt Organisationen und schafft echte Wettbewerbsvorteile. Umso wichtiger ist die Vermeidung von Lock-in-Situationen. Zum einen geschieht dies, indem Unternehmen ihre Daten im eigenen Rechenzentrum vorhalten und diese von unterschiedlichen Public Cloud Providern zur Verarbeitung herangezogen werden können. Zum anderen versuchen Unternehmen die «Mobilität» von Applikationen durch Containertechnologien zu fördern, um ihre Datenverarbeitung schneller und dynamischer zwischen verschiedenen Public Cloud Providern zu verschieben.
3. Die Datenverarbeitung verlagert sich auf den «EDGE»-Bereich
Neue Technologien im Datacenter wie optische Chips, 400-Gigabit Ethernet und eine offene Plattform für Serviceprovider fördern einen anderen Einsatz von Rechenzentren im Infrastrukturmix: Datenverarbeitung findet zunehmend dort statt, wo die Daten entstehen. Dezentral, «on the EDGE», also direkt in Produktionsstätten, Bank- oder Geschäftsfilialen beispielsweise. Das ist etwa in der Industrie 4.0 von zentraler Bedeutung, wenn Roboter unter ständigem Datenfluss komplexe Güter bauen. Ultra Low Latency oder verzögerungsfreie Datenverarbeitung ist das Stichwort für den «Edge» Bereich im Kontext einer smarten IT-Infrastruktur. Unternehmen, die in eine eigene «EDGE Compute»-Infrastruktur investieren, profitieren von «verzögerungsfreien» Arbeitsabläufen und erschaffen sich somit echte Wettbewerbsvorteile. Die Herausforderung bei «EDGE Compute» liegt in der Zentralisierung des IT-Betriebs, um die EDGE-Lokationen effizient und kostengünstig betreiben zu können.
4. Private Clouds sind kosteneffizient
Das Kostenargument der Public Cloud relativiert sich, wenn man den Nutzen einer hybriden Infrastruktur und neue technische Entwicklungen mit einbezieht: Hyperkonvergente Infrastrukturen wie beispielsweise mit Cisco Hyperflex Anywhere (cisco.com/go/hyperflex) vereinen Computing, Storage und Networking sowie erweiterte Managementfunktionen in einem System. Die Steuerung erfolgt über Software, also hardwareunabhängig. Die Komplexität im eigenen Rechenzentrum reduziert sich, die Skalierbarkeit erhöht sich. Automatisierung und Self-Service Funktionalitäten können die Betriebskosten der Private Cloud noch weiter senken. Besonders bemerkbar macht sich dieser Effekt bei Compute Infrastruktur zum Verarbeiten von Machine Learning Algorithmen (AI). Bei guter Auslastung ist die Nutzung von GPUs in der eigenen Private Cloud oft kosteneffizienter als in der Public Cloud.
5. CIOs brauchen mehr strategische Optionen
IT-Gestaltern stehen mit dem klassischen Rechenzentrum neue strategische Optionen offen. In den letzten Jahren haben sich viele Unternehmen relativ schnell in ein Multicloud-Szenario gebracht und bemühen sich heute, fehlende Cloud-Governance Mechanismen retrograd aufzubauen. Nicht selten werden ein Cloud Provider für Infrastructure-as-a-Service (IaaS) Dienste und mehrere Cloud Provider für Software-as-a-Service (SaaS) Dienste gewählt. Auch Hybrid-Cloud Strategien sind im Vormarsch, mit kritischen und gut ausgelasteten Systemen kosteneffizient auf der hauseigenen Private Cloud.
Eine Vielzahl an relevanten Dimensionen ist vor einem strategischen Entscheid zu berücksichtigen: die verfügbaren Private-Cloud-Implementationen und die Public Cloud Providers, die Verteilung der Workloads und Daten auf die verfügbaren Cloud-Locations, der Besitzstatus der Private-Cloud-Assets, die operationellen Verantwortlichkeiten über die Cloud-Infrastruktur-Assets und die Auswahl der Toolsets für die Architektur von Cloud Governance und Security. Wichtig ist es, den Businesskontext des eigenen Unternehmens zu verstehen und aus den unterschiedlichen Infrastrukturoptionen, die Kombination auszuwählen, die die strategischen Ziele des Unternehmens am besten unterstützt.
Autor(in)
Cisco
Systems GmbH