Datenablagen
20.02.2019, 06:12 Uhr
Datengetriebenes Business statt Datensilos
Datensilos kosten Zeit und Geld. Beim Aufbrechen isolierter Datenbestände müssen neben der DSGVO jedoch noch zahlreiche weitere Regeln einhalten werden.
Daten sind das neue Öl - diese Formel dürfte mittlerweile fast jedes Unternehmen verinnerlicht haben. In der digitalen Ära bilden Daten den Dreh- und Angelpunkt wirtschaftlichen Handelns. Daher ist ein schneller Zugriff auf konsistente Datenbestände für den Geschäftserfolg unerlässlich.
Doch überall dort, wo Menschen Daten sammeln, verwalten und ablegen, entstehen fast zwangsläufig sogenannte Datensilos - «redundante Daten und Informationen in unterschiedlicher Ausprägung, die an unterschiedlichen Orten lagern und gebunden sind an Applikationen», wie Hanns-Gunter Weber, CIO beim IT-Dienstleister Cancom, erklärt. «Allgemein sind damit Datenablagen gemeint, deren Informationen nicht optimal im erweiterten Unternehmenssinn genutzt werden können, weil nur eine kleine Nutzergruppe oder eine Abteilung Zugriff auf die Daten hat», ergänzt Johannes Wagmüller, Director Systems Engineering beim Speicherspezialisten NetApp.
Doch Datensilos sind nicht per se negativ - so gibt es neben den ungewollten durchaus auch erwünschte Datensilos. Manche Datensilos werden bewusst gebildet, um beispielsweise bestimmte Daten einfach und sicher vom Rest des Unternehmens abzuschotten. Ein Beispiel hierfür ist etwa das Bankwesen. Hier gibt es die Vorgabe, bestimmte Daten an bestimmen Orten zu speichern, Stichwort Datenlokalität.
“Mit Datensilos sind Datenablagen gemeint, deren Informationen nicht optimal genutztwerden können, weil nur eine kleine Nutzergruppe oder eine Abteilung Zugriff darauf hat.„
Dabei handelt es sich aber um wenige Ausnahmen und Spezialfälle. In vielen anderen Fällen lässt sich nach der Erfahrung von Lukas Höfer, Senior IT-Consultant beim IT-Dienstleister Consol, durch das Auflösen von Datensilos und die Bereitstellung eines zentralen Daten-Pools ein klarer Mehrwert generieren.
Kasten: So werden Silos aufgebrochen
Aufbrechen von Datensilos
Der beste Weg, um Datensilos aufzubrechen und zusammenzuführen, ist, mit einem konkreten Unternehmensziel zu beginnen.
Unternehmen sollten sich die Frage stellen, was sie von der Konsolidierung ihrer Daten erwarten, beispielsweise eine Renditesteigerung durch Kosteneinsparungen oder einen höheren Umsatz pro Kunde durch das bessere Verständnis der Kunden und ihrer Bedürfnisse.
Bei der technischen Umsetzung sind nach der Erfahrung von FrankInnovative Unternehmen setzen auf Web Apps und Headless CMS Waldenburger, Director Sales Consulting Central Europe bei Informatica, in der Regel folgende vier Schritte zielführend:
1. Einführung eines unternehmensweiten Datenkatalogs: So gewinnt manInnovative Unternehmen setzen auf Web Apps und Headless CMS einen Überblick über alle Daten-Assets und versteht, welche Daten es überhaupt gibt, wo sie herstammen und wofür sie benutzt werden. Datenkatalogisierung ist auch nützlich, um Daten zu klassifizieren, damit Konsolidierungsentscheidungen anhand von Wert, Sensitivität und Qualität der Daten priorisiert werden können.
2. Einsatz von Künstlicher Intelligenz und Machine Learning: Mit deren Hilfe lassen sich die Daten in dem Katalog mit Blick auf Verwendungszweck, operative oder dispositive Nutzung und Kontext analysieren und beispielsweise Predictive Analytics oder IoT-Themen vorantreiben.
3. Initiierung eines Data-Governance-Programms: Regeln sollten sicherstellen, dass Daten nach Industrieregelungen, Stichwort: Datenschutz-Grundverordnung (DSGVO), und Unternehmensstandards gemanagt und zusammengeführt und für eine Maximierung des Unternehmenserfolgs eingesetzt werden können.
4. Einführung eines Platform-as-a-Service-Systems (PaaS): Dieses sollte in der Lage sein, mit unterschiedlichen Integrationsmustern, die oftmals mit Datensilo-Konsolidierungsprojekten einhergehen, umzugehen. Dazu zählen etwa Application-Integration, Integration-Hubs, Datenqualität, Katalogisierung und Stammdatenmanagement. Darüber hinaus unterstützt eine solche Plattform durch eine Vielzahl von Selfservice-Funktionalitäten die nötige Agilität.
So entstehen Silos
Die Gründe für die Entstehung ungewollter Silos können technischer oder organisatorischer Art sein. Zu Datensilos kommt es typischerweise als Folge fehlender Prozess- und Datenarchitekturen innerhalb eines Unternehmens, zum Beispiel wenn einzelne Abteilungen ihre Daten nicht auf Basis einer übergreifenden Daten-Governance, sondern nach eigenen Regeln und in unterschiedlichen IT-Systemen ablegen.
«In der Praxis erleben wir, dass Unternehmen ihre Kundendaten aus dem Vertrieb, dem Service oder der Buchhaltung verteilt auf mehrere Systeme und ohne Verknüpfung pflegen», so Peter Weisbach, Leiter Digital Business Services beim IT-Systemhaus Bechtle. In dieser Heterogenität sei es sehr schwierig, abteilungsübergreifend Prozesse ablaufen zu lassen oder gar Daten auszuwerten.
«Oftmals ist es ein langwieriges Unterfangen, bis man alle notwendigen Daten an seinem Arbeitsplatz konsolidiert hat», bestätigt Gareth Withing, Regional VP Central Europe & LATAM bei Delphix, einem Spezialisten für Datenmanagement. Deshalb würden viele Mitarbeiter ihre Daten bei sich sammeln. So wüchsen dann die persönlichen Datensätze unabhängig und isoliert in einem abgeschlossenen System weiter - der Beginn eines Datensilos.
Häufig liegen die Ursachen aber auch bereits in der IT-Architektur und bei den Anwendungsprojekten. Bei deren Gestaltung steht nach wie vor die Informationsgewinnung aus den zahlreichen im Unternehmen erzeugten Daten nicht im Fokus. «Nicht jeder hat bei der Konzeption einer Anwendung im Hinterkopf, dass die erzeugten Daten wichtiger Rohstoff etwa für Big-Data-Analysen oder das Trainieren von Machine-Learning-Algorithmen sein könnten», erklärt Johannes Wagmüller von NetApp.
“Fachabteilungen nutzen Data Lakes als Ablageplattform insbesondere für Massen- und unstrukturierte Daten, quasi als erweitertes Filesharing auf hohem Niveau.„
Andreas Gödde, Director Customer Advisory DACH beim Analytics- und BI-Software-Anbieter SAS, sieht aber vor allem auch im aktuellen Big-Data-Trend eine Ursache für Datensilos. So muss sich heute jedes Unternehmen mit vielen, oftmals unstrukturierten Daten beschäftigen, um innovative Produkte, Services oder gar neue Geschäftsmodelle zu entwickeln - und sich damit im Markt behaupten zu können. Dass sich gerade für Big Data die Datenhaltung und -verwaltung mit Tools wie Hadoop und NoSQL bewährt hätten, stehe dabei ausser Frage. «In vielen Unternehmen ist jedoch mit Hadoop eine Big-Data-‚Parallelwelt‘ entstanden. Die Fachabteilungen nutzen Data Lakes als alternative Ablageplattform insbesondere für Massen- und unstrukturierte Daten, quasi als eine Art erweitertes Filesharing auf hohem Niveau», gibt Andreas Gödde zu bedenken.
Im Zuge der technologischen Weiterentwicklung und Digitalisierung setzen zudem immer mehr Unternehmen zum Beispiel für die Kundeninteraktion verstärkt auch auf digitale Kanäle wie Webchat. Diese neuen Systeme docken zwar häufig an bestehende, auf Sprache ausgerichtete Contact-Center-Infrastrukturen an, doch die unterschiedlichen Abteilungen, die Kundenkontakt haben - etwa Marketing, Vertrieb oder Service -, nutzen oft ihre eigenen Systeme zur Verwaltung von Kundenkontakten und -interaktionen. Und vielfach kommunizieren diese Tools nicht miteinander, was wiederum unweigerlich zu Datensilos führt, sowohl auf Abteilungsebene als auch hinsichtlich der einzelnen Kommunikationskanäle. «Die Folge sind eine unzusammenhängende Customer Journey, lückenhafte Kundeninteraktionen und ineffiziente operative Abläufe im gesamten Unternehmen», so Heinrich Welter, Vice President Sales and General Manager DACH bei Genesys, einem Anbieter von Contact-Center-Lösungen.
Wandel in den Unternehmen
Oft sind nach Welters Ansicht jedoch klassische, starre Unternehmensstrukturen der eigentliche Entstehungsgrund für Datensilos - «Silodenken ist in Unternehmen nach wie vor weit verbreitet und es ist häufig langwierig, die etablierten, starren Strukturen zugunsten moderner, effizienter Organisation und Prozesse aufzubrechen.»
Ähnlich sieht es Frank Waldenburger, Director Sales Consulting Central Europe bei Informatica, Anbieter von Datenintegrations-Software: «Es gibt sicher die eine oder andere Unternehmensorganisation, die die Entstehung von Datensilos – gewollt oder ungewollt – eher unterstützt als andere.» Das sei aber mehr eine Frage der Unternehmenskultur, Stichwort bereichsübergreifendes Denken und Handeln. Die meisten Abteilungen versuchten ihr Tagesgeschäft so effektiv wie möglich zu erledigen, dabei werde aber immer noch zu wenig nach links und rechts geschaut.«So fängt man schnell an, individuelle technische Lösungen für scheinbar abteilungsspezifische Themen zu implementieren, und produziert damit zwangsläufig Datensilos. Damit nimmt man sich aber auch die Möglichkeit, auf vielleicht schon existierende Erfahrungen, Assets oder sogar Lösungen in anderen Abteilungen zugreifen zu können.»
«Datensilos haben auch viel mit mangelnder Kommunikation zu tun», so Xavier Guerin, Vice President Southern EMEA beim Datenmanagement-Unternehmen DataStax. Oft wisse die eine Abteilung im Unternehmen nicht, wo die andere ihre Daten speichert. Um dies zu vermeiden, sei es wichtig, eine Unternehmenskultur zu etablieren, die zu Zusammenarbeit und Informationsaustausch ermutige.
“Datensilos haben viel mit mangelnder Kommunikation zu tun.„
Grundsätzlich haben grössere Unternehmen mit einer Vielzahl von Abteilungen und Niederlassungen ein höheres Risiko, Datensilos aufzubauen. Dem könne man laut Andreas Gödde von SAS nicht zuletzt mit einem modernen Datenmanagement entgegenwirken, dazu müsse «das Data Management agil sein und ad hoc stattfinden». Grundvoraussetzung dafür sei eine etablierte Data Governance. Es muss zu jedem Zeitpunkt klar sein, welche Daten existieren, wo sie liegen und welche Bedeutung und Qualität sie haben, um sie auch für unterschiedliche Zwecke verwenden zu können.
Hierfür nennt Andreas Gödde das folgende Beispiel: «Für Compliance-Auswertungen oder kritische Fragestellungen darf man keine Daten heranziehen, die nicht validiert sind – um aber neue Erkenntnisse aus unbekannten Daten zu gewinnen und neue Zusammenhänge besser zu verstehen, muss man auf sämtliche zur Verfügung stehenden Daten zugreifen können.»
“Die Cloud ist ein Katalysator, aber kein Allheilmittel zum Aufbrechen von Datensilos.„
Für Gareth Withing von Delphix ist der Ursprung vieler Datensilos auch eng mit dem traditionellen Denken verbunden, das noch immer in vielen Abteilungen innerhalb von Unternehmen vorherrsche. Man wolle schnellen Zugriff auf Daten, sei aber nicht gewillt, im Gegenzug auch die eigenen Daten zu teilen. Diese Sichtweise der Mitarbeiter führe zu einem Reibungspotenzial, wenn es darum gehe, die Daten zu verteilen. «Wenn diese Mentalität erst einmal Fuss gefasst hat, wachsen die internen Silos exponentiell heran.» Das gelte für jedes Unternehmen, unabhängig von dessen Grösse oder Mitarbeiterzahl.
Die Cloud - Vor- oder Nachteil?
Ob Mittelständler oder Grossunternehmen - die Cloud ist inzwischen Standard. Kaum ein Unternehmen kann es sich angesichts des digitalen Wandels noch leisten, um Cloud-Computing einen Bogen zu machen - immer mehr Teile der IT sind quasi Software-defined.
Verteilte Cloud-Umgebungen sind im Datensilo-Kontext laut Gareth Withing von Delphix jedoch ein zweischneidiges Schwert: Einerseits lösten diese Umgebungen auf funktionaler Ebene die Probleme der Datensilos. Mit den richtigen Cloud-Lösungen sei es unkompliziert, den gewünschten Austausch beispielsweise zwischen den Buchhaltungs- und CRM-Applikationen herzustellen. Andererseits führe dies, so Withing weiter, wiederum zu einem organisatorischen Problem, denn trotz Kommunikation untereinander befänden sich diese Datensätze dennoch an zwei unterschiedlichen Speicherorten in der Cloud. «Auch wenn die Cloud also grosse Vorteile wie Kosteneffizienz mit sich bringt, ist sie nicht die Lösung für einen schnellen, ganzheitlichen Zugriff auf Daten.» Daher lautet seine klare Meinung: «Die Cloud ist ein Katalysator, aber kein Allheilmittel zum Aufbrechen von Datensilos.»
Andreas Gödde von SAS vertritt eine ähnliche Ansicht: Ebenso wie Data Lakes könnten Cloud-Infrastrukturen eine zerklüftete Datenlandschaft zur Folge haben. In Zeiten von Cloud und As-a-Service-Modellen jeglicher Couleur würden die Datenlandschaften von Unternehmen somit eher komplexer als einfacher.
Daher ist es in jedem Fall sinnvoll, in der Cloud und vor allem in der Public Cloud einen restriktiven Sicherheitsrahmen zu gestalten. Zu eng sollte dieser Sicherheitsrahmen wiederum auch nicht sein, denn: «Engt man den Mitarbeiter zu sehr ein, wird er sich wieder eine Schatten-IT aufbauen, was durch den Selfservice-Charakter der Cloud noch einfacher ist als in der Vergangenheit», lautet hier das Argument von Lukas Höfer von Consol.
“ Engt man den Mitarbeiter zu sehr ein, wird er sich wieder eine Schatten-IT aufbauen, was durch den Selfservice-Charakter der Cloud noch einfacher ist als in der Vergangenheit.„
So weit muss es aber natürlich nicht kommen, denn technisch lässt sich dem durchaus vorbeugen: «Selbst bei verteilten Standorten und Teams - ob Hybrid oder Multi-Cloud – lassen sich die Daten mit wenig Aufwand zentral zusammenführen und durch passgenaue Rechte und Rollen verwalten. Wichtig ist hierbei, dass ein geeignetes fachliches Konzept erarbeitet wird», führt Höfer weiter aus.
Kasten: Praxisbeispiel
Praxisbeispiel: Datensilos in Versicherungen
Versicherungsunternehmen tun sich häufig besonders schwer mit dem Auflösungen von Datensilos.
Laut Andreas Gödde von SAS kämpfen Versicherungen oft mit einer komplexen, heterogenen Unternehmensstruktur, die durch organisches Wachstum und Zukäufe entstanden ist. Hinzu kommt, dass Aufsichtsbehörden und Märkte heute eine transparente, schnelle und analytisch getriebene IT verlangen.
Häufig bauen einzelne Landesgesellschaften einer Versicherung über Jahre hinweg Data Warehouses auf, die sich sowohl in der Infrastruktur als auch in den eingesetzten Software-Lösungen deutlich unterscheiden. Unterschiedliche Eigenentwicklungen auf der Applikationsseite verschärfen die Situation oft noch zusätzlich.
Wie man das Problem löst, zeigt Gödde anhand des Beispiels einer international agierenden Schweizer Versicherung. In einem ersten Schritt konsolidierte diese ihre Rechenzentren. Dann entschied man sich für eine zentrale Datenlösung, die bereits in einer der Landesgesellschaften im Einsatz war, und rollte diese gruppenweit aus. Die Herausforderung dabei war, die Bedürfnisse der Landesgesellschaften unter einen Hut zu bringen und trotzdem eine einheitliche Governance und Architektur zu etablieren. Also: so viel Standardisierung wie möglich und so viel Individualisierung wie nötig. Um das zu erreichen, wurde eine Data-Warehouse-Referenzarchitektur entwickelt. Anschließend wurde eine einheitliche Applikationslandschaft mit unterschiedlichen Lösungen geschaffen, die die Ansprüche der einzelnen Abteilungen bedient – von den Sachverständigen bis hin zum Marketing.
Häufig bauen einzelne Landesgesellschaften einer Versicherung über Jahre hinweg Data Warehouses auf, die sich sowohl in der Infrastruktur als auch in den eingesetzten Software-Lösungen deutlich unterscheiden. Unterschiedliche Eigenentwicklungen auf der Applikationsseite verschärfen die Situation oft noch zusätzlich.
Wie man das Problem löst, zeigt Gödde anhand des Beispiels einer international agierenden Schweizer Versicherung. In einem ersten Schritt konsolidierte diese ihre Rechenzentren. Dann entschied man sich für eine zentrale Datenlösung, die bereits in einer der Landesgesellschaften im Einsatz war, und rollte diese gruppenweit aus. Die Herausforderung dabei war, die Bedürfnisse der Landesgesellschaften unter einen Hut zu bringen und trotzdem eine einheitliche Governance und Architektur zu etablieren. Also: so viel Standardisierung wie möglich und so viel Individualisierung wie nötig. Um das zu erreichen, wurde eine Data-Warehouse-Referenzarchitektur entwickelt. Anschließend wurde eine einheitliche Applikationslandschaft mit unterschiedlichen Lösungen geschaffen, die die Ansprüche der einzelnen Abteilungen bedient – von den Sachverständigen bis hin zum Marketing.
Silos auflösen
Für Unternehmen sollte es oberste Priorität haben, ihre mehr oder weniger zahlreichen Datensilos aufzubrechen.
Ohne Not werden Datensilos jedoch in der Regel nicht aufgelöst. Meist gibt es einen konkreten Anlass dafür. So haben viele Unternehmen in den letzten Monaten die Bedeutung von Daten für ihren Geschäftserfolg erkannt und möchten diese nun zum Beispiel für umfangreiche Analysen nutzen. Doch wegen der Datensilos ist es schwer, an diese relevanten Daten heranzukommen.
Wie aber geht man am besten vor, wenn man seine Datensilos auflösen möchte? Wichtig ist, dass alle Stakeholder identifiziert werden und vorab ein möglichst klares Ziel definiert wird. In einem gemeinsamen Meeting der Stakeholder, in das auf jeden Fall auch ein IT-Verantwortlicher miteinbezogen werden muss, der die internen Systeme des Unternehmens gut kennt, werden dann die Machbarkeit und erste konkrete Lösungsansätze besprochen.
Beim Auflösen der Datensilos spielt jedoch nicht nur die technische Seite eine Rolle: «Ebenso wichtig ist, dass alle Mitarbeiter mitziehen und sich der Bedeutung einer einheitlichen Datenbasis bewusst sind», erklärt Xavier Guerin von DataStax. Sein Tipp: Es könne hilfreich sein, ein interdisziplinäres Team aufzustellen, das den gesamten Konsolidierungsprozess im Unternehmen durchgehend begleitet und überwacht.
Die zuständigen Abteilungen, die Silos angelegt haben, sind nämlich meistens sehr zurückhaltend, wenn es um die Konsolidierung oder sogar das Löschen «ihrer» Daten geht. Keine Abteilung will ihre angestammten Applikationen in Gefahr bringen oder ihre Nutzung hinterfragen. Darüber hinaus fehlt vielen Mitarbeitern schlicht und einfach ein klares Verständnis für diese Datensilos, ihre Beziehungen und die Konsequenzen etwaiger Änderungen. «Das erzeugt Unsicherheit und ist ein zuverlässiger Weg, Projekte auszubremsen», so Frank Waldenburger von Informatica.
Die Kontrolle über seine Daten abzugeben, bedeutet einen Umbruch, zu dem viele Mitarbeiter nicht bereit sind. Dafür gibt es laut Lukas Höfer von Consol gleich mehrere Gründe: Zum einen werde die vermeintliche Gefahr gesehen, dass Daten «falsch» interpretiert werden, da Expertenwissen aus der eigenen Abteilung fehle. Zum anderen spiele eine Rolle, dass durch Abgabe der Kontrolle potenzielle Fehler in Prozessen und Datenhaltung für andere sichtbar werden.
“Es gibt die eine oder andere Unternehmensorganisation, die die Entstehung von Datensilos eher unterstützt als andere.„
Doch auch wenn man bei dem einen oder anderen Mitarbeiter hier ein wenig Überzeugungsarbeit leisten muss - die technische Seite dürfte für die meisten IT-Abteilungen die grössere Hürde darstellen.
In der Regel fehlt in Unternehmen eine übergreifende Plattform, eine zentrale Datenmanagement-Instanz, über die sich Daten und Data Governence so überwachen und steuern lassen, dass Mitarbeiter einfach, sicher und sorgenfrei mit allen Daten arbeiten können, die ihnen zur Verfügung stehen. Ein durchgängiger Plattformansatz ist hilfreich, um Daten aus verschiedensten Quellen - egal ob strukturiert oder unstrukturiert, aus Cloud- oder unternehmenseigenen Systemen - zusammenzuführen. «Über eine solche Plattform werden sämtliche Schritte von der Aufbereitung und dem Management der Daten bis hin zu ihrer Auswertung abgedeckt», erklärt Andreas Gödde von SAS. Eine Selfservice-Lösung für die Datenaufbereitung versetze dabei auch Mitarbeiter in den einzelnen Fachabteilungen in die Lage, ihre Daten schnell und einfach für diverse Analysen vorzubereiten.
Zentraler Daten-Pool
Unternehmen müssen sich also fragen: Wie können wir sicher auf unsere Daten zugreifen und sie effizient an unsere Mitarbeiter weitergeben?
Die Antwort sieht, so Gareth Withing von Delphix, für jede Organisation anders aus. Wichtig sei, dass Unternehmen mit einer neuen, frischen Perspektive an die Fragestellung herangehen und sich nicht im Vorhinein durch antiquierte Denkstrukturen einschränken lassen. «Warum nicht alle Möglichkeiten der modernen Technik in Betracht ziehen?» Nur wenn obige Frage beantwortet werde, fänden Unternehmen die Strategie, die ihnen wirklich helfe, effizient mit ihren Daten umzugehen.
«Natürlich muss beim Lösungsdesign auch die Zukunftsfähigkeit thematisiert werden», ergänzt Lukas Höfer. Dabei seien die Bedürfnisse relevanter Abteilungen abzuschätzen und auch über den Kreis der eigentlichen Stakeholder hinaus Informationen mit einzubeziehen. Es gehe tatsächlich nur um die Informationen, nicht darum, mehr Mitarbeiter zu involvieren. Wenn sich dann eine Lösung für den ersten Use Case etabliert habe, sei es ein Leichtes, andere Fachbereiche in die gemeinsame Datenplattform zu integrieren.
Grundsätzlich stehen zur Auflösung von Datensilos zwei Lösungen zur Verfügung: eine Middleware als «Adapter» zwischen den einzelnen Datensilos oder die Migration aller Daten in einen zentralen Pool. Pauschal lässt sich nicht beantworten, welche Lösung die bessere ist. Was aber immer hilft, ist ein sogenannter Soll-Ist-Vergleich, der Prozessmodell und -architektur, Datenmodell und -architektur und Anwendungsarchitektur gegenüberstellt - «abhängig davon, wie stark das Ergebnis vom Idealzustand abweicht, können Unternehmen sich für einen Weg oder eine hybride Mischform entscheiden», so Peter Weisbach von Bechtle.
Auch nach der Erfahrung von Johannes Wagmüller von NetApp hängt die passende Lösung in erster Linie von der Verfahrensanforderung und den technischen Gegebenheiten im Unternehmen ab, etwa den verfügbaren Bandbreiten.
“ In der Praxis erleben wir, dass Unternehmen Kundendaten aus dem Vertrieb, dem Service oder der Buchhaltung verteilt auf mehrere Systeme und ohne Verknüpfung pflegen.„
Datenbestände, die sich häufig ändern und die auch häufig benutzt werden, sollten laut Frank Waldenburger von Informatica besser zentral verwaltet werden. Kleinere Datenbestände mit einer eher geringeren Zugriffsfrequenz könnten in einem ersten Schritt auch via Middleware angebunden werden. Im Sinne einer zielgerichteten Konsolidierung sollte das Waldenburger zufolge jedoch nur eine temporäre Lösung sein.
Lukas Höfer von Consol sieht es ähnlich: «Wenn mit den Daten viele rechenaufwendige Operationen durchgeführt werden müssen, lohnt sich auf jeden Fall eine zentrale Ablage.» Auch wenn es historisch gewachsen sehr viele technisch unterschiedliche Speicherorte in einem Unternehmen gebe, sei es leichter, die einzelnen Daten in eine zentrale Lösung zu importieren, als zu gewährleisten, dass alle eingesetzten Adapter stets zuverlässig mit allen Systemen zusammenarbeiten.
Höfer schränkt hier allerdings auch ein: Die Daten an ihrem bisherigen Speicherort zu belassen, bringe andererseits den Vorteil, dass keine Datenduplikation stattfinde. Die Daten seien also nicht auf Import-Jobs angewiesen und dabei stets aktuell. Auch könnten unter Umständen durch die einfachere Datenhaltung Investitionen in neue Hardware gespart werden.
Kasten: Datensilos und die DSGVO
Datensilos und die DSGVO
Alle Entscheidungen rund um das Datenmanagement müssen im Kontext der Datenschutz-Grundverordnung (DSGVO) getroffen werden.
Die Gewährleistung der Konformität ist oberstes Gebot für jede Datenstrategie, gerade was die Speicherung und Weitergabe personenbezogener Daten angeht. Bei isolierten Datensätzen in Silos ist allerdings nur schwer nachvollziehbar, welche Informationen sie genau enthalten, wie sie gesichert sind und wer sie einsehen kann. Deshalb spielen Technologien wie die Datenmaskierung, also die Anonymisierung von Daten, im modernen Datenmanagement eine zentrale Rolle. Durch sie lassen sich Datensätze unkompliziert teilen, ohne sensible Informationen zu kompromittieren.
Die Datenschutz-Grundverordnung ist aktuell also eine gute Möglichkeit, zusätzlichen Nutzen aus den Aktivitäten zur Umsetzung der regulatorischen Vorgaben zu erzielen. Um den Anforderungen der Verordnung gerecht zu werden, müssen die Unternehmen für sich selbst maximale Transparenz hinsichtlich ihrer Datenbestände schaffen. Damit identifizieren sie, an welchen Stellen personenbezogene Daten gespeichert sind. Hierbei bietet sich unter anderem die Einführung von Stammdatenmanagement-Systemen an, um etwa den sogenannten Consent - also das Einverständnis zur Datenverwendung von Kunden und Partnern - zu managen.
An solch einen zentralen Daten-Hub werden alle Applikationen inklusive Datensilos angeschlossen. Damit erfolgt eine Integration dieser Silos, sie werden praktisch aufgelöst. In einem weiteren Schritt ist dann eine Konsolidierung dieser Silos und eine Migration in andere Systeme sinnvoll, um weitere Einspareffekte zu erzielen und die Aufwendungen zur Datenpflege und Synchronisation zu verringern.
Wenn man nicht weiß, wo und in welcher Qualität personenbezogene Daten im Unternehmen liegen und diese nicht transparent über sämtliche Datenprozesse hinweg gemanagt werden, ist die Umsetzung der DSGVO eine schier unlösbare Aufgabe – egal ob es um das Recht auf Vergessen oder das Einsehen gespeicherter Daten geht.
Fazit & Ausblick
Unternehmen stehen vor der gewaltigen Herausforderung, die Business-Anforderungen der Fachabteilungen mit der Data Governance, dem Regelwerk für das Managen der Verfügbarkeit, mit Benutzerfreundlichkeit sowie Datenintegrität und Datensicherheit in Einklang zu bringen. Das klingt kompliziert - und das ist es auch.
Wie sieht nun eine optimale Datenkontrolle im Unternehmen aus, ohne dass man sich die Freiheit nimmt, seine Daten dort zu speichern, wo man möchte?
Echte Datensilos machen es laut Frank Waldenburger von Informatica fast unmöglich, die Datenqualität in allen Bereichen des Unternehmens gleich zu halten, da die Daten nicht synchronisiert werden können und sich unter Umständen unkontrolliert vermehren.
Hinzu kommt: Die Datenqualität in vielen Unternehmen ist nach den Erfahrungen von Lukas Höfer in den meisten Fällen viel schlechter, als die zuständigen Abteilungsleiter vermuten - vor allem an den Stellen, an denen Daten händisch erfasst werden. Dabei gehe es nicht nur um Tippfehler oder fehlende Angaben, immer wieder zeige sich, dass jede Abteilung und sogar jeder Mitarbeiter einen eigenen Stil der Datenerfassung pflege. So würden zum Beispiel Datenbankfelder, die ein Mitarbeiter im Regelfall nicht benötigt, schon einmal für eigene Zwecke «missbraucht», zum Beispiel für zusätzliche Notizen.
Auch eine mangelnde Dokumentation oder die Nichteinhaltung von Prozessen sorgen laut Höfer häufig für Daten, die nicht oder nur mit sehr grossem Aufwand auswertbar sind. Der «Topf voll Gold», den sich viele Unternehmen aus ihren über Jahre gesammelten Daten erhofften, bleibe deswegen auch nach der Auflösung einzelner Datensilos oft noch lange nur ein Traum.
Das Resümee von Gareth Withing von Delphix lautet: «Der nächste Schritt ist, die in den letzten 30 bis 50 Jahren gewachsenen Strukturen aufzubrechen und die eigenen Legacy-Systeme zu modernisieren. Grundlegende Veränderungen sind keine leichte Aufgabe, aber Unternehmen haben erkannt, dass ihr zukünftiger Erfolg davon abhängt, wie gut sie mit Hilfe strategischer Cloud- und On-Premise-Lösungen das Maximum aus ihren eigenen Daten herausholen. Jetzt gilt es, die entsprechenden Strategien zu entwickeln und umzusetzen.»
Im Zuge der seit knapp einem Jahr gültigen EU-Datenschutz-Grundverordnung (DSGVO) sind immerhin viele Unternehmen aufgewacht - das Regelwerk zwingt sie dazu, ihre Datenstrategie zu überdenken und gegebenenfalls neu auszurichten. So muss etwa Gewissheit darüber hergestellt werden, welche Daten man nutzen und analysieren darf - und das erreicht man in der Regel nur mit einer durchgängigen Data Governance.