21.10.2013, 09:13 Uhr

Business Analytics im Tempo-Rausch

Mobile, Usability und präskriptive Analytik heissen die neuen BI-Trends. Aber die Performance ist das Wichtigste. Welche BI-Lösungen sind am schnellsten? IBM, Oracle, MicroStrategy, SAP...
Welche BI-Lösungen sind am schnellsten? Antworten gibt's hier
Man muss Ingo Mierswa nicht lange bitten. Der Chef von Rapid-I benennt glasklar einige der Vorteile von Business Intelligence (BI). Seine Software «Rapid Miner» prognostiziert den voraussichtlichen Umsatz pro Kunde, simuliert mögliche Geschäftsszenarien und gibt Handlungsempfehlungen. Sie verhindert dadurch, dass wichtige Kunden zur Konkurrenz überlaufen. Rapid Miner löst also Probleme, mit denen sich jedes Unternehmen tagtäglich konfrontiert sieht.

Der Urknall

Business Intelligence hat in den letzten Jahren eine stürmische Entwicklung hingelegt. Das Ur-Ei der Business Intelligence war die sogenannte deskriptive Analytik, die auf die Vergangenheit fokussiert historische Daten auswertet. «Das machen die grossen Anbieter alle», meint Mierswa. Die entscheidende Frage aber sei: «Was wird in der Zukunft passieren und was muss ich jetzt dafür tun?» Kann man denn wirklich halbwegs exakte Voraussagen über die Zukunft treffen? Nehmen wir ein populäres Beispiel, den Münzwurf: Die Wahrscheinlichkeit auf Kopf oder Zahl liegt bei jeweils 50 Prozent. Wer also auf Kopf oder auf Zahl setzt, liegt nie ganz falsch, aber auch nie völlig richtig. Die Kunst der Business Intelligence liegt nun darin, Einflussgrössen wie Drehimpuls, Gewicht und Windrichtung zu messen und die Prognose­sicherheit von 50 Prozent auf 70, 80 oder 90 Prozent hochzuschrauben. Mierswa hält sol­che hohen Prognosewahrscheinlichkeiten in Schweizer Firmen absolut für möglich. Auf hundertprozentige Sicherheit käme es dabei gar nicht an. Wichtig sei vielmehr, die richtigen Massnahmen zu ergreifen, damit das für die Firma optimale Szenario allermöglichst auch eintritt. Etwa: Den Gutschein des Kunden von 50 auf 100 Franken zu erhöhen, damit der nicht zur Konkurrenz geht, sondern dem eigenen Unternehmen die Treue hält. Im Backend geht es um Wahrscheinlich­keiten, Big Data und komplexe statistische Modelle. Davon will der BI-Anwender, also der Vertriebler vor Ort beim Kunden oder der IT-Entscheider im Unternehmen, aber gar nichts wissen. Die Top-3-Probleme der Anwender seien die Performance, die Datenqualität und menschliche Faktoren (fehlendes Know-how, schlechte Organisation etc.), betont Carsten Bange vom Business Application Research Center (Barc). Hier gibt es durchaus Fortschritte zu verzeichnen. BI-Frontends sind zum Beispiel bedienfreundlicher geworden. Anbieter wie Tableau Software, Tibco oder QlikTech haben hier einen sehr guten Job gemacht. Punkto Ausführungsgeschwindigkeit, dem Anwenderproblem Nummer eins, ist eine Technologie angetreten, die grossspurig die Lösung aller Performance-Probleme verspricht: In-Memory Computing – the Big Hype. IBM kam im Juni dieses Jahres mit einem «BLU Accelerator» für seine Datenbank DB2 (R. 10.5) auf den Markt, mit dem Reports 40 bis 100 Mal schneller fertig werden. Oracle-Chef Larry Ellison kündigte im September auf der Open World eine In-Memory-Option für seine neue Datenbank 12c an, die für Oracle-Kunden besonders schnell und einfach nutzbar sein soll. Ellison versprach Performance-Gewinne mindestens um den Faktor 100. Lesen Sie auf der nächsten Seite: Sybase schneller als Oracle

Sybase schneller als Oracle

Der Vorreiter in Sachen In-Memory, SAP mit seiner Echtzeit-Appliance Hana, ist jedoch bereits seit etwa zwei Jahren auf dem Markt. «Die Konkurrenz hat zwei Jahre lang gesagt, In-Memory-Computing lohnt sich nicht, und jetzt machen sie es alle selbst», sagte Hanspeter Groth von SAP Schweiz, nicht ohne Genug­tuung, zu Computerworld. Inbesondere Oracles In-Memory-Vorstoss scheint man bei SAP jedoch sehr ernst zu nehmen. Mit gutem Grund, denn ein Grossteil von SAPs ERP-Lösungen laufen auf Datenbanken von Oracle. Oracle fahre einen hybriden Ansatz, pfropfe sein In-Memory nachträglich auf das zwölfte Release seiner Datenbank auf. SAP hingegen habe Hana komplett und neu für In-Memory-Computing entwickelt, betont Groth. SAP Hana benötigt keine Festplatten mehr, sondern holt CRM, ERP und Analytics gemeinsam in den Arbeitsspeicher. Auch im eher klassischen Datenbankmarkt sieht Groth sein Unternehmen im Vorteil: eine Sybase-IQ – SAP hat Sybase 2010 für 4,6 Milliarden Euro aufgekauft – sei immer noch schneller als eine Oracle-Datenbank 11g oder 12c.

In-Memory eine Alte Kamelle?

Barc-Geschäftsführer Carsten Bange relativiert den neuen Hype um In-Memory ein wenig: «Für die IT ist In-Memory eine alte Kamelle.» Der
eigentlich neue IT-Trend sei, die jahrelang getrennten Bereiche OLTP (Online Transaction Processing wie CRM, ERP) und OLAP (Online Analytical Processing) auf einer Datenbank zusammenzuführen. Genau daran arbeiten Hersteller wie SAP, aber auch IBM, Oracle, Microsoft und Teradata. Mit der Performance der alten, multidimensionalen Datenbanken (die nicht komplett im Arbeitsspeicher laufen) seien die Anwender zudem hochzufrieden, betont Bange. Da scheint es kein Per­formance-Problem zu geben. Zu den multidimensionalen Datenbankensystemen zählt Bange zum Beispiel IBMs Cognos/TM1 oder Oracles Essbase. Laufen OLAP und OLTP, also Analysen und Trans­­ak­tionen, über ein und dasselbe System, dann lassen sich alle Fragen, die den Prozess direkt betreffen, leichter und schneller beantworten; also etwa die Produktionsplanung anpassen, Geschäftsszenarien simulieren, Stücklisten erstellen, die Lieferfähigkeit abschätzen/Alternativen organisieren, Profitabilitätsberechnungen anstellen oder den optimalen Preis berechnen. Das könne man sich leicht für alle möglichen Prozesse in Marketing, Logistik, Vertrieb oder in Out-of-Stock-Situationen vorstellen, so Bange, denn die Analytik setze direkt auf den ERP-Daten auf. Stephen Brobst, CTO von Teradata, kritisiert SAPs hundertprozentige In-Memory-Strategie grundsätzlich. Oracles neue In-Memory-Ankündigung richtet sich direkt gegen SAP Hana. Allerdings schlägt Oracle für Brobst den ökonomisch sinnvolleren Weg ein. Denn es gehe nicht nur um Performance, sondern auch um Kosteneffizienz. Da sei SAPs Hana zu teuer. Oracle dagegen speichert die heissen Daten im teuren Arbeitsspeicher, die kalten Daten bleiben aber auf den preiswerten Harddisks. Die hohe Kunst der BI besteht nun darin, dynamisch zu bestimmen, welche Daten gerade heiss und welche gerade kalt sind. Das
sei, so Brobst, bei Oracle sehr mühsam und wenig automatisiert. «Teradata ist mit seinem Teradata Virtual Storage (TVS) und Intelligent Memory (TIM) dem Konkurrenten Oracle um Jahre voraus», sagte Brobst zu Computerworld. Sein Unternehmen verfüge über raffinierte, patentierte Algorithmen, die Daten vollautomatisch aufgrund von Zugriffsmustern evaluieren. Lesen Sie auf der nächsten Seite: 7 great Ideas von IBM

7 great Ideas von IBM

SAP spricht vollmundig von Geschwindigkeitsgewinnen um die Faktoren 1000, 10000 und – in Ausnahmefällen – sogar 100000. Auch IBMs Wolfgang Beeck relativiert und hält den von SAP angezettelten Krieg um immer höhere Performance-Vorteile für übertrieben. «Wir gehen nicht mit absurd hohen Beschleunigungsfaktoren ins Marketing», sagt Beeck, der den technischen Vertrieb und das Informations­management bei IBM leitet. IBM klotze nicht mit singulären Geschwindigkeitsrekorden, sondern baue «Workload optimized Systems» für ein breites Anwendungsspektrum. Beeck nennt sieben Kernprinzipien (Seven Great Ideas), die IBM mit seiner In-Memory-Datenbank DB2 (R10.5) plus BLU-Accelerator realisiert hat. Das System ist seit Mitte Juni auf dem Markt: 1. So einfach wie möglich – Load and go: IBMs Datenbank mit BLU-Technologie verhält sich nach aussen, für den Benutzer, wie eine gewohnte DB2. Vieles hat IBM automatisiert oder abgeschafft, etwa die Indizes im Column-Store. Die Abfragen erfolgen über Interfaces. 2. Compute-freundliche Kodierung und Kompression: IBM nutzt eine abgewandelte Huffman-Kodierung und passt kodierte Pakete an die Registerbreite der CPU an. Dadurch reduzieren sich I/O-Zugriffe und CPU-Zyklen. Einfache Suchabfragen (Vergleiche und Joins) sind möglich, ohne die Daten dekodieren zu müssen. Auch das erhöht die Performance. 3. Single Instruction Multiple Data (SIMD): Mit Assembler-Code nutzt IBM die Leistungs­fähigkeit moderner Prozessoren, welche die Rechenarbeit (Compute) übernehmen, voll aus. Ein einzelner Befehl verarbeitet «auf einen Schlag» mehrere Datenelemente. Das funktioniert mit Power7-Prozessoren unter AIX und mit Intels X86er-Prozessoren unter Linux. 4. Prozessorkern-freundliche Parallelisierung: IBM verteilt Rechenarbeiten auf mehrere Kerne. Ausserdem werden die Daten, die ein Prozessorkern für seine Aufgaben benötigt, in möglichst kernnahen Caches/Registern mit sehr schnellen Zugriffszeiten gespeichert. Die Wahl des optimalen Speichers erfolgt nach Heuristiken. 5. Column Store: Spaltenorientierte Datenstrukturen spielen besonders bei analytischen Abfragen ihre Stärken aus. Sie minimieren die Anzahl der I/O-Zugriffe und erlauben höhere Kompressionsraten, da in einer Spalte typgleiche Daten abgespeichert werden. 6. Suchfreundliches Memory Caching: Die sogenannten «heissen» Daten bleiben im Arbeitsspeicher. 7. Daten überspringen (Data Skipping): IBMs BLU-Technologie versieht jede Datenspalte eines Datenblocks mit einem Minimal- und einem Maximalwert. Liegt zum Beispiel der Suchwert über dem Maximalwert, kommt der betreffende Datenblock einer Spalte nicht infrage. Data Skipping ist also ein Ausschluss­verfahren, das Blockspalten markiert, wo positive Such­ergebnisse NICHT zu finden sind. Diese sieben Ideen realisieren auf In-Memory-Datenbanken/Analytics extreme Geschwindigkeitsvorteile», resümiert IBMs Beeck. IBM habe mit seinem hybriden Modell den Markttrend gesetzt, auf den Oracle und Microsoft jetzt aufspringen. DB2 R10.5 sei im August von SAP zertifiziert worden. Erste Labormessungen hätten ergeben, dass SAP-BW-Abfragen auf DB2-BLU etwa 25 Mal schneller laufen als auf der älteren, relationalen DB2. Lesen Sie auf der nächsten Seite: Ist Performance wirklich so wichtig?

Ist Performance wirklich so wichtig?

Es ist schon merkwürdig: Viele Anbieter betonten, High-Performance-Analytics sei gar nicht so schrecklich wichtig. Aber trotzdem forscht jeder daran. So auch Microsoft. Microsofts Datenbank und Analysemaschine, der SQL Server, soll 2014 ebenfalls mit fortgeschrittener In-Memory-Technologie ausgestattet auf den Markt kommen. Schon in SQL Server 2008/2012 nutzt Microsoft In-Memory. «Das xVelocity-Modul für die Datenanalyse im Arbeitsspeicher ist die nächste Generation des VertiPaq-Moduls, das im SQL Server 2008 R2 eingeführt wurde, mit PowerPivot für Excel 2010 und SharePoint 2010», sagt Chris­tof Zogg, Leiter der Developer & Platform Group bei Microsoft Schweiz. Dabei kommen bewährte Verfahren wie Spaltenspeicherung, Komprimierung, Caching im Memory und parallel aus­geführtes Datenscanning zum Einsatz. Zudem nutzen viele Anwender in Schweizer Unternehmen für ihre analytischen Abfragen immer noch gut und gerne ihr vertrautes Excel, das mittlerweile etwa auch geospatiale Analysen, Self-Service-ETL (Aufbereitung von Daten für Data Warehouses) und Cross Queries über mehrere relationale Datenbanken beherrscht. Für Barc-Chef Carsten Bange steht für Microsoft der BI-Markt aber gar nicht im Zentrum des Interesses. Vielmehr versuche Redmond, seine Bestandsprodukte durch Business Intelligence attraktiver zu machen, um der Kundschaft dann besser die neuen Releases verkaufen zu können – letztlich ein Marketingtrick aus Redmond. Gleichwohl zählt Bange die SQL Server Analysis Services, zusammen mit Oracles Essbase und IBMs TM1, zu den drei grossen, den Markt beherrschenden multidimensionalen Datenbanksystemen.

Mobile-BI-Trends

Und wie steht es um das Hype-Thema mobile BI? Mobile BI sei ein absolutes Trendthema, bestätigt Bange, aber die tatsächliche Adap­tionsrate in den Unternehmen steige über­raschenderweise sehr langsam. Bange vergleicht die Ergebnisse seines «BI Survey» über die letzten Jahre: Das Interesse an mobiler BI habe stark zugenommen, aber die praktische Umsetzung hinke markant hinterher. Mög­licherweise ist es doch nicht so einfach, wie gedacht, mobile BI in den Unternehmen zu implementieren.

Best Practices

CW hat deshalb einen Best-of-Breed-Anbieter von BI-Lösungen gefragt, der von Gartner in den letzten Jahren als Vorreiter auf dem Markt der mobilen Business Intelligence eingeschätzt wurde: MicroStrategy. Welche Klippen gilt es  bei der Einführung zu umschiffen? «Das Ziel von mobiler BI ist nicht, die alte Desktop-BI auf mobile Geräte zu migrieren», betont Marcel Schläpfer, Country Manager von MicroStrategy Schweiz. Vielmehr gehe es darum, mithilfe von Apps neue Einsatzbereiche zu erschliessen, um die Möglichkeiten mobiler Endgeräte auch sinnvoll zu nutzen. Schläpfer führt Geolokation, Karten und Videos, aber auch Umsatzstatistiken, Lagerbestände und jüngere Transaktionen aus Enterprise Data Warehouses als sinnvolle Informationselemente an. In der Kombination werde daraus ein unverzichtbares Werkzeug. Allerdings müsse die mobile App intuitiv und ohne Training bedienbar sein, nicht schlechter also als die Apps, die man auch gerne privat benutzt. Sonst fehlt die Akzeptanz. Data Warehouses, Bedienfreundlichkeit, Big Data und vor allem Performance scheinen auch für den Markt der mobilen Business Intelligence erfolgsentscheidende Kriterien zu sein. «In-Memory ist ein sehr aktuelles Thema für uns», sagt Schläpfer und ergänzt stolz: «Micro­Strategy wurde kürzlich als erste Business-Intelligence-Plattform für SAP Hana zertifiziert.» Es scheint so, als habe SAP mit seiner Hana einen Expresszug in die Zukunft gestartet, auf den jetzt alle aufspringen wollen. Lesen Sie auf der nächsten Seite: BI-Portfolios im Härtetest

Gartner-Vergleich: BI-Portfolios im Härtetest

Im Leaders-Quadranten des aktuellen magischen Quadranten für «Business Intelligence and Analytics Platforms» vom Februar 2013 konnten sich unter anderen Microsoft, IBM, QlikTech, Oracle, MicroStrategy, SAP und SAS positionieren. Das Technology-Research-Unternehmen Gartner hat 38 BI-Anbieter auf den Prüfstand gestellt. Testdisziplinen waren die drei grossen Bereiche Integration (Infrastruktur, Entwicklung, Metadatenmanagement), die schnelle Bereit­stellung von Informationen (Reports, Dashboards, Ad-hoc-Queries, Mobility) und Analytics (OLAP, Visualisierung, Simulation/Prognosen). Die Ergebnisse im Überblick: Microsoft Redmond hat in den letzten Jahren die BI-Funktionalität seiner drei verbreitetsten Produkte massiv ausgebaut: Office (u.a. Excel), SQL Server und SharePoint. + Microsoft investiert in Lösungen, die viele Unternehmen bereits im Einsatz haben und offeriert ihnen dadurch eine attraktive Cost/Value-Proposition. - Kritisch bewertet Gartner die Komplexität des Angebots. Microsoft verteilt seine BI-Funktionalität auf drei Produkte – Excel, SQL Server und SharePoint –,
die auch Nicht-BI-Features offerieren. Kunden sind daher oft gezwungen, nach dem Do-it-yourself-Verfahren ihre BI-Anwendungen selbst zu entwickeln. Andere BI-Anbieter leisten grössere Hilfestellung. Nachholbedarf sieht Gartner aus­serdem auf dem Zukunftsmarkt der mobilen Business Intelligence, den Microsoft bislang eher stiefmütterlich behandelt hat. Oracle Oracles BI-Lösung Foundation Suite sei, so die Gartner-Analysten, besonders für den Aufbau grosser, zentral gesteuerter, globaler und breit gefächerter BI-Landschaften geeignet. + Ganz besonders die enge Integ­ration in den Oracle Stack lässt Kunden zum BI-Portfolio der Ellison-Company greifen. So offeriert das Unternehmen mehr als 80 vorgefertigte BI-Applika­tionen unter anderem für die E-Business-Suite, Peoplesoft, das ERP JD Edwards, CRM Siebel und das jüngere Fusion-Business-App-Portfolio. Hinzu kommen vorkonfigurierte, industriespezifische Anwendungen etwa für Data Warehouses, KPIs, Reports und Dashboards. - Nachholbedarf sieht Gartner im Boom-Markt mobile Anwendungen, wo Oracle der Konkurrenz hinterherhinkt. Chronische Schwachpunkte sind laut Gartner ausserdem der Support, die Performance und die Qualität der Produkte. Die Bewertungen fielen hier konstant über die letzten drei Jahre recht schlecht aus. Möglicherweise liegt das an den sehr grossen und komplexen BI-Installationen von Oracle. Aber: Konkurrenten mit ähnlich komplexen Installationen, wie Micro­Strategy oder Information Builders, haben sich über die Jahre im Urteil der Anwender nach oben gearbeitet. Lesen Sie auf der nächsten Seite: IBM + SAP IBM IBM hat 2012 sein BI-Portfolio kräftig aufgerüstet. Zum einen durch eigene, neue Versionen wie Cognos BI 10.2, Cognos Insight, den SPSS Modeler 15 und das Analytical Decision Management 7.0/Technical Answers; zum anderen durch Akquisitionen wie Tealeaf Technology, die Analytics-Software-Schmiede Varicent Software und Vivismo. + Kunden äussern sich generell zufrieden über das aktuelle Cognos BI 10.x und über die Migration von Cognos 8 BI auf BI 10.x. Kunden schätzen an IBM ganz besonders die Road Map und die Zukunftsvisionen des Konzern. In diesen beiden Dis­ziplinen erreicht Big Blue weit über dem Durchschnitt liegende Werte. - Stein des Anstosses ist jedoch nach wie vor die Performance der Lösungen, insbesondere die von Cognos 8 BI. 24 Prozent der IBM-Kunden beschweren sich darüber (Industriedurchschnitt 11,5 Prozent). Auch die Bedienerfreundlichkeit der Lösungen steht in der Kritik: Lediglich 17,7 Prozent aller IBM-Kunden halten die BI-Lösungen für benutzerfreundlich, der Durchschnitt über alle Anbieter liegt bei wesentlich höheren 35,1 Prozent. SAP SAP ist laut Gartner derzeit der weltweite Marktführer punkto Business Intelligence und Analytics. + Viele Unternehmen nennen die Lösungen aus Walldorf als den De-facto-Standard in Sachen Enterprise BI und Analytics. In der jüngsten Kundenbefragung des Analystenhauses belegt SAP unter 38 BI-Anbietern den Spitzenplatz, wird also am häufigsten genannt, genutzt und eingesetzt. - Viele der von Gartner befragten Unternehmen äusserten sich jedoch kritisch über die Qualität der Software aus Walldorf. Mit 21,17 Prozent liegt SAP damit weit über dem Anbieterdurchschnitt (6,2 Prozent). Als ein nicht gerade einfaches Unterfangen gilt auch die Integration und der Support etwa von SAP BW, Web Intelligence, Crystal Reports und Dashboards. Kunden, die jüngere Lösungen einsetzen, äus­sern sich jedoch positiver als Unternehmen mit einem Port­folio älteren Datums über Kunden-Support und Produktqualität. Zum Beispiel beschweren sich 29,63 Prozent der Anwender von BusinessObjects XI 3.1, aber nur noch 16,67 Prozent der Kunden, die mit dem jüngeren SAP BI 4.0 FP3 arbeiten. 38 BI-Portfolios im Härtetest: Den ausführlichen Testbericht lesen Sie auf computerworld.ch


Das könnte Sie auch interessieren