12.12.2012, 18:30 Uhr
HPs dicke Software-Monster
HP ruft das Brontobyte-Zeitalter aus, und präsentiert Big-Data-Waffen gegen die Datenriesen. Mit seinen neuen AppSystems stösst der Konzern das Tor zu Zukunftsmärkten auf.
Momentan ist es in der IT-Szene gross in Mode, über "Big Data" zu reden. Hewlett-Packard etwa rief kürzlich auf seiner Hausmesse Discover das sogenannte Brontobyte-Zeitalter aus. Nie davon gehört? Keine Sorge, wir auch nicht. Denn diese Datenriesenberge sind gewissermassen nicht mehr menschlich. Zehn Finger und zehn Zehen reichen dafür schon lange nicht mehr aus. Hinter einem Brontobyte stecken, ganz langsam zum Mitzählen, 10 hoch 27 Bytes. Eine Zahl mit 27 Nullen. Big-Data-Anbieter wie HP, Oracle oder Teradata kitzeln mit solchen Monsterzahlen gerne den Angstfaktor hoch - Hilfe, der Daten-Tsunami überrollt uns - und zaubern dann ihre eigenen Analytics-Maschinen aus dem Hut. Als Rettung in letzter Sekunde sozusagen. HP, Oracle, Teradata sei dank. Aber spüren Anwenderunternehmen tatsächlich den enormen Performance-Druck, der eine hohe Investition in die neuen Big-Data-Maschinen rechtfertigen würde? Im Allgemeinen nicht, hat Computerworld in vielen Gesprächen erfahren. Aber einige Firmen spüren ihn schon: Telco-Provider, grosse Retailer, Banken und Kreditinstitute fühlen sich angestachelt und denken über die neuen Big-Data-Cruncher intensiv nach. Punkto Analytics hat es auch Hewlett-Packard auf diese Zielmärkte abgesehen, und wirft sein neues "AppSystem for Apache Hadoop (Cloudera)" an die Kundenfront. Noch in diesem Jahr will der Konzern sein Apache-Hadoop-System auf ProLiant-Gen8-Servern (DL380) auf den Markt bringen, mit Red Hat Enterprise Linux als Betriebssystem. Nun ist Hadoop/MapReduce eigentlich ein kostenloses Open-Source-Framework, entwickelt von Google für die hochgradig parallele Analyse unstrukturierter Daten. Warum also teures Geld dafür ausgeben?
HP optimiert Hadoop, ja aber...
Computerworld sprach mit Paul Miller, VP Converged Application-Systems bei HP. Hadoop sei ursprünglich nicht für den Echtzeitbetrieb, sondern für den Batchbetrieb entwickelt worden, sagt Miller. Für Real-Time-Analytics reicht das nicht. Miller streicht insbesondere die Cluster-Management-Qualitäten der HP-Lösung hervor. Nach internen HP-Messungen werden 800 sogenannte Nodes - also autonome, parallel arbeitende Rechenknoten - in etwa 30 Minuten ausgerollt. Nächste Seite: HP Hadoop - Vergleich mit der Konkurrenz
Ein weiterer Vorteil: Der HP AppManager for Hadoop optimiert Hardware und Software "on the fly" auf die gerade anfallende Datenlast. Dadurch, so betont Miller, sei HPs Apache Hadoop flexibler als etwa das Konkurrenzprodukt von Teradata, die Teradata Aster Big Analytics Appliance, die der Data-Warehouse-Spezialist im Sommer in Washington präsentierte. Flexibler vielleicht, aber auch schneller? Der Beweis -in Gestalt harter Zahlen - steht bislang noch aus. HP vergleicht sein Hadoop (auf ProLiant Gen8, DL380P, 768 GByte)) mit Oracle (Sun Fire X4270, 144 GByte), und macht dabei "bella figura". Wie immer, wenn man sein eigenes, stärkstes System gegen eine schwächere Lösung der Konkurrenz ins Feld führt. Obwohl es da auch bessere gibt. Ein beliebter Trick, nicht nur von HP. Die aussagekräftigeren Benchmarks fährt jedoch Teradata. Der Analytics-Spezialist testete seine eigene Big-Data-Appliance gegen das Original-Hadoop, und schnitt in den allermeisten Testdiziplinen performanter ab (Quelle: Lab Validation Report, Registrierung erforderlich).Teradatas Big-Data-Maschine versteht ausserdem den weit verbreiteten Abfragedialekt SQL (in der Variante SQL-H).
Ein weiterer Vorteil: Der HP AppManager for Hadoop optimiert Hardware und Software "on the fly" auf die gerade anfallende Datenlast. Dadurch, so betont Miller, sei HPs Apache Hadoop flexibler als etwa das Konkurrenzprodukt von Teradata, die Teradata Aster Big Analytics Appliance, die der Data-Warehouse-Spezialist im Sommer in Washington präsentierte. Flexibler vielleicht, aber auch schneller? Der Beweis -in Gestalt harter Zahlen - steht bislang noch aus. HP vergleicht sein Hadoop (auf ProLiant Gen8, DL380P, 768 GByte)) mit Oracle (Sun Fire X4270, 144 GByte), und macht dabei "bella figura". Wie immer, wenn man sein eigenes, stärkstes System gegen eine schwächere Lösung der Konkurrenz ins Feld führt. Obwohl es da auch bessere gibt. Ein beliebter Trick, nicht nur von HP. Die aussagekräftigeren Benchmarks fährt jedoch Teradata. Der Analytics-Spezialist testete seine eigene Big-Data-Appliance gegen das Original-Hadoop, und schnitt in den allermeisten Testdiziplinen performanter ab (Quelle: Lab Validation Report, Registrierung erforderlich).Teradatas Big-Data-Maschine versteht ausserdem den weit verbreiteten Abfragedialekt SQL (in der Variante SQL-H).
Performance-Vorteil: 1000x
Hadoop/MapReduce glänzt bei der Analyse unstrukturierter Daten. Nun zu den weiteren Appliances. Für strukturierte, also in der Regel klassisch relationale Daten ist HP AppSystem for Vertica zuständig. Das neue Appsystem - mit integrierter Vertica Analytics Platform 6.1 - speichert Daten allerdings nicht in Zeilen (rows), sondern in Kolumnen (sogenannte column stores) ab. Bei Analysen erhöht sich dadurch die Ausführungsgeschwindigkeit signifikant (auch SAP optimiert seine HANA auf diese Weise). Hewlett-Packard spricht von Performance-Vorteilen von bis zu 1000x. HP AppSystem for Vertica wird auf ProLiant-Gen8-Servern unter Red Hat Enterprise Linux ausgeliefert und soll voraussichtlich Anfang des kommenden Jahres auf den Markt kommen.