26.08.2005, 08:43 Uhr
Software spaltet Doppelkern
Prozessoren mit mehreren Kernen gelten als wegweisende Architektur für die weitere Leistungssteigerung von Computerchips. Softwareseitig wirft dieser Hardwaretyp jedoch verzwickte Fragen auf.
Im Jahr 2007 werden die meisten Prozessoren zwei Kerne haben, sagt Martin Reynolds von der Marktanalysefirma Gartner Group. Dazu passen die Prognosen von Chipkönigin Intel, die meint, dass bereits Ende 2006 rund 40 Prozent aller ihrer neu ausgelieferten Desktop-, 70 Prozent der Mobil- und 85 Prozent der Serverprozessoren mehr als einen Kern haben werden. Gartner-Mann Reynolds zufolge bedeutet das Dual-Core-Konzept den wichtigsten Entwicklungsschritt in der Chiptechnik seit Einführung der 386-er Architektur. Und zwar deshalb, weil sich damit die Performance massiv und langfristig steigern lasse. Das Leistungsvermögen eines doppelkernigen Chips, so Reynolds" Rechnung, sei dem eines normalen, gleich schnell getakteten um rund 70 Prozent überlegen.
Dieses Rechenexempel geht allerdings nicht immer und nicht für jeden Einsatzzweck auf, denn eine lineare Performance-Steigerung ist nur in Ausnahmefällen zu erreichen. Am meisten profitieren Servermaschinen mit hoher Auslastung, wie sie etwa für Virtualisierungssoftware typisch ist. Für Desktops lohnt sich der Doppelkern vor allem bei Multimedia- und CAD-Applikationen (Computer-Aided Design) sowie bei Simulationsprogrammen.
Dennoch bergen Multicores für die Zukunft viele Versprechungen. Wenn es gelingt, die Software passend zu tunen, wird sich die Investition in die Doppelkerne schnell amortisieren. Fachleute gehen zudem davon aus, dass der Stromverbrauch solcher Prozessoren nur moderat steigen wird. Vorstellbar ist auch, dass mehrere Kerne einen Teil der bisherigen Hardware überflüssig machen, etwa in Fällen, wo an einem Arbeitsplatz sowohl Windows als auch Linux benötigt werden, die künftig auf je einem Kern laufen könnten.
Kernfrage Lizenzierung
Ob sich das Leistungspotenzial von Prozessoren mit zwei oder noch mehr Kernen ausschöpfen lässt, hängt entscheidend vom Geschick der Programmierer ab, die Software entsprechend anzupassen.Die meisten Betriebssysteme sind bisher darauf ausgelegt, auf einem einzigen Prozessor zu laufen. Und während symmetrisches Multiprocessing noch vergleichsweise einfach machbar ist, weil das Betriebssystem dabei nur das Load-Balancing bewältigen muss, erfordert asymmetrisches Multiprocessing erheblich mehr Know-how, weil das Partitioning der Tasks über mehrere Threads hinweg beim Codieren vorgesehen werden muss. Nicht zu vergessen ist die Auslegung der Subsysteme wie Arbeitsspeicher, I/O, Datenleitungen - Komponenten, die oft genug flinke Prozessorenleistungen ausbremsen.
Software spaltet Doppelkern
Mehrkernige Prozessoren müssen also noch eine Reihe Hürden nehmen, bevor sie für den grossflächigen kommerziellen Einsatz taugen. Doch diese scheinen schnell lösbare Aspekte im Vergleich zu den verzwickten Fragen, die sie für Lizenzanbieter und -nehmer aufwerfen. Ein Chip mit einem Kern kostet eine Lizenz, soweit ist die Sache klar. Was aber kostet ein Chip mit zwei Kernen, der indes nicht dieselbe Leistung bringt wie zwei Chips mit einem Kern?
Die Softwareanbieter sind darüber sehr unterschiedlicher Ansicht. Sehr zum Missfallen der Hardwareanbieter, die auf einfache Verrechnungsmodelle drängen. Allerdings nicht aus Wohlwollen für die Anwender, sondern weil offensichtlich ist, dass die Multicore-Rechner nur dann eine Chance auf weite Verbreitung haben, wenn ein eindeutiger Return on Investment vorgerechnet werden kann. Dennoch hatte beispielsweise die Datenbänkerin Oracle die knallharte Devise ausgegeben: Viele Kerne - genauso viele Lizenzen. Erst unter dem massiven Protest der Anwender krebste sie vor wenigen Wochen zurück. Künftig soll jeder Kern in einem mehrprozessigen Chip mit dem Faktor 0,75 bei den Lizenzgebühren zu Buche schlagen. Den kleineren Anwenderunternehmen kommen die Oracler sogar noch etwas weiter entgegen. Die Datenbank in der Standard-Edition, die für Ein-Wege-Rechner mit maximal zwei Rechenkernen in der CPU (Central Processing Unit) vorgesehen ist, soll grundsätzlich als Ein-Prozessor-System bei der Berechnung der Lizenzgebühren gelten.
Andere Hersteller sind die Fragestellung von Anfang mit mehr taktischem Geschick angegangen. Microsoft zum Beispiel lizenziert per CPU ungeachtet der Anzahl der Rechenkerne. Was zählt, ist die Zahl der physisch vorhandenen Prozessoren. Microsofts «Grosszügigkeit» gegenüber den Nutzern dürfte sich rasch amortisieren, wenn diese im Gegenzug der Redmonder Software die Treue halten oder die Anwenderbasis sich sogar erweitert.
Eine Mischrechnung bekommen die Anwender bei IBM serviert. Auf deren Intel- und AMD-Systemen richtet sich die Lizenzgebühr nach der Anzahl der physisch vorhandenen CPU. Auf Big Blues Unix-Maschinen, die mit den hauseigenen Power-PC-Prozessoren arbeiten, ist hingegen die Anzahl der Rechenkerne für die Höhe der Lizenzgebühren ausschlaggebend.
Erst der Anfang
Damit ist das Thema für die Softwareanbieter allerdings noch nicht erledigt. Denn zwei Kerne sind erst der Einstieg in einen Trend, der zu «multiplen» Prozessoren als Normalfall führen wird - darüber sind sich Branchenkenner einig. Schon heute biete beispielsweise Raza Microelectronics 8, Azul Systems gar 24 Kerne. Die Softwareanbieter müssen also akzeptable Lizenzierungsmodelle für solch vielkernige Chips ausarbeiten. Andernfalls riskieren sie, dass die Nutzer auf Open-Source-Alternativen ausweichen, etwa die Datenbank My-SQL oder Postgre-SQL. Denn ganz sicher wird sich kein Unternehmen darauf einlassen, eine Art «Strafgebühr» dafür hinzublättern, dass es, wie bisher auch mit höher getakteten Chips, seine Hardwareleistung erhöht.
Software spaltet Doppelkern
Schlussendlich könnte die Entwicklung der Prozessorenhardware sogar zur Folge haben, dass sich die IT-Industrie generell davon verabschieden muss, physisch vorhandene CPU zu zählen. Statt dessen wäre etwa ein Preismodell vorstellbar, das die Lizenzhöhe davon abhängig macht, wie eine bestimmte Applikation auf einem Chip parallel abgearbeitet wird. Ein solcher Kompromiss könnte einerseits den Softwareanbietern einen höheren Erlös gewähren, andererseits würde er die Kostenersparnis aus der Virtualisierung nicht ganz zunichte machen. Einige Brancheninsider halten es gar für plausibel, dass die gesamte Softwareindustrie auf ein Open-Source-Preismodell umschwenken muss. Gewinne müssten dann ausschliesslich aus Wartungs- und Supportdienstleistungen erzielt werden.
Sicher scheint momentan jedenfalls eins: Dass das bisherige bequeme und simple Modell der Softwarelizenzierung pro CPU für die heutige IT-Welt der Virtualisierung und Multicores nicht mehr taugt.
Interview
"Dual-Core wird noch viel zu Reden geben"
IDG:Herr Seyer, in den letzten Jahrzehnten waren Taktraten und Gigahertz die Messgrössen für schnellere und bessere Computer. AMDs Dual-Core-Chips mit 64 Bit haben tiefere Taktraten, und doch behaupten Sie, sie lieferten bessere Performance denn je.
Marty Seyer:Taktraten sind simpel zu vergleichen, aber wir haben diese Grössen noch nie als Benchmarks verwendet. Als Intel allmählich die Puste bei den Taktraten ausging, hat sie einfach den Cache erhöht. Urplötzlich sollte dann die Taktrate nebensächlich sein. Machen Sie sich selbst einen Reim darauf. Wir haben schon immer gesagt: Nicht allein auf die Taktrate der CPU kommt es an, sondern auf die gesamte Systemleistung.
Marty Seyer:Taktraten sind simpel zu vergleichen, aber wir haben diese Grössen noch nie als Benchmarks verwendet. Als Intel allmählich die Puste bei den Taktraten ausging, hat sie einfach den Cache erhöht. Urplötzlich sollte dann die Taktrate nebensächlich sein. Machen Sie sich selbst einen Reim darauf. Wir haben schon immer gesagt: Nicht allein auf die Taktrate der CPU kommt es an, sondern auf die gesamte Systemleistung.
Wie wird die Software für Dual-Core-Prozessoren lizenziert werden?
Die Hersteller debattieren über Preismodelle pro Kern oder pro Prozessor. Einen Konsens finden sie offenbar nicht. Manche Anwendungen laufen auf Dual-Core schneller, andere bei höheren Taktraten. Wir haben mit vielen Softwareherstellern gesprochen. Unsere Argumentation: Nur aufgrund einer höheren Taktrate hat in der Vergangenheit niemand seine Lizenzpreise hochgesetzt. Warum also sollte man bei zwei Kernen, dank denen die Performance ebenfalls steigt, dies tun? Allen voran Microsoft ist unserer Argumentation gefolgt: Sie wird Doppelkerne nicht doppelt verrechnen. Dadurch steigt der Druck auf andere Anbieter, sich diesem Modell anzuschliessen. Dabei ist das Thema noch weitreichender: Auf zwei Kerne werden Multikerne folgen, Virtualisierung ist ein Thema. Höchste Zeit also für die Softwarebranche aufzuwachen.
Die Hersteller debattieren über Preismodelle pro Kern oder pro Prozessor. Einen Konsens finden sie offenbar nicht. Manche Anwendungen laufen auf Dual-Core schneller, andere bei höheren Taktraten. Wir haben mit vielen Softwareherstellern gesprochen. Unsere Argumentation: Nur aufgrund einer höheren Taktrate hat in der Vergangenheit niemand seine Lizenzpreise hochgesetzt. Warum also sollte man bei zwei Kernen, dank denen die Performance ebenfalls steigt, dies tun? Allen voran Microsoft ist unserer Argumentation gefolgt: Sie wird Doppelkerne nicht doppelt verrechnen. Dadurch steigt der Druck auf andere Anbieter, sich diesem Modell anzuschliessen. Dabei ist das Thema noch weitreichender: Auf zwei Kerne werden Multikerne folgen, Virtualisierung ist ein Thema. Höchste Zeit also für die Softwarebranche aufzuwachen.
Also bewegen sich die meisten derzeit in einer Grauzone?
Es kommt auf die Anwendung an. Stellen Sie sich eine kleine Anbieterin vor, deren Überleben von ihren Lizenzumsätzen abhängig ist. So jemandem können wir nicht verbieten, dass sie Doppelkerne teurer verrechnet. Jedenfalls wird das Thema den Softwareanbietern in den nächsten drei Jahren noch viel zu diskutieren geben, das können Sie mir glauben.
Es kommt auf die Anwendung an. Stellen Sie sich eine kleine Anbieterin vor, deren Überleben von ihren Lizenzumsätzen abhängig ist. So jemandem können wir nicht verbieten, dass sie Doppelkerne teurer verrechnet. Jedenfalls wird das Thema den Softwareanbietern in den nächsten drei Jahren noch viel zu diskutieren geben, das können Sie mir glauben.