11.11.2005, 08:23 Uhr
Ein Grid für den Planeten
Der grosse Teilchenbeschleuniger Large Hadron Collider am Cern bewegt Forscher zum Bau eines weltweiten Grids zur Datenanalyse.
Ab 2007 zünden Wissenschaftler aus aller Welt am europäischen Forschungszentrum Cern ein Feuerwerk der Elementarteilchen. Die physische Grundlage dazu wird der unterirdische Teilchenbeschleuniger Large Hadron Collider (LHC) in der Nähe von Genf sein. Vier riesige Detektoren werden dort die Flugbahnen von elementaren Bestandteilen der Materie aufzeichnen, die beim Zusammenprall beschleunigter Protonen oder Atomkernen entstehen. Die Detektoren sollen jährlich etwa 10 Petabyte (10 Millionen GByte) an Daten erzeugen. Hinzu kommen weitere geschätzte 4 Petabyte an Simulationsdaten pro Jahr.
Bei einer solch enormen Datenflut wird klar, dass ein einzelnes Rechenzentrum nicht in der Lage ist, für die weltweit mehreren tausend Forscher ausreichend Kapazitäten zur Auswertung bereitzustellen. Das LHC-Computing-Modell des Cerns sieht daher vor, in mehreren Ländern jeweils ein regionales Rechenzentrum aufzubauen und diese über Hochgeschwindigkeitsleitungen miteinander zu vernetzen. Eine robuste Grid-Software soll sich um die automatische Daten- und Lastverteilung kümmern und eine transparente Sicht auf die Ressourcen ermöglichen.
Bei einer solch enormen Datenflut wird klar, dass ein einzelnes Rechenzentrum nicht in der Lage ist, für die weltweit mehreren tausend Forscher ausreichend Kapazitäten zur Auswertung bereitzustellen. Das LHC-Computing-Modell des Cerns sieht daher vor, in mehreren Ländern jeweils ein regionales Rechenzentrum aufzubauen und diese über Hochgeschwindigkeitsleitungen miteinander zu vernetzen. Eine robuste Grid-Software soll sich um die automatische Daten- und Lastverteilung kümmern und eine transparente Sicht auf die Ressourcen ermöglichen.
Ein Grid für den Planeten
Die Daten eines Experiments werden durch die Detektorelekt-ronik bereitgestellt, wobei jeder der über 100 Millionen Nachweiskanäle einzeln vermessen und kalibriert werden muss. Die Datenrate erfolgt hierbei mit rund einer Million GByte pro Sekunde. Um diesen Informationsfluss in technisch akzeptablen Grenzen zu halten, muss bereits «online» stufenweise eine erste Auswahl von Ereignissen getroffen werden. Die ausgewählten Reaktionen werden dann mit einer Rate von 5 GByte/s in lokalen Prozessorfarmen weiterverarbeitet und erneut aussortiert. Diese Rohdaten werden zunächst am Cern selbst rekonstruiert und dann in Universitäten und Forschungsinstituten der ganzen Welt analysiert. Dazu benötigt jedes einzelne Institut ein verteiltes Rechnersystem mit gewaltigen Datenspeichern, einer grossen Zahl von Workstations und einem Zugangssystem für zahlreiche Nutzer.
Die Grundlage des LHC-Computing bildet deshalb ein hierarchisches System mit verschiedenen Ebenen, so genannten Tiers. Das Modell sieht vor, dass die Speicherung der Experimentdaten und die Rekonstruktion am Tier-0-Zentrum beim CERN stattfindet. Die Analyse und die Durchführung von Ereignissimulationen sind Aufgabe der regionalen Tier-1-Zentren, gefolgt von nationalen Tier-2-Zentren, Institutsgrossrechnern (Tier-3) und lokalen Arbeitsplatzrechnern (Tier-4). Angesichts dieser Herkulesaufgabe verfolgen die Drahtzieher am Cern einen erfrischend pragmatischen Ansatz: «Was nötig ist, aber nicht existiert, erfinden wir einfach». So lautet die Devise an der Forschungseinrichtung, wo bereits das WWW erfunden wurde.
Die enormen Investitionen werden nicht zuletzt damit gerechtfertigt, dass das Grid-Computing für den LHC künftig auch als Modell für andere Wissenschafts- und Gesellschaftsbereiche dienen werde.
Die Grundlage des LHC-Computing bildet deshalb ein hierarchisches System mit verschiedenen Ebenen, so genannten Tiers. Das Modell sieht vor, dass die Speicherung der Experimentdaten und die Rekonstruktion am Tier-0-Zentrum beim CERN stattfindet. Die Analyse und die Durchführung von Ereignissimulationen sind Aufgabe der regionalen Tier-1-Zentren, gefolgt von nationalen Tier-2-Zentren, Institutsgrossrechnern (Tier-3) und lokalen Arbeitsplatzrechnern (Tier-4). Angesichts dieser Herkulesaufgabe verfolgen die Drahtzieher am Cern einen erfrischend pragmatischen Ansatz: «Was nötig ist, aber nicht existiert, erfinden wir einfach». So lautet die Devise an der Forschungseinrichtung, wo bereits das WWW erfunden wurde.
Die enormen Investitionen werden nicht zuletzt damit gerechtfertigt, dass das Grid-Computing für den LHC künftig auch als Modell für andere Wissenschafts- und Gesellschaftsbereiche dienen werde.
Michael Keller