Genauere Wetter- und Klimamodelle geplant
Hochleistungsinfrastruktur für Klimasimulationen
Damit die neuen Modelle ihre Vorteile ausspielen können, ist eine massgeschneiderte Computer-Infrastruktur erforderlich. Schliesslich gehören Wetter- und Klimamodelle zu den rechen- und datenintensivsten Problemen. Die Modelle werden bei Exclaim deshalb Hand in Hand mit der Hardware und Software von Hochleistungsrechnern entwickelt: «Die Rechen- und Dateninfrastruktur wird ganz nach den Anforderungen der Wetter- und Klimamodelle eingerichtet», sagt Thomas Schulthess, der Direktor des Schweizerischen Nationalen Supercomputing Centre in Lugano. Das neue Supercomputing-System «Alps» ist zum Beispiel so gebaut, dass die hochauflösenden Klimamodelle auch konvektive Systeme wie Gewitter gut abbilden können.
Damit sich Wetter und Klima tatsächlich mit einer Maschenweite von wenigen Kilometern global und über Jahrzehnte simulieren lassen, muss das Modell ca. 100-mal schneller laufen als das zurzeit möglich ist. Die erste Möglichkeit, dieses Ziel zu erreichen, ist es, schnellere und grössere Rechner einzusetzen. Dazu wird der Übergang vom aktuellen Hochleistungsrechner am CSCS auf das «Alps»-System beitragen.
“Die Rechen- und Dateninfrastruktur wird ganz nach den Anforderungen der Klima- und Wettermodelle eingerichtet. „
Thomas Schulthess, CSCS
Eine Herausforderung stellt dabei das Ende des «Mooresche Gesetz» dar, demzufolge sich die Leistung von Prozessoren etwa alle 20 Monate verdoppelt: «Da die serielle Leistung von Prozessoren seit etwa 15 Jahren nicht mehr gesteigert werden konnte, besteht die einzige Möglichkeit, die Leistung von Supercomputern zu erhöhen, darin, ihre parallele Rechnerarchitektur zu verbessern», sagt Schulthess und ergänzt: «Zudem lohnt es sich, die Architektur eines Supercomputers so einzurichten, dass er bestimmte Klassen von Forschungsproblemen optimal lösen kann.»
Eine wichtige Rolle für die Rechenleistung spielt eine gemischte Rechnerarchitektur, in der die herkömmlichen Hauptprozessoren, die CPU (engl. «Central Processing Units»), die für die Berechnungen und den Datenaustausch zwischen Speicher und Komponenten verantwortlich sind, zusammen mit GPUs (engl. «Graphical Processing Units») eingesetzt werden.
Die zweite Möglichkeit setzt bei der Software an und besteht darin, den Modellcode zu optimieren und besser auf die gemischte Rechenarchitektur anzupassen. Hier verfolgt Exclaim einen revolutionären Ansatz, in dem der Quellcode aufgeteilt wird in einen ersten Teil, der die Schnittstelle zu Modellentwickelnden und Benutzenden darstellt, und einer darunterliegenden Softwareinfrastruktur, in der die zentralen Algorithmen des Modells hocheffizient für die jeweilige Hardware implementiert werden. Diesen Ansatz verfolgen CSCS, MeteoSchweiz und C2SM bereits im heutigen Wettermodell der MeteoSchweiz erfolgreich. Nun wird ihr Ansatz auf das Wetter- und Klimamodell ICON angewendet. «Wir konnten mit diesem Ansatz das Wettermodell der MeteoSchweiz um einen Faktor 10 beschleunigen, was der MeteoSchweiz erlaubte, die Zuverlässigkeit der Vorhersagen zu verbessern», sagt Schulthess.
Mit der Datenflut umgehen
Die reine Rechengeschwindigkeit ist nicht matchentscheidend: Wenn die Auflösung der Modelle zunimmt, steigen die Datenmengen massiv an. Zudem benötigt und produziert die Wetter- und Klimaforschung sehr verschiedene Daten. Für den effektiven Durchsatz ist es ebenso entscheidend, dass die Rechner möglichst schnell auf die Daten zugreifen und die Resultate wieder auf Speichermedien ausschreiben können. Die Rechenprozesse sind entsprechend zu organisieren, wobei die Speicherbandbreite maximiert und kostspielige Datentransfers vermieden werden. «Damit die neuen Wetter- und Klimamodelle nützliche Ergebnisse erzielen, müssen wir die gesamte Infrastruktur optimieren. Dafür wenden wir die Erfahrungen aus vielen Jahren Zusammenarbeit mit MeteoSchweiz und dem ETH-Bereich an», sagt Schulthess.
Dieser Artikel ist zunächst auf ETH-News erschienen.
Autor(in)
Florian
Meyer, ETH-News