ETH-Forschung
06.01.2021, 08:26 Uhr
Turbulenzen mit Künstlicher Intelligenz berechnen
Erstmals ist es Forschenden der ETH Zürich gelungen, die Modellierung von Turbulenzen zu automatisieren. Ihr Projekt verbindet Reinforcement-Learning-Algorithmen mit turbulenten Strömungssimulationen auf dem CSCS-Supercomputer «Piz Daint».
Wirbelstrukturen am Beginn des Übergangs zur Turbulenz durch Taylor-Green-Wirbel
(Quelle: CSE/lab ETH Zürich)
Für das Design eines Autos oder einer Herzklappe, für die Vorhersage des Wetters der nächsten Tage, oder um die Geburt einer Galaxie zurückzuverfolgen, ist die Modellierung und Simulation turbulenter Strömungen entscheidend. Die Strömungsmechanik beschäftigte bereits den griechischen Mathematiker, Physiker und Ingenieur Archimedes. Heute, rund 2000 Jahre danach, ist die Komplexität des Strömungsverhaltens noch immer nicht vollständig verstanden. Der Physiker Richard Feynman zählte Turbulenzen zu den wichtigsten ungelösten Problemen der klassischen Physik. Bis heute sind sie ein aktives Forschungsthema für Ingenieurinnen, Wissenschaftlerinnen und Mathematikerinnen.
Die Auswirkungen von turbulenten Strömen müssen Ingenieure berücksichtigen, wenn sie ein Flugzeug oder eine künstliche Herzklappe bauen. Meteorologinnen müssen sie berücksichtigen, wenn sie das Wetter vorhersagen, ebenso Astrophysiker, wenn sie Galaxien simulieren. Wissenschaftlerinnen und Wissenschaftler dieser Disziplinen modellieren seit über 60 Jahren Turbulenzen und führen Strömungssimulationen durch.
Turbulente Strömungen sind durch Strömungsstrukturen charakterisiert, die sich über einen grossen Bereich räumlicher und zeitlicher Grössenmassstäbe erstrecken. Für die Simulationen dieser komplexen Strömungsstrukturen gibt es zwei unterschiedliche Herangehensweisen. Die eine ist die direkte numerische Simulation (DNS), die andere die Large-Eddy-Simulation (LES).
Strömungssimulationen testen die Grenzen von Supercomputern
Die DNS lösen die für die Beschreibung von Strömungen zentralen Navier-Stokes-Gleichungen, mit einer Auflösung von Milliarden und manchmal Billionen von Gitterpunkten. Die DNS ist die genaueste Methode zur Berechnung des Strömungsverhaltens, aber leider ist sie für die meisten Anwendungen in der realen Welt nicht praktikabel. Denn um alle Details der turbulenten Strömungen zu erfassen, benötigen sie weit mehr Gitterpunkte, als in absehbarer Zukunft von irgendeinem Computer verarbeitet werden können.
Aus diesem Grund verwenden die Forscher in ihren Simulationen Modelle, um nicht jedes Detail berechnen zu müssen und trotzdem hohe Genauigkeit zu erreichen. Beim LES-Ansatz werden die grossen Strömungsstrukturen aufgelöst, während sogenannte «Closure Models» die feineren Strömungsskalen und deren Wechselwirkungen mit den grossen Skalen berücksichtigen. Die richtige Wahl des «Closure Models» ist entscheidend für die Genauigkeit der Ergebnisse.
Eher Kunst als Wissenschaft
«Die Modellierung dieser turbulenten «Closure Models» ist in den vergangenen 60 Jahren weitgehend einem empirischen Prozess gefolgt und ist nach wie vor eher eine Kunst als eine Wissenschaft», sagt Petros Koumoutsakos, Professor am Labor für Computational Science and Engineering der ETH Zürich. Koumoutsakos und sein Doktorand Guido Novati sowie sein ehemaliger Masterstudent (nun Doktorand an der Universität Zürich) Hugues Lascombes de Larousilhe schlagen deshalb eine neue Strategie zur Automatisierung des Prozesses vor: Künstliche Intelligenz (KI) nutzen, um aus dem DNS die besten turbulenten «Closure Models» zu lernen und sie dann auf die LES anzuwenden. Ihre Ergebnisse veröffentlichten sie in Nature Machine Intelligence.
Konkret entwickelten die Forscher neue Reinforcement Learning (RL) Algorithmen und kombinierten sie mit physikalischen Erkenntnissen, um Turbulenzen zu modellieren. «Vor 25 Jahren leisteten wir Pionierarbeit bei der Kopplung von KI und turbulenten Strömungen», sagt Koumoutsakos. Aber damals waren die Computer noch nicht leistungsfähig genug, um viele dieser Ideen zu testen. «In jüngerer Zeit haben wir auch erkannt, dass die gängigen neuronale Netzwerke zur Lösung solcher Probleme nicht geeignet sind, da das Modell die Strömung, die es ergänzen soll, aktiv beeinflusst», sagt der ETH-Professor. Die Forscher mussten deshalb auf einen anderen Lernansatz zurückgreifen, bei dem der Algorithmus lernt, auf bestimmte Muster im turbulenten Strömungsfeld zu reagieren.
Automatisierte Modellierung
Die Idee hinter Novatis und Koumoutsakos neuartigen RL Algorithmus für Large-Eddy-Simulationen ist, die Gitterpunkte, die das Strömungsfeld auflösen, als KI-Agenten zu verwenden. Die Agenten lernen «Closure Models» durch die Beobachtung von Tausenden von Strömungssimulationen. «Um solche Simulationen in grossem Massstab durchführen zu können, war es entscheidend, Zugang zum CSCS-Supercomputer "Piz Daint" zu haben», betont Koumoutsakos. Nach dem Training sind die Agenten frei, in der Simulation von Strömungen zu agieren, in denen sie vorher nicht trainiert wurden.
Das Turbulenzmodell lernt, während es mit der Strömung «spielt». «Die Maschine ‹gewinnt›, wenn die Ergebnisse von LES identisch sind mit denen von DNS, ähnlich wie wenn Maschinen lernen eine Schachpartie oder das Spiel GO zu spielen», sagt Koumoutsakos. «Während der LES führt die KI die Aktionen der ungelösten Skalen durch, indem sie nur die Dynamik der aufgelösten grossen Skalen beobachtet.» Die neue Methode übertrifft laut den Forschern nicht nur gut etablierte Modellierungsansätze, sondern kann auch über Gittergrössen und Strömungsbedingungen verallgemeinert werden.
Das Turbulenzmodell lernt, während es mit der Strömung «spielt». «Die Maschine ‹gewinnt›, wenn die Ergebnisse von LES identisch sind mit denen von DNS, ähnlich wie wenn Maschinen lernen eine Schachpartie oder das Spiel GO zu spielen», sagt Koumoutsakos. «Während der LES führt die KI die Aktionen der ungelösten Skalen durch, indem sie nur die Dynamik der aufgelösten grossen Skalen beobachtet.» Die neue Methode übertrifft laut den Forschern nicht nur gut etablierte Modellierungsansätze, sondern kann auch über Gittergrössen und Strömungsbedingungen verallgemeinert werden.
Der entscheidende Teil der Methode ist ein neuartiger, von Novati entwickelter Algorithmus, der identifiziert, welche der vorhergehenden Simulationen für jeden Strömungszustand relevant sind. Der so genannte «Remember and Forget Experience Replay»-Algorithmus (Merken- und-Vergessen-Erfahrung-Wiederholung-Algorithmus) übertrifft den Forschern zufolge die grosse Mehrheit der vorhandenen RL-Algorithmen bei mehreren Benchmark-Problemen, die über die Strömungsmechanik hinausgehen. Das Team geht davon aus, dass ihre neu entwickelte Methode nicht nur beim Bau von Autos und bei der Wettervorhersage von Bedeutung sein wird. «Für die meisten anspruchsvollen Probleme in Wissenschaft und Technik können wir nur die ‹grossen Massstäbe› lösen und die ‹feinen› modellieren», sagt Koumoutsakos. «Die neu entwickelte Methodik bietet einen neuen und leistungsfähigen Weg zur Automatisierung der Multiskalenmodellierung und zum Fortschritt der Wissenschaft durch eine vernünftige Nutzung der KI.»
Dieser Artikel ist zunächst auf ETH-News erschienen.
Autor(in)
Simone
Ulmer, ETH-News