Kolumne "Zur Sache"

Über Revolutionen in der Wettervorhersage

Prof. Dr. Martin Schultz

Ohne Frage: die Wettervorhersage hat sich seit den 1960er Jahren immer weiter verbessert. Denn parallel zu den technischen Revolutionen in der Computertechnologie gelingt es den Wetter- und Klimamodellen immer schneller immer größere Datenmengen in die Berechnungen des Wettergeschehens einzubeziehen. Mit der heutigen Nutzung der KI ist dieser Prozess noch lange nicht zu Ende.

Ein Editorial von Prof. Dr. Martin Schultz, Forschungszentrum Jülich

Das kann ärgerlich sein: Die Wettervorhersage prognostiziert Sonnenschein und trotzdem regnet es. Oder das Grillfest wird abgesagt, weil Regen und Wind angekündigt wurden – und dann wird es doch ein herrlicher Sommerabend. Nichtsdestotrotz sind Wettervorhersagen und auch Klimasimulationen seit ihren Anfängen in den 1960er Jahren immer besser geworden und in der Regel kann man ihren Vorhersagen Glauben schenken.


Was steckt hinter dieser Entwicklung? Zum einen ist die verfügbare Datenmenge in den vergangenen 60 Jahren zunehmend gewachsen: So geben uns zum Beispiel flächendeckende Messungen von Satelliten viel genauere Informationen über den Ist-Zustand der Atmosphäre. Sie erlauben es auch, physikalische Prozesse in den Wettermodellen präziser abzubilden. Und natürlich haben die Wissenschaftler immer mehr über die Physik des Wetters herausgefunden. Daneben gibt es aber einen weiteren, nicht so offensichtlichen Aspekt: Mit immer leistungsstärkeren Superrechnern lassen sich immer bessere Algorithmen und Methoden entwickeln.


Die Wetter- und Klimamodelle der 1960er bis zu den frühen Nullerjahren profitierten davon, dass Computerchips immer kleiner und leistungsstärker wurden, schreibt Peter Bauer, bis vor Kurzem Wissenschaftler am Europäischen Zentrum für mittelfristige Wettervorhersagen (EZMW) und Leiter der europäischen Destination Earth Initiative, und seine Koautoren in zwei Fachartikeln der renommierten Zeitschrift „Nature“ [1] [2]. Dadurch ließen sich Modelle mit immer feinerer Auflösung rechnen und mehr Prozesse einbeziehen. Mehrere Rechnungen derselben Wettersituation mit leicht geänderten Anfangsbedingungen, sogenannte Ensemble-Simulationen, helfen zusätzlich, die Unsicherheiten der Vorhersage zu bestimmen. Bauer nennt diese Entwicklung die „stille Revolution der Wettervorhersage“.


Ab etwa 2006 verlangsamte sich die Miniaturisierung der Computertechnologie. Es mussten neue Konzepte entwickelt werden, um die Computerleistung weiter zu beschleunigen. Die Lösung bestand in einer geänderten Rechnerarchitektur: Heutige Supercomputer arbeiten mit Vielkern-Prozessoren, zum Beispiel Grafikprozessoren, die sehr viele gleiche Rechenabläufe parallel durchführen. Das und die gleichzeitige Weiterentwicklung von Speichersystemen erforderte, dass Wetter- und Klimamodelle neu konzipiert werden mussten, um auf den Höchstleistungsrechnern zu laufen und die verfügbare Rechnerleistung auszunutzen. Diese „digitale Revolution der Erdsystemwissenschaften“ ist immer noch in vollem Gang. Dafür brauchen wir dringend eine verstärkte Zusammenarbeit zwischen Klimaforschern und Informatikern, die auch in den Lehrkonzepten von Universitäten verstärkt berücksichtigt werden sollte.


Einen weiteren Schub für die Wettervorhersage brachten KI-Modelle vor etwa zwei Jahren. Gleich vier wegweisende Arbeiten [1] [2] [3] [4] rüttelten die Welt der Meteorologen heftig durch. Sie zeigten nämlich, dass mithilfe großer KI-Modelle eine noch bessere Wettervorhersage möglich ist als mit den klassischen Modellen. Diese „KI-Revolution“ wird aktuell in verschiedenen Wetterdiensten weltweit umgesetzt. Dabei ist faszinierend, mit welch atemberaubender Geschwindigkeit die KI-Modelle weiterentwickelt und verbessert werden. Sie sind zwar sehr aufwendig zu trainieren, aber in der Anwendung um den Faktor 1000 billiger und schneller als klassische Modelle. Das bedeutet aber nicht, dass klassische Modelle unmittelbar überflüssig werden. Sie werden aktuell vor allem noch benötigt, um Trainingsdaten für die KI-Modelle zu generieren. Dies gilt vor allem für den neuesten Trend der KI-Modellentwicklung, die sogenannten Basismodelle (foundation models), die nochmal eine deutliche Qualitätssteigerung versprechen. Diese Modelle werden mit verschiedenen Datensätzen in unterschiedlichen Auflösungen trainiert und können daher noch mehr Details des Wettergeschehens erlernen.


Die KI hat erhebliche Auswirkungen auf die Anwendung der klassischen Modelle und eröffnet völlig neue Möglichkeiten. So können Unsicherheiten bei den Vorhersagen besser bestimmt, oder schnell neue Vorhersagen gerechnet werden, um zum Beispiel die Entwicklung von Extremwetterereignissen besser zu überwachen. In Zukunft könnten auch ganz neue Datenquellen in die Wetter- und Klimamodellierung integriert werden, zum Beispiel Börsendaten, Social-Media-Nachrichten, Urlaubsfotos und so weiter. Es gibt auch schon Pläne, die Interaktion mit den Modellen benutzerfreundlicher zu gestalten, etwa indem sie automatisch eine Wetterwarnung als Audio-Nachricht auf Smartphones schicken oder der Chatbot die maßgeschneiderte Vorhersage entlang der Reiseroute für den Urlaub liefert.


Während solche Zukunftsszenarien für die Wettervorhersage fast schon greifbar sind, stößt die Aussagekraft der Klimamodellierung mittels KI auch an Grenzen. Der Grund ist einfach: KI-Modelle entwickeln ihr „Verständnis“ des Klimasystems aus dem Erlernen vergangener Muster. Durch den Klimawandel ergeben sich aber neuartige Wetterkonstellationen, die es in der Vergangenheit nicht gab. Daher ist die Fähigkeit der KI-Modelle begrenzt, Rückschlüsse aus den Daten der Vergangenheit zu ziehen, die Prognosen für die Zukunft erlauben. Wie man trotzdem die Vorteile der KI-Modelle für die Klimaforschung nutzen kann, wird derzeit intensiv überlegt und diskutiert. Aktuell zeichnet sich ab, dass es hierzu vermutlich eine Kombination aus klassischen und KI-Modellen erfordern wird – sogenannte hybride Modelle. Wie diese aussehen werden, bleibt abzuwarten.


Zum Autor

Prof. Dr. Martin Schultz ist Leiter der Forschungsgruppe Earth System Data Exploration und Co-Leiter der Abteilung Large Scale Data Science beim Forschungszentrum Jülich sowie Universitätsprofessor für Computational Earth System Science an der Universität zu Köln.

 

12.06.2024

Bildnachweis: Ralf-Uwe Limbach

Zurück

© 2024 DKK - alle Rechte vorbehalten