Meteorologie und KI
Wie Künstliche Intelligenz Wettervorhersagen optimiert
Präzisere Wetterprognosen mit Künstlicher Intelligenz: Dass soll eine Anwendung der Google-Tochter DeepMind möglich machen. Ein deutscher Meteorologe sieht KI als Ergänzung gängiger Methoden.
Von Markus Brauer/dpa
Genauere, schnellere und verlässlichere Wetterprognosen: Das soll ein neues KI-Modell der Google-Tochter DeepMind einer im Fachmagazin „Nature“ veröffentlichten Studie zufolge möglich machen.
Today in @Nature, we’re presenting GenCast: our new AI weather model which gives us the probabilities of different weather conditions up to 15 days ahead with state-of-the-art accuracy. ☁️⚡ Here’s how the technology works. https://t.co/PWCNWbQnlUpic.twitter.com/6DTrmn64Jq — Google DeepMind (@GoogleDeepMind) December 4, 2024
DWD: KI hat viel Potenzial
Ein Experte des Deutschen Wetterdienstes (DWD) in Offenbach sagt, bei bestimmten Aspekten kämen KI-Vorhersagesystemen noch nicht an klassische, physikalisch-basierte Modellen heran. Deswegen seien KI-Modelle als Ergänzung zu sehen, nicht als Ersatz.
Roland Potthast, der beim DWD die Numerische Wettervorsage leitet, bezeichnet die Studie als „wichtigen Schritt“. Solche Modelle hätten viel Potenzial, das nun erschlossen werden müsse. Die Ansätze von Google und weiteren Tech-Unternehmen könnten Wetterdienste „ergänzen, inspirieren und weiterbringen“. So könnten der Allgemeinheit immer bessere Vorhersagen und Warnungen bereitgestellt werden.
Bisherige Wettervorhersagen werden übertroffen
Entwickelt wurde die maschinell lernende Wettervorhersage-Methode namens „GenCast“ von einem Team um Ilan Price von dem in London ansässigen Unternehmen DeepMind. Die Studie wurde ausschließlich von DeepMind-Mitarbeitern durchgeführt, für das Fachblatt dann aber durch unabhängige Gutachter bewertet.
Our previous AI model was able to provide a single, best estimate of future weather. But this can't be predicted exactly. So GenCast takes a probabilistic approach to forecasting. It makes 50 or more predictions of how the weather may change, showing us how likely different… pic.twitter.com/gZSMCMLHTz — Google DeepMind (@GoogleDeepMind) December 4, 2024
Das Team kommt zu dem Ergebnis, dass „GenCast“ die beste herkömmliche mittelfristige Wettervorhersage übertrifft. Das Modell sei zudem in der Lage, extreme Wetterlagen, die Zugbahn tropischer Wirbelstürme und die Entwicklung von Windstärken besser vorherzusagen.
Die KI wurde auf der Grundlage der Analysedaten von Wetterereignissen aus 40 Jahren (1979 bis 2018) trainiert. Im Anschluss testete die Forschungsgruppe, wie gut „GenCast“ das Wetter für 2019 prognostizieren konnte.
Globale 15-Tage-Vorhersagen
Gemeinhin gilt, dass Wettervorhersagen umso ungenauer werden, je weiter sie in die Zukunft blicken. „GenCast“ sei in der Lage, innerhalb von acht Minuten globale 15-Tage-Vorhersagen zu erstellen, heißt es.
Für solche mittelfristigen Prognosen galt bisher das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) weltweit als am genauesten. Bei der Vorhersage von 1.320 Windgeschwindigkeiten, Temperaturen und anderen atmosphärischen Merkmalen habe GenCast“ nun in über 97 Prozent besser abgeschnitten, so die Entwickler.
Dabei berechne „GenCast“ seine Vorhersagen nicht einmal, sondern insgesamt 50-mal pro Prognose. Entsprechend steige die Wahrscheinlichkeit der Vorhersage-Sicherheit. Das System verspreche eine höhere Genauigkeit, Effizienz und Zugänglichkeit in einem breiten Spektrum von Situationen, so das Team.
DWD testet eigenes KI-Modell
Der DWD teste derzeit ein eigenes KI-Modell, weitere seien in Arbeit, die als Ergänzung zu bisherigen Methoden genutzt werden sollen, erklärt Potthast. „Physikalisch basierte Modelle und KI-Modelle werden in der Vorhersagekette des DWD kombiniert, um jeweils auf jeder Zeitskala und für die angestrebten Vorhersage-Variablen – etwa Niederschlag, Temperatur, Winde, Druck, Feuchte, Böen, Eis-Übersättigung und vieles mehr - die bestmöglichen Vorhersagen bereitstellen zu können.“
Der DWD-Experte betont, KI als neues Werkzeug mache den Menschen nicht überflüssig. Aktuell sei sogar eher ein Mehrbedarf an Arbeitsleistung erforderlich, um die bisherige Qualität der physikalisch basierten Systeme weiterhin verlässlich zur Verfügung stellen zu können.
„Die KI-Modelle können diese Qualität, Breite, Vielfalt und Verlässlichkeit noch nicht leisten, sondern sind nur in ausgewählten Variablen oder Scores schneller oder besser.“ Es gebe aber eine sehr steile Lernkurve in dem Bereich.
KI beachtet Naturgesetze nicht
Wetter entstehe durch viele miteinander verbundene Prozesse, erläutert der DWD-Experte. „Physikalische Modelle, wie sie in der Wettervorhersage genutzt werden, halten sich an die Naturgesetze.“ Das mache ihre Vorhersagen stimmig und nachvollziehbar. „Maschinelle Lernmodelle funktionieren anders. Sie konzentrieren sich darauf, einzelne Werte möglichst genau vorherzusagen, ohne die Naturgesetze direkt zu beachten.“
Solche Modelle verteilten die das Wetter antreibende Energie – große Bewegungen wie Winde und kleine Details wie Turbulenzen – oft nicht so, wie das in der Natur passiere. In der Folge könne es zu Vorhersagen kommen, die auf den ersten Blick gut aussähen, aber in Wirklichkeit nicht ganz stimmten, besonders wenn das Wetter komplizierter werde. „Physikalische Modelle machen das besser, weil sie von Anfang an darauf ausgelegt sind, diese Zusammenhänge einzuhalten.“
Die ersten Wetterfrösche
Seit Urzeiten beobachten die Menschen das Wetter. Schon bei den steinzeitlichen Jägern hing von der richtigen Deutung der Jagderfolg ab. Als der Mensch sesshaft wurde, war die Kenntnis der Wetterabläufe für die Aussaat und Ernte überlebenswichtig.
Für die antiken Hochkulturen der Sumerer, Ägypter, Babylonier und Perser waren die Götter Urheber von allem, was vom Himmel kam: Blitz und Donner, Stürme und Überschwemmungen, Trockenheit und Regen, Hitze und Kälte.
Wetterkunde bei den alten Griechen
Der griechische Philosoph und Naturforscher Aristoteles (384-322 v. Chr.) war der erste, der den religiösen Mythen empirisch – also mit Erfahrungswissen und Experimenten – auf den Grund ging. Sein um 350 v. Chr. erschienenes Buch „Meterologica“ – die Lehre von den Himmelserscheinungen“ blieb über viele Jahrhunderte ein Standardwerk der Wetterkundler.
Mittelalter und Neuzeit
Im Mittelalter und bis in die Neuzeit beruhte die Wettervorhersage vor allem aus Bauernregeln („Wie St. Martin führt sich ein, soll zumeist der Winter sein“), die aus der Beobachtung regionaler Wetterlagen mittelfristige Vorhersagen für sogenannte Lostage in Reimform trafen.
Erfindung des Thermometers
Mit der Erfindung des Thermometers 1592 durch den Physiker Galileo Galilei, des Barometers 1643 durch seinen Schüler Evangelista Torricelli und des Hygrometers, das die Luftfeuchtigkeit misst, hatte man die wichtigsten Messinstrumente in der Hand, um den Zustand der Atmosphäre an einem bestimmten Punkt der Erde zu erforschen.
Die ersten Wetterkarten
1826 veröffentlichte der Physiker und Astronom Heinrich Wilhelm Brandes (1777-1834) die ersten Wetterkarten. Damit begründete er die moderne Wetterkunde, die auch als synoptische Meteorologie bezeichnet wird. Sie befasst sich mit dem aktuellen Wettergeschehen, das sich hauptsächlich in der Troposphäre abspielt – der untersten bis zu 15 Kilometer dicken Schicht der Erdatmosphäre.
Die Messdaten werden an verschiedenen Orten gleichzeitig erhoben, verglichen und zu einer Synopse vereint. Aus dieser Zusammenschau lokaler Phänomene werden Aussagen über die Entwicklung des Wetters in den nächsten Tagen abgeleitet.
Moderne Wetterforschung
Das Prinzip ist bis heute gleich geblieben, nur dass die Werte nicht mehr manuell abgelesen werden, sondern das ganze Verfahren automatisiert ist. Heute sammeln weltweit rund 11.000 Wetterstationen an Land, dazu Wetterschiffe, Wetterballone, Radiosonden, Satelliten, Flugzeuge und Bojen Daten von der Erdoberfläche bis in die höheren atmosphärischen Schichten.
Diese und andere über den ganzen Planeten verstreuten Messgeräte sind miteinander vernetzt, so dass die aktuellen Wetterinformationen überall von den Meteorologen abgerufen werden können. Das Großrechenzentrum des DWD in Offenbach am Main empfängt, verarbeitet und speichert die weltweiten Wettermeldungen und erstellt daraus mehrmals täglich die Vorhersagen.
Numerische Meteorologie
Zwei Entdeckungen machten es überhaupt erst möglich, die ungeheure Flut an Daten zu ordnen: 1904 beschrieb der norwegische Physiker und Mathematiker Vilhelm Bjerknes die dynamischen Vorgänge in der Atmosphäre mittels mathematisch-physikalischer Gleichungen. Damit war die Basis für die moderne numerische Wettervorhersage geschaffen. Auf der Grundlage aktueller Wetterdaten berechnet sie den thermodynamischen Zustand für einen späteren Zeitpunkt.
Das Problem war nur, dass ganze Legionen von Mathematikern monatelang damit beschäftigt gewesen wären, um das Wetter auch nur wenige Stunden im Voraus zu berechnen. Erst mit der Erfindung des Computers konnten die komplexen und vielfach rätselhaften Abläufe in der Atmosphäre mit Hilfe aufwendiger mathematischer Modelle simuliert und die ungeheure Datenmenge verarbeitet werden.
Der erste rein elektronische Universalrechner Eniac erstellte im März 1950 die ersten rechnergestützten 24-Stunden-Wettervorhersagen. Dieses Ungetüm, das der US-Armee gehörte, bestand aus fast 17 500 Elektronenröhren, bedeckte eine Fläche von zehn mal 17 Metern und wog 27 Tonnen.
Wetter-Superrechner
Wie weit die Meteorologie in den vergangenen Jahrzehnten vorangeschritten ist, zeigt sich besonders am Stand der Technik. Das moderne Rechensystem des Deutschen Wetterdienstes besteht aus zwei Superrechnern, die kaum größer sind als ein paar Küchenschränke und bis zu 1,1 Billiarden Rechenschritte pro Sekunde ausführen können – so viel wie 30.000 vernetzte Heim PCs.
Um festzustellen, wie das Wetter wird, muss man umfassende Messwerte haben. Selbst der beste Superrechner kann nur dann Prognosen ausspucken, wenn ihm die meteorologische Ausgangssituation bekannt ist. Wie also funktioniert eine Wettervorhersage?
Computer-Simulationsmodelle
Die weltweiten, automatisch abgelesenen Wetterdaten von Strahlung, Temperatur, Wind, Feuchte und Luftdruck werden an das Offenbacher Rechenzentrum des DWD weitergeleitet, wo sie in die Wettervorhersage-Programme eingespeist werden.
Der DWD arbeitet mit drei Computermodellen (daneben gibt es eine Vielzahl weiterer nationaler Simulationsmodelle): ein Globalmodell für die ganze Erde, ein Regionalmodell für Europa und ein hochauflösendes Modell nur für Deutschland.
Um die anfallenden Daten zu berechnen, wird das entsprechende Gebiet gerastert. Der Computer überzieht es mit einem virtuellen Gitter, dessen Maschenbreite 2,8 Kilometer für Deutschland, sieben für Europa und 20 für den Globus beträgt.
Gleichzeitig wird die Atmosphäre in Stockwerke unterteilt. So entsteht ein dreidimensionales Bild vom aktuellen Wetter. Je kleiner die Maschenbreite ist, umso exakter sind die Vorhersagen – umso größer ist aber auch der Rechenaufwand. Irgendwann kommen selbst die stärksten Computer an ihre Grenzen, so dass die Prognosen immer ungenauer werden je weiter man in die Zukunft blickt.
Der menschliche Faktor
Am Ende muss der Mensch die Daten, Karten und Prognosen bewerten. Und da kommen die Meteorologen ins Spiel: Alle paar Minuten laufen die aktuellen Beobachtungen der Satelliten und des Wetterradars auf ihren Monitoren ein. Diese Daten vergleichen sie mit den Wetterkarten, die aufgrund der Computerprognosen erstellt wurden. Es ist Aufgabe dieser Experten, die gesamten Informationen zu beurteilen und daraus Wetter-Vorhersagen zu erstellen, die mehrmals täglich veröffentlicht werden.
Hauptaufgabe der staatlichen und privaten Wetterdienste ist es, Vorhersagen für die Öffentlichkeit und spezielle Nutzer zu treffen – wie den Schiffs- und Flugverkehr, Landwirte, Autofahrer oder Allergiker. Vor allem aber warnen sie vor wetterbedingten Gefahren wie Unwettern, Stürmen oder Starkregen.
Chaostheorie und Schmetterlingseffekt
Auch wenn die Vorhersagen immer genauer werden, wird die Trefferquote „niemals hundertprozentig sein, weil schon kleinste Schwankungen in der Atmosphäre das Wetter stark beeinflussen können“, heißt es seitens des DWD.
Die Atmosphäre ist ein chaotisches System, das von einer Vielzahl meteorologischer Kräfte bestimmt wird. Wie sich diese Vorgänge wechselseitig auswirken, ist nur annähernd zu bestimmen. Mit jedem Tag verlieren Wettervorhersagen an Genauigkeit. Seriöse Prognosen sind bis zu sieben Tagen möglich, grobe bis zu zehn Tagen.
Globale Datenwüsten
Kleinste Fehler oder Ungenauigkeiten in den Daten und Simulationen können eine Vorhersage komplett verfälschen. Hinzu kommt: Riesige Gebiete in Afrika, der Arktis und Antarktis sowie die Ozeane sind Datenwüsten, die nur unzureichend beobachtet werden. Deshalb verwendet der DWD und andere Wetterdienste heute die sogenannte Ensemble-Vorhersage: Der Computer berechnet parallel mehrere leicht abgewandelte Szenarien. Die wahrscheinlichste Vorhersage bildet schließlich die Grundlage für den offiziellen Wetterbericht.