Um bis 2050 klimaneutral zu werden, hat die Europäische Union zwei ehrgeizige Programme gestartet: „Green Deal“ und „Digital Strategy“. Als eine Schlüsselkomponente für die erfolgreiche Umsetzung haben Klimawissenschaftler und Informatiker die Initiative „Destination Earth“ lanciert, die Mitte dieses Jahres starten wird und bis zu zehn Jahre laufen soll. Während dieses Zeitraums soll ein hochpräzises digitales Modell der Erde entstehen, ein digitaler Zwilling der Erde, um die Klimaentwicklung und Extremereignisse räumlich und zeitlich bestmöglich abzubilden.
Realitätsnahe Abbildung
In den digitalen Zwilling sollen kontinuierlich Beobachtungsdaten einfließen, um das digitale Erdmodell zur Überwachung der Entwicklung und zur Vorhersage möglicher zukünftiger Trajektorien (Entwicklungspfade) fortlaufend zu präzisieren. Neben den herkömmlich für Wetter- und Klimasimulationen genutzten Beobachtungsdaten wollen die Forscher neue, auch für das Klimasystem relevante Daten menschlicher Aktivitäten in das Modell integrieren, so dass das virtuelle „Erdsystem-Modell“ die gesamten Prozesse an der Erdoberfläche, den Einfluss des Menschen in Bezug auf das Wasser-, Nahrungs-, und Energie-Management, einschließlich der Prozesse im physischen Erdsystem, möglichst realitätsnah abbildet.
Informationssystem zur Entscheidungsfindung
Mit dem digitalen Zwilling der Erde soll ein Informationssystem entstehen, das Szenarien entwickelt und testet, die eine nachhaltigere Entwicklung aufzeigen und damit die Politik besser informieren. „Wenn man in Holland beispielsweise einen zwei Meter hohen Deich plant, kann ich die Daten in meinem digitalen Zwilling durchspielen und überprüfen, ob der Deich aller Voraussicht nach auch im Jahr 2050 vor zu erwartenden Extremereignissen schützt“, sagt Peter Bauer, stellvertretender Direktor für Forschung am Europäischen Zentrum für mittelfristige Wettervorhersagen (ECMWF) und Mitinitiator von Destination Earth. Auch für die strategische Planung von Frischwasser- und Lebensmittelversorgung oder Windfarmen und Solaranlagen soll der digitale Zwilling genutzt werden.
Treibende Kräfte hinter „Destination Earth“ sind das ECMWF, die Europäische Weltraumorganisation (ESA), und die Europäische Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT). Zusammen mit weiteren Klimawissenschaftlern treibt Bauer die klimawissenschaftlichen und meteorologischen Aspekte des digitalen Zwillings der Erde voran. Dabei setzen die Experten auf das Know-how von Informatikern der ETH Zürich und des Nationalen Hochleistungsrechenzentrums der Schweiz (CSCS), namentlich auf die ETH-Professoren Torsten Hoefler, vom Institut für Hochleistungsrechnersysteme und Thomas Schulthess, Direktor des CSCS.
Um diesen großen Schritt der digitalen Revolution zu schaffen, brauche es die Vermählung der Erdwissenschaften mit den Computerwissenschaften, betont Bauer. In einer in Nature Computational Science erschienenen Publikation diskutiert nun das Team aus Forschern der Erd- und Computerwissenschaften, mit welchen konkreten Maßnahmen sie diese „digitale Revolution der Erdsystemwissenschaften“ voranbringen möchten, wo sie die Herausforderungen sehen und wo mögliche Lösungen zu finden sind.
Wetter- und Klimamodelle als Grundlage
In der Publikation blicken sie auf die seit den 1940er Jahren stetige Entwicklung der Wettermodelle zurück -eine Erfolgsgeschichte, die im Stillen stattfand. Die Meteorologen leisteten sozusagen Pionierarbeit bei Simulationen von physikalischen Prozessen auf Großrechnern. Als Physiker und Computerwissenschaftler ist Schulthess deshalb davon überzeugt, dass die heutigen Wetter- und Klimamodelle sich ideal dafür eignen, auch anderen wissenschaftliche Disziplinen völlig neue Wege aufzuzeigen, wie man Supercomputer effizient nutzen kann.
In der Vergangenheit wurden in der Wetter- und Klimamodellierung unterschiedliche Ansätze verfolgt, um das Erdsystem zu simulieren. Während Klimamodelle eine sehr breite Palette physikalischer Prozesse abbilden, vernachlässigen sie typischerweise kleinräumige Prozesse, die jedoch für die Wettervorhersagen, die sich auf eine geringere Anzahl von Prozessen konzentrieren, unerlässlich sind. Der digitale Zwilling wird beide Bereiche zusammenführen und hochauflösenden Simulationen ermöglichen, die die komplexen Prozesse des Erdsystems abbilden. Doch um das zu erreichen, so die Wissenschaftler, gelte es die Codes der Simulationsprogramme auf die neuen Technologien, die eine wesentlich höhere Rechenleistung versprechen, anzupassen.
Da die Code-Entwicklung aus Sicht der Informatik jahrzehntelang stagnierte, lassen sich mit den heute zur Verfügung stehenden Rechnern und Algorithmen die hochkomplexen Simulationen kaum in der geplanten extrem hohen Auflösung von einem Kilometer durchführen. Die Klimaforschung profitierte davon, dass sie durch neue Prozessorgenerationen mehr Leistung gewinnen konnte, ohne ihre Programme grundlegend ändern zu müssen. Dieser kostenlose Leistungsgewinn mit jeder neuen Prozessorgeneration kam vor etwa 10 Jahren ins Stocken. Die Folge ist, dass heutige Programme oft nur noch 5 Prozent der Leistung herkömmlicher Prozessoren (CPU) nutzen können.
Um die notwendigen Verbesserungen zu erreichen, betonen die Autoren die Notwendigkeit des Co-Designs, das heißt, der gemeinsamen und gleichzeitigen Entwicklung von Hardware und Algorithmen, wie es das CSCS in den letzten zehn Jahren erfolgreich demonstriert hat. Sie schlagen vor, besonderes Augenmerk auf generische Datenstrukturen, optimierte räumliche Diskretisierung des zu berechnenden Gitters und Optimierung der Zeitschrittlängen zu legen. Weiterhin schlagen die Wissenschaftler vor, die Codes zur Lösung des wissenschaftlichen Problems von den Codes zu trennen, die die Berechnung auf der jeweiligen Systemarchitektur optimal durchführen. Diese flexiblere Programmstruktur würde einen schnelleren und effizienteren Wechsel auf zukünftige Architekturen ermöglichen.
Profitieren von künstlicher Intelligenz
Großes Potenzial sehen die Autoren auch in der künstlichen Intelligenz (KI). Sie kann beispielsweise für die Datenassimilation oder die Verarbeitung der Beobachtungsdaten und für die Darstellung von unsicheren physikalischen Prozessen in den Modellen oder zur Datenkomprimierung genutzt werden. KI ermöglicht somit, die Simulationen zu beschleunigen und die wichtigsten Informationen aus großen Datenmengen herauszufiltern. Die Forscher gehen davon aus, dass der Einsatz von maschinellem Lernen jedoch nicht nur die Berechnungen effizienter macht, sondern auch die physikalischen Prozesse besser beschreiben kann.
Die Wissenschaftler sehen ihr Strategiepapier als Ausgangspunkt für den Weg zu einem digitalen Zwilling der Erde. Unter den heute und in naher Zukunft zur Verfügung stehenden Rechnerarchitekturen identifizieren sie auf Graphikprozessoren (GPU) beruhende Supercomputer als die erfolgversprechendste Option. Sie schätzen, dass der Betrieb eines digitalen Zwillings in vollem Umfang ein System mit circa 20'000 GPU erfordert, das schätzungsweise 20MW Stromleistung benötigt. Sowohl aus ökonomischer als auch aus ökologischen Gründen sollte ein solcher Rechner an einem Ort betrieben werden, an dem CO2-neutral erzeugter Strom in ausreichender Menge zur Verfügung steht.