In einem Spiegel-Gastbeitrag nimmt Stefan Rahmstorf Stellung zu den Klimafragen, die auf der Internetseite klimafragen.org veröffentlicht wurden. Das ist zunächst einmal erfreulich. Zwar richten sich unsere sechzehn Klimafragen in erster Linie an die politischen Entscheidungsträger, die in Folge des Klimawandels bereits mit energiepolitischen Weichenstellungen in das Leben der Bürger eingegriffen haben und in einer Demokratie diesen auch rechenschaftspflichtig sind. Dennoch begrüßen wir selbstverständlich jede Antwort von Seiten der Fachwissenschaft und besonders des diesbezüglich in Deutschland tätigen Potsdam-Instituts für Klimaforschung. Man konnte sich beim Lesen der Antwort Rahmstorfs jedoch nicht des Eindrucks erwehren, dass eine solche Diskussion nicht unbedingt auf Gegenliebe stößt. Erfreulicherweise enthielt Prof. Rahmstorfs Kommentar auch einige inhaltliche Antworten, die wir gerne aufgreifen.
Schwierigkeit von Klimaprognosen
Zunächst sei eingeräumt, dass die Übersetzung von „future climate state“ mit „Klimaentwicklung“ möglicherweise nicht treffend ist. Insofern danken wir Professor Rahmstorf für den Hinweis und erkennen an, dass der IPCC offenbar davon ausgeht, dass die langfristige Prognose grundlegender Entwicklungen, ganz im Gegensatz zur Vorhersage konkreter lokaler Klimabedingungen, kurzfristiger Veränderungen oder gar von spezifischen Wetterereignissen, wie Dürren oder Hurrikanen, möglich sein kann.
Der Behauptung, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben…“ können wir allerdings nicht folgen.Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die „Hiatuspause“ von 1998 -2012 vorher rechnerisch dargestellt werden. Und wie der letzte IPCC-Bericht zeigt, erhöhten sich trotz eines erheblichen CO₂-Anstiegs die Globaltemperaturen in den letzten Jahren weit weniger, als aus nahezu sämtlichen Modellrechnungenerwartet worden war (vgl. dort Grafik 9.8).
Und schließlich konterkariert auch eine weitere lesenswerte Darstellung durch einen ausgewiesenen Experten die Behauptung von der „korrekten Vorhersage“. Sie findet sich in der Spiegel-Ausgabe vom 22. März 2019 und hat den Titel:
„Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. […] Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. […] Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“
Wir vermissen in Professor Rahmstorfs Ausführungen schmerzlich quantifizierbare Äußerungen zu der Verlässlichkeit im Sinne eines wissenschaftlichen Bestätigungsgrades (oder eben des Fehlers beziehungsweise der Unsicherheit) der jeweiligen Modelle und Prognosen. Während beispielsweise die Erwärmung als solche als gut bestätigt angesehen werden kann, wäre es hilfreich, auch die Wahrscheinlichkeitsverteilung des errechneten Temperaturkorridors, sowie die Annahmen in den Modellen zu kennen, mit denen dies jeweils errechnet wird. Wir würden es sehr begrüßen, wenn hierzu die einschlägige Fachliteratur verfügbar gemacht würde, die dem interessierten Leser eine Vertiefung gerade auch im Hinblick auf die empirischen Befunde und die Grundlagen der jeweiligen Modellbildung erlaubt. Dies gilt insbesondere für die Fragestellung der Wolkenbildung in Abhängigkeit von Erdtemperatur, Höhenstrahlung, Vegetation und vielen weiteren Faktoren.
Von dort ausgehend gilt dieser Informationsbedarf für die in der Kausalkette folgenden und dann zwingend weniger gut bestätigen Klimafolgen natürlich um so mehr. Wie fällt die Bilanz negativer Folgen im Vergleich zu eher positiven wie dem „Global Greening“ tatsächlich aus und wie belastbar sind diese Abschätzungen? Wie wirkt sich das Global Greening als CO2-Senke konkret aus und wie wird es in den Modellen berücksichtigt? Wie entwickelt sich der Wassergehalt der Atmosphäre und in welchem Verhältnis stehen hier kühlende gegenüber zusätzlich erwärmenden Auswirkungen?
Fehlen von Qualitätskriterien
Derzeit sind für Klimamodelle nicht einmal einheitlich standardisierte Werkzeuge, Methoden und Dokumentationen üblich. Auch der in der EU übliche „Open Access“ – Ansatz gilt nicht. Nach diesem Ansatz müssten die Codes der Simulationsprogramme offengelegt werden, denn sie können gravierende Fehler enthalten. Außerdem müssten sämtliche Eingangsdaten für die Modelle offengelegt werden. Bei Offenlegung wäre der übliche Peer Review und eine Wiederholbarkeit und damit Überprüfbarkeit der Ergebnisse möglich.
Die Qualität der Modelle und der Simulationen sollte daran geprüft werden, dass sie zuverlässig die Messergebnisse der letzten Jahre reproduzieren können (Falsifikation).
Simulationen und Modelle sind grundsätzlich nur dann seriös, wenn sie nachvollziehbar in Hinblick auf Quantität und Genauigkeit Fehlertoleranzen angeben können. Dies ist bisher nicht möglich, aber gerade dann besonders verheerend, wenn ein minimaler Anfangsfehler sich über die Zeitdauer zu ungeheuren Fehlern aufschaukelt. Hier ist zunächst Forschungsbedarf gegeben. Das hat die EU offenbar erkannt, und möchte nun im Rahmen des „Green Deals“ Kriterien für Modellierungen und Simulationen als verbindliche Qualitätsstandards installieren, damit sowohl die politischen Entscheidungsträger wie auch die Öffentlichkeit sich darauf verlassen können, dass Entscheidungen auf der Grundlage einheitlicher und hoher Qualitätsstandards erfolgen.
Hier drängen sich uns jedoch zwei Fragen auf: Wieso werden nicht zunächst diese Qualitätsstandards implementiert, dann die Klimamodelle anhand dieser Standards überprüft und erst dann, wenn sich diese als valide erwiesen haben, ein Umbau der EU – Staaten im Sinne einer „Großen Transformation“ im Rahmen des „Green Deals“ in Betracht gezogen? Erst einschneidende Maßnahmen zu ergreifen auf einer Entscheidungsgrundlage, die sachlich zutreffend als unsicher erkannt wurde und hinterher die Entscheidungsgrundlage zu überprüfen, ist schon vom Ansatz her kein sinnvolles Vorgehen.
Und wieso werden die Wirksamkeit und die Folgen der im Rahmen der „Großen Transformation“ geplanten Maßnahmen nicht ebenso modelliert und simuliert wie der Klimawandel, um abschätzen zu können, welche Risiken und Nebenwirkungen diese haben? Schließlich hilft es niemandem, wenn die Medizin gegen die Krankheit verheerendere Konsequenzen hat als die Krankheit selbst.
Nach unseren Beobachtungen sind sich Politiker dessen nicht bewusst. Unsere erste Frage zielt darauf ab, diesen Umstand zu verdeutlichen. Er ändert nach unserer Meinung die Bewertungsgrundlage für die etablierte Klimapolitik fundamental. Und über den geeigneten Umgang mit solchen Unsicherheiten hat eine gesellschaftliche Debatte zu befinden, deren Ergebnis die Wissenschaft nicht vorwegnehmen kann und darf.
Meeresspiegelanstieg
Die Erderwärmung führt unstreitig zu einem Meeresspiegelanstieg, dieser ist aber beherrschbar, zumal er sich über sehr lange Zeiträume verteilt. Er begründet weder einen Notstand noch gar eine Katastrophenerzählung. Daran ändert sich selbst bei Annahme einer Nichtlinearität des Anstiegs nichts Grundsätzliches. Gemäß der im neuesten Bericht des Weltklimarats IPCC zu den Ozeanen und Eismassen zitierten Szenarien könnte der Meeresspiegel im Jahr 2100 um 0,29 bis 1,1 Meter höher liegen als im Jahr 2005 (ersteres entspricht dem aktuellen Anstieg und unserem Szenario), wobei die Nähe des oberen Wertes nur in entlang eines mittlerweile als unwahrscheinlich einzuschätzenden Emissionspfades mit einem erheblich ansteigenden Treibhausgasausstoß denkbar erscheint. Ein mittlerer Wert sind dem IPCC zufolge 60 cm. Die meisten Hafenstädte werden ihre Kaimauern aber leicht um einen halben Meter erhöhen können, ebenso die Küstengebiete ihre Deiche.
Und wie Professor Rahmstorf auf eine Prognose abzustellen, nach der bis 2300 (!) ein Anstieg von ein bis vier Metern erfolgen wird, erscheint uns gewagt. Denn welche technischen Möglichkeiten der Mensch in 300 Jahren zur Verfügung hat, sowohl was die CO2-freie Energieerzeugung als auch Geo-Engineering-Maßnahmen angeht, dürfte sich unserem heutigen Vorstellungsvermögen schlicht entziehen.
Extremwetterereignisse
Professor Rahmstorfs weitere Ausführungen zu Extremwetterereignissen als vermeintliche Folge des Klimawandels unterschlagen mindestens das Fehlen ausreichend langer Zeitreihen geeigneter Güte, die allein eine Aussage der Form „wird häufiger oder schwerer“ rechtfertigen. Das IPCC selbst argumentiert in seinem aktuellen fünften Sachstandsbericht deutlich vorsichtiger. Es sieht zwar Anzeichen für eine Zunahme von Starkregen in Nordamerika, Mittelamerika und Europa, aber ebenso für eine Abnahme in Südaustralien und Westasien. Auch für Hitzewellen, Dürren, Wirbelstürme, Gewitter, Hagel, Sturmfluten und sonstige Überschwemmungsereignisse konnte das IPCC bislang keine validen globalen Trends identifizieren. Extremes Wetter, das sollte man sich abschließend vor Augen führen, hat es schon immer gegeben.
Empirische Tatsache gerade auch des letzten Jahrzehnts ist, dass die Weltbevölkerung steigt, die Zahl der Armen sinkt und der Hunger zurückgedrängt wird. Das klingt eher nach Klima-Optimum als nach Klima-Katastrophe. Empirische Tatsache ist ferner, dass über weite Strecken der erdgeschichtlichen Vergangenheit weit höhere Durchschnittstemperaturen und CO2-Konzentrationen als heute herrschten, die sich positiv auf Flora und Fauna auswirkten (kambrische Explosion, Dinosaurierzeitalter).
Und wie belastbar sind Studien, wie die von Professor Rahmstorf erwähnte PNAS-Untersuchung zum Einfluss des Klimawandels auf den Bürgerkrieg in Syrien? Bei letzterer werfen wir unumwunden die Frage auf, ob überhaupt noch von Wissenschaft im Wortsinne gesprochen werden kann, wenn man sich auf ex-post-Spekulationen einlässt, die sich der Möglichkeit der Falsifikation komplett entziehen. Erkennt die etablierte Klimaforschung wirklich nicht, wie sehr sie ihrer eigenen Sache schadet, wenn sie solche Hypothesen in einem Atemzug mit gut bestätigten Fakten nennt, wie der Tatsache der Erwärmung als solcher?
Unsere Motivation
Deshalb stellen wir kritische Fragen, die auch dann valide sind, wenn man mit unseren Prämissen nicht übereinstimmt oder diese sich als unzutreffend herausstellen sollten. Das beantwortet auch die von Professor Rahmstorf aufgeworfene Frage nach unserer Motivation.
Ausweislich des WGBU-Gutachtens von 2011, daser mitverantwortet hat, empfiehlt er der Gesellschaft eine „Große Transformation“, mit der demokratische Prozesse zu Gunsten autoritärer Entscheidungen einer angemaßten Elite ausgehebelt werden sollen. Das hinterfragen wir. Der Bürger hat ein Recht zu erfahren, warum die deutschen Eliten sich wieder einmal berufen fühlen, auf der internationalen Bühne einen Sonderweg zu beschreiten, denn vergangene Exkursionen dieser Art waren eher nicht von Erfolg gekennzeichnet.
Sollten unsere Fragen eine fruchtbare, wenn auch nicht immer harmonische Diskussion wenigstens auf nationaler Ebene in Gang bringen, so würde das niemand mehr begrüßen als wir. Wir nehmen für uns in Anspruch, über die Offenheit zu verfügen, dem jeweils besseren Argument zu folgen, wenn es uns zur Kenntnis gebracht wird. Wir warten aber nach wie vor auf Antworten, gerade auch von denen, die auf die Bürger „zugehen“ bzw. diese „mitnehmen“ und ihre Politik „besser erklären“ wollen. Wir laden Professor Rahmstorf ein, uns diese sechzehn Antworten zu geben.
Titus Gebel und Peter Heller