Dienstag, 3. März 2009

Was Klimamodelle glaubwürdig macht

Vor nicht allzu langer Zeit hatte ich über einen Artikel von Andrew Dessler und seinen Kollegen geschrieben, in dem eine stark positive Wasserdampf-Temperatur-Rückkopplung aus Satellitendaten abgeleitet wurde. Inzwischen folgte auf diesen Artikel ein Übersichtsartikel in Science zusammen mit Steven Sherwood zum Stand der Rückkopplung von Wasserdampf und globaler Temperatur. Ich hatte schon im Sinn, etwas dazu zu schreiben, aber dann hatte ich einen Beitrag von Georg Hoffmann in seinem Blog gesehen, den ich so gut fand, daß ich nur darauf verlinken kann – wer es noch nicht getan hat, sollte sich Hoffmanns Darstellung unbedingt anschauen.

Das führt aber hin zu der allgemeineren Frage, mit der sich Dessler in einem Blog-Beitrag beschäftigt, dessen Inhalt ich hier etwas variiere: was macht alles die Klimamodelle glaubwürdig? Kritik an ihnen kann sehr oberflächlich daherkommen. Man könnte darauf verweisen, daß das Klima zu komplex sei, um es in Modellen zu beschreiben. Das ist ein Nicht-Argument. Man setzt gerade deshalb Modelle ein, weil bestimmte Sachverhalte so komplex sind, daß man sie nicht mehr geschlossen berechnen kann. Man versucht dann, mit den bekannten Daten und Gleichungen das Problem zu beschreiben, ist sich aber dessen bewußt, daß man nun mit einem Modell arbeitet, daß eine gewisse Idealisierung der Realität darstellt. Daraus resultieren Grenzen des Modells. Die Grenzen der Klimamodelle sind z.B., daß sie keine Vorhersagen im Sinne einer Wettervorhersage sein können. Man beschreibt nicht eine bestimmte Realisierung unserer Erde, sondern mögliche Realisierungen aus der Vielfalt möglicher Erden. Die Ergebnisse sind nicht durch die Anfangswerte der Simulation kontrolliert, wie bei der Wettervorhersage, sondern von den Randbedingungen der Klimasimulation, die nicht „die“ Erde, sondern eine „typische“ Erde beschreiben. Am besten nimmt man sehr viele Simulationen mit leicht veränderten Anfangsbedingungen und betrachtet dann das statistische Mittel, um eine „typische“ Erde und die zu erwartende Schwankungsbreite zu erhalten.

Wie sinnvoll ist es also, Ergebnisse eines Laufs eines Klimamodells mit den nächsten Jahren der Entwicklung des Erdklimas zu vergleichen? Kaum sinnvoll. Interessant ist nur der Vergleich von Klimatrends der gemessenen Daten über lange Zeiträume mit Modellergebnissen, gemittelt über viele Modelläufe eines Modells für diesen Zeitraum. Dann erhält man vielleicht mehr oder weniger übereinstimmende Trends z.B. der globalen Temperatur, weiß aber noch nicht, ob die Übereinstimmung aus den richtigen Gründen erfolgt.

Nun gibt es Validierungen der Klimamodelle anhand von historischen Daten. Immerhin stehen ja gemessene Temperaturdaten für die letzten ca. 150 Jahre zur Verfügung. Weil man hier das Ergebnis schon kennt, steht schnell der Vorwurf im Raum, das Modell sei doch nur getunt. Angesichts der komplexen Wirkungen diverser Stellschrauben eines Modells und der Kosten wiederholter Modelläufe ist der Vorwurf unfair, denn das Drehen an einer Stelle führt schnell zu schlechteren Ergebnissen an anderer Stelle und die Parametrisierungen der Modelle sind auch nicht beliebig wählbar.

Umso wichtiger ist es, einzelne Parameter der Modelle über geeignete Messungen festzulegen. Große Unsicherheiten sind hier die Wolkenparametrisierungen, die Aerosole und die Ankopplung der Ozeane und ihrer thermohalinen Zirkulation (das Absinken und Auftauchen von Wassermassen abhängig von ihrer relativen Dichte, die wiederum von Salzgehalt und Temperatur bestimmt wird). Hier kommt die wichtige Rolle von Beiträgen ins Spiel, wie sie Dessler und seine Kollegen erstellen. Sein Ergebnis ist, daß die Wasserdampf-Temperatur-Rückkopplung in den Satellitendaten den Modellergebnissen entspricht.
Besonders wichtig ist die Frage, ob es vielleicht eine starke negative Rückkopplung mit der globalen Temperatur gibt, die von den Modellen nicht berücksichtigt wird? Der Effekt wäre in diesem Fall, daß jede Temperaturänderung der Erde stark gedämpft würde. In dem Falle hätten wir allerdings große Schwierigkeiten zu erklären, wie es überhaupt möglich gewesen sein sollte, daß die geringfügigen Änderungen im Strahlungshaushalt durch ein leicht geänderte Neigung der Erdachse so starke Temperaturänderungen hervorrufen konnten wie den Wechsel zwischen Eiszeiten und Zwischeneiszeiten. Oder wie stark ein Vulkanausbruch wie der vom Pinatubo in den folgenden zwei Jahren die Erde abkühlen konnte. Die sehr geringe Möglichkeit, daß wir trotz all dieser Belege vielleicht eine starke negative Rückkopplung übersehen haben könnten zwingt das IPCC dazu, seine Berichte über den erwarteten Klimawandel im Konjunktiv abzufassen, aber mit Arbeiten wie denen von Dessler wird der Spielraum für unbekannte Faktoren immer stärker eingeengt.

5 Kommentare:

  1. Was macht es denn notwendig ist, die Glaubwürdigkeit von Klimamodellen zu betonen? Das hört sich so an, als wenn Sie Zweifeln daran ein gewisses argumentatives Gewicht zugestehen? Interessant!

    Zitat: "Man setzt gerade deshalb Modelle ein, weil bestimmte Sachverhalte so komplex sind, daß man sie nicht mehr geschlossen berechnen kann. Man versucht dann, mit den bekannten Daten und Gleichungen das Problem zu beschreiben, ist sich aber dessen bewußt, daß man nun mit einem Modell arbeitet, daß eine gewisse Idealisierung der Realität darstellt...."

    Wenn man sich dessen "bewusst" ist, welche Konsequenzen zieht man denn daraus?

    Wenn man vor der Komplexität des Sachverhalts "kapitulieren" muss (was ich als kluge Reaktion betrachte), dann bedeutet dies, dass auch nichts darüber gesagt werden kann, WIE STARK diese Idealisierung eigentlich ist - wie weit also die Modelle neben der Realität liegen.

    Dem versucht man, "durch Drehen an den Stellschrauben", wie Sie schreiben, entgegenzuwirken. Und durch eine Vielzahl von Modellvarianten.

    Erst mal nicht zu kritisieren, dieses Vorgehen. Doch wenn man den Grad der Idealisierung nicht kennt, wie will man dann sicher sein, dass mit den genannten "Hilfmassnahmen" der Realität überhaupt genügend Rechnung getragen wird?

    Welche Rolle spielen subjektive Faktoren bei der Parametrisierung der verschiedenen Modellvarianten eine Rolle? Oder wie glauben Sie verhindern zu können, dass subjektive Faktoren hier einfliessen?

    Wenn man dies bedenkt, ist es sehr kritisch zu sehen, dass von diesen Szenarien, die VIELLEICHT(!) einen Fingerzeig auf die Klimaentwicklung geben, konkrete umweltpolitische Empfehlungen abgeleitet werden, wie das IPCC es tut.

    ---
    Ein Modell bleibt ein Modell bleibt ein Modell ... oder etwa nicht?

    AntwortenLöschen
  2. Modelle müssen ihre Glaubwürdigkeit immer erst nachweisen. Deshalb ist die Validierung von Modellen oder ihren Komponenten sehr wichtig. Im IPCC-Bericht findet man ab Kapitel 8 in dem Bericht der Arbeitsgruppe 1 im 4. Assesment Report Erläuterungen der Modelle und der vorgenommenen Validierungen. Leugner argumentieren üblicherweise so, als gäbe es solche Validierungen nicht und seien Modelle per se unbewiesen und unglaubwürdig. Daher ist das hier ein Thema. Weil man weiß, daß die Modelle komplex sind, versucht man nicht nur, Modelle und ihre Komponenten zu validieren, man vergleicht auch verschiedene Modelle und mittelt über ihre Ergebnisse. Die Konsequenzen aus dem, was ich erläutert habe, sind also vielfältig.

    Vor der Komplexität der Modelle zu "kapitulieren" wäre unsinnig. Selbstverständlich setzt die Lösung von Problemen voraus, sie zu kennen. Modellierer sollten ihre Modelle kennen, und abschätzen können, wie stark die jeweiligen Modelle die Wirklichkeit idealisieren. Im IPCC-Report findet man, wie gesagt, lange Ausführungen dazu, wenn man mal bereit ist, sich das durchzulesen.

    Ich habe hervorgehoben, daß man die Modelle durch Drehen an Stellschrauben nicht beliebig an die Realität anpassen kann. Verändert man z.B. die Wolkenparametrisierung, und ändert die Temperatursensitivität für Treibhausgasänderungen dadurch, dann mag das an einer Stelle die Übereinstimmung mit der historischen Temperaturentwicklung verbessern, wird aber dann z.B. zu unrealistischen Eiszeitsimulationen führen oder zu unrealistischen Niederschlagsmustern im Modell. Es gibt eine Vielzahl von Parametrisierungen, und um an allen zu drehen, um ein Optimum zu finden, müßte man das Modell unzählige Male über sämtliche relevanten Situationen laufen lassen. Das würde einige Millionen Jahre an Rechenzeit kosten und ist daher eine absurde Vorstellung. Ein Tuning der Modelle findet daher nicht statt. Wenn man mit Parametrisierungen arbeiten muß, die unsicher sind, kann man nur diese Unsicherheit anmerken und als Teil des Modellfehlers angeben. Genau das wird getan.

    Unsicherheiten der Parameter und der zukünftigen Emissionsentwicklung gehen ein in die angegebene Bandbreite der möglichen Temperaturentwicklung und werden so angegeben. Auf der Basis kann man informierte Entscheidungen darüber treffen, wie groß die Risiken sind, wenn weiter Treibhausgase emittiert werden. Es wäre schön, wenn man genau vorhersagen könnte, was die Zukunft bringt. Aber die vorhandenen Daten reichen auch aus, drastische Maßnahmen zu begründen.

    Und ja: ein Modell bleibt ein Modell. Wissenschaftler sind es in vielen Gebieten gewohnt, mit Modellen zu arbeiten. Ohne sie gäbe es auf vielen Gebieten keinen wissenschaftlichen Fortschritt mehr.

    AntwortenLöschen
  3. Herzlichen Dank für Ihre Erläuterungen.

    AntwortenLöschen
  4. Sehr geehrter Herr Dr. Jörg,

    wie Sie wissen, ist das Wetter eine dreidimensionale Problemstellung für die Modellierer.

    Daher ist auch nur ein Verfizierung in 3 Dimensionen sinnvoll.

    Hier haben wir allerdings ziemlich schlechte Karten:

    * Sie schrieben, daß wir Meßwerte über die letzten 150 Jahre haben. Das stimmt auch auf den ersten Blick. Aber sehen Sie sich die Verteilung der Meßwerte an, ca. 80% der Werte wurden ab 1950 erfaßt 15% ab 1900 und nur magere 5% ab 1850!
    * Bis 1950 von einer Normierung der Messungen zu sprechen wäre vermessen. Von solchen Dingen wie Qualitätssicherung bei den Messungen wollen wir erst garnicht reden.
    * Messungen in der höheren Atmosphäre gibt es erst signifikant seit 1950. Vorher kann man nicht von systematischen weltweiten Messungen sprechen.
    * Die Messungen der Wassertemperatur und der Strömungen ist etwas besser aufgestellt. Bedenkt man aber, daß die Weltmeere im Schnitte 3000m tief sind, sieht es hier auch sehr schlecht aus. Bis heute gibt es kein weltweites Meßsystem für tieferes Meereswasser. Bedenkt man aber, welch enorme Bedeutung die Meere für das Klima haben, ist hier eine ungeheure Wissenslücke vorhanden.
    * Klimadaten für die Zeit vor 1850 sind nur sehr sporadisch vorhanden. Wir sprechen hier von einer weltweiten Abdeckung von maximal 1% der Erdoberfläche über die letzten 10000 Jahre. Die Proxies, um die es hier geht, sind ungleich schlechter als unsere schlechtesten Messungen von 1850. Und fast schlimmer ist der Umstand, daß fast alle Proxies von den Kontinenten kommen und vereinzelt Bohrungen aus den Schelfgebieten vorliegen. Über die Meeresströmungen und -temperaturen gibt es keine Daten. Analog dazu die höhrere Atmosphäre.

    Ja, das sind die Fakten und die werden sich nicht ändern, auch wenn man noch einige Millarden in die Forschung investiert. Natürlich kann man hier die Datenleere etwas mit Statisik glätten. Aber so richtig weit kommen wir damit auch nicht. Unser Messungen ist verdammt verrauscht und es gehört schon reichlich Phantasie dazu das eigentlich Signal herauszufinden. Je weiter wir in die Vergangenheit zurückgehen, um schlimmer wird es.

    Ich bin Physiker und halte mich lieber an die Fakten als an Polemik. Und die Faktenlage für eine sinnvolle Verfizierung der Computermodelle ist sehr schlecht. 50 Jahre gute Meßwerte sind nicht viel mehr als ein Punkt auf der über die Jahrtausende gehenden Klimakurve. Selbst das IPCC sagt, daß die für 2100 modellierten 4 Grad Erhöhung nur eine Wahrscheinlichkeit von 60% (woher diese Zahl auch immer stammt) hat.

    Aber selbst angenommen, die Modelle sind korrekt und die Durchschnittstemperatur erhöht sich um 4 Grad. Was besagt das schon? Bei Klimaprognosen geht es immer um Durchschnittswerte über 30 Jahre. Die hier möglichen Wettervarianten bei gleicher Durchschnittstemperatur reichen von vollkommen harmlos bis sehr problematisch.

    Man muß kein Klimawissenschaftler sein, um zu erkennen, wie wenig harten Fakten wir eigentlich in der Hand haben.

    Fakt ist nur, daß die Politik Millarden für die Klimapolitik ausgibt. Und es gibt viele, die von diesem Kuchen was abhaben wollen. Wer das Klima am besten schützt, kriegt das größte Stück ab. Wer wird denn da noch zweifeln, ob das alles eine solide Basis hat?

    Alle profitieren phantastisch vom Klimawandel: die Medien, die Politiker, die Wissenschaftler, die Unternehmen - und nicht erst in 100 Jahren sondern JETZT!!! Gab es je einen besseren Dauerbrenner?

    AntwortenLöschen
  5. Sehr geehrter Herr Seifert,

    ich möchte gerne höflich sein. Aber ich fange von hinten an: als ich Ihren Kommentar gelesen hatte, hatte ich den Eindruck, daß es eigentlich gar nicht um die Frage ging, mit der Sie den Kommentar begonnen hatten. Ihr Beitrag ging thematisch in die Breite und endete damit, daß Sie grundsätzlich nichts davon halten, den Klimawandel als Problem zu sehen. Sie endeten mit der Verschwörungstheorie, daß im Grunde die ganze Diskussion um den Klimawandel und alle getroffenen Maßnahmen dazu letztlich nicht auf die Lösung eines drängenden Problems abzielen, sondern ein Täuschungsmanöver an der Öffentlichkeit seien, das in Wahrheit nur bestimmte Gruppen begünstigen soll (Sie nannten die Medien, die Politiker, die Wissenschaftler, die Unternehmen). Aus meiner Erfahrung heraus weiß ich schon, daß bei einem solche nHintergrund Argumente sinnlos sind. Die erste Voraussetzung, überhaupt zu einer sinnvollen Diskussion zu kommen, ist zu akzeptieren, daß die innere Kontrolle der Wissenschaftler funktioniert. Wenn es eine breite, veröffentlichte Literatur zum Klimawandel gibt, wenn beim IPCC, bei der National Academy of Sciences (USA), bei Gremien in verschiedenen Staaten Berichte publiziert werden, die seit nunmehr 30 Jahren immer wieder zu den gleichen grundsätzlichen Ergebnissen kommen, sollte man mit der Verschwörungstheorie nicht mehr kommen und annehmen, daß der Klimawandel real ist, daß er tatsächlich ein Problem ist und daß die Diskussion schon längst weiter gezogen ist zu Problemen der regionalen Effekte, der Klimafolgenforschung, der Anpassung und Vermeidung.

    Sie betonen, daß sie Physiker sind. Ich bin Chemiker, mit Spezialisierung auf Atmosphärische Chemie, allerdings seit einigen Jahren nicht mehr in der Forschung tätig. Als Physiker sollte Ihnen klar sein, daß man in jedem Fach Grundkenntnisse, Spezialkenntnisse und Erfahrung braucht, um sachkundig Arbeiten darin beurteilen zu können. In fast allen Beiträgen, die ich im Blog schreibe, schreibe ich als Laie und bin auf die Expertise anderer angewiesen, die tatsächlich auf Gebieten arbeiten, wie der Paläoklimatologie, der Ozeanographie, der Glaziologie, der Klimamodellierung (in der es für verschiedene Parametrisierungsbereiche weitere Spezialisierungen gibt) usw. Wenn aufgrund von Kenntnissen in seinem Gebiet versucht, Urteile über andere Gebiete abzugeben, ist man immer in der Gefahr, sich auf richtige, aber irrelevante Tatsachen zu stützen und hochrelevante Größen aufgrund mangelnder Erfahrung zu übersehen. Ein Beispiel: Fluorchlorkohlenwasserstoffe sind vergleichsweise schwere Gase. Ich habe schon den Kommentar eines Chemikers gelesen, der an den FCKW als Verursacher des Ozonlochs deshalb zweifelte, weil er meinte, daß diese sich am Boden ansammeln müßten. Seine Kenntniss über die Dichte der FCKW war korrekt. Aber für die Beurteilung des Systems Atmosphäre war dieses Wissen aufgrund der turbulenten Durchmischung irrelevant. Selbstverständlich werden Gase unabhängig von ihrer Dichte bis über die Mesosphäre hinaus fast homogen gemischt, modifiziert nur durch ggf. vorhandene Abbaupfade und Zeitkonstanten der Mischung und des Transports. In diesem Sinne ist auch Ihr Hinweis, eine Erhöhung der durchschnittlichen Temperatur um 4 Grad sei harmlos, zu verstehen. Eine solche globale Temperaturerhöhung ist keineswegs harmlos, sondern ein dramatisches Ereignis. Mit einem globalen Temperaturanstieg einher geht auch eine Änderung der Temperaturverteilung auf der Erde mit deutlich stärkeren Temperaturanstiegen über dem Land und insbesondere in hohen Breiten. Damit einher geht eine veränderte Statistik der Klimadaten, bei der Extremwerte um ein Vielfaches wahrscheinlicher werden können. Damit einher gehen Verschiebungen der Klimazonen um mehrere 100 Kilometer oder um über 600 Höhenmeter, in Einzelfällen verschwinden Klimazonen (und darauf angewiesene Arten). Damit verbunden ist der Verlust von Gletschern, die die natürlichen Wasserreservoirs für viele Flußeinzugsgebiete sind, z.B. weite Teile Chinas und Indiens mit über 1 Milliarde betroffener Menschen. 4 Grad können bedeuten, daß die Eisschilde in Grönland und der Westantarktis in einen labilen Bereich gelangen, in dem sie in wenigen Jahrhunderten vollständig und irreversibel abschmelzen. 4 Grad können dazu führen, daß der hydrologische Zyklus in vielen Gegenden der Welt sich völlig verändert, manche Gebiete verwüsten, andere plötzlich starke Regenfälle erleiden können, an die diese Regionen nicht angepaßt sind. Die Liste der Klimafolgen sind lang, und bereits für einen Temperaturanstieg von global über 2 Grad wird erwartet, daß die Menschheit sich nicht mehr einfach anpassen kann.

    Sie meinen nun, daß die vorhandenen Daten zur Validierung der Klimamodelle nicht ausreichen. Sie beobachten korrekt, daß es sich um ein dreidimensionales Problem plus Zeitachse handelt, und daß die Datenabdeckung entweder extrem lückenhaft ist oder zeitlich sehr kurz oder die Daten sehr unsicher sind. Es hängt aber davon ab, welche Modelleigenschaften man untersuchen will, um zu verstehen, ob die Daten eine Validierung zulassen oder nicht. Verschiedene Ergebnisse der Modelle zeigen eine sehr unterschiedliche Sensitivität für Eingangsparameter, so daß auch die Genauigkeitsanforderungen für eine Validierung sehr verschieden ist. Es ist auch eine Frage, auf welche Detaillierung man gehen möchte. Für Aussagen zur globalen Temperatur braucht man eine viel gröbere Datenbasis als zum Beispiel für Aussagen zur globalen Verteilung der Temperaturänderungen. Empfindlichere Größen, wie z.B. Aussagen zu Niederschlagsstatistik und zur Feuchteverteilung erfordern sofort dramatisch genauere Parametrisierungen der Modelle. Andererseits sind so sensible Parameter unter Umständen sogar einfacher mit lückenhaften und ungenauen Daten zu prüfen, eben weil geringe Abweichungen schon zu deutlich anderen Ergebnissen führen können. Aufgrund der Vielzahl an Daten, Größen und Parametern muß man schon recht spezifisch fragen, ob eine Validierung möglich ist und welche Güte sie hat. Pauschale Urteile, daß Validierungen aufgrund fehlender Daten nicht möglich seien, haben keine sachliche Basis. Ich habe selbst einen chemischen Mechanismus für die untere Atmosphäre mit über 60 Substanzen und über 150 Reaktionen mit Hilfe von kaum 30 Messungen eines Spurengases validiert, bei dem die Messungen Meßfehler von zwischen 20% und einem Faktor 2 hatten. Die Validierung war möglich aufgrund genauer Analyse der Sensitivitäten im Mechanismus und Kenntnis der überhaupt möglichen Lösungen und einer ausführlichen statistischen Untersuchung der möglichen Ergebnisse und der Verteilung der Validierungsergebnisse. Obwohl ich also mich selbst nicht für kompetent halte zu beurteilen, was die durchgeführten Validierungen bei den Klimamodellen im einzelnen wert sind, habe ich Vertrauen darin, daß hier im Grundsatz sinnvolle Arbeiten möglich sind und Urteile dazu, wie weit man den Modellen trauen kann, belastbar sind. Für einen Einstieg empfehle ich im 4. IPCC-Bericht, WG1 die Kapitel 2 und insbesondere 8.

    Ich weiß, daß Sie meine Antwort nicht befriedigen wird (siehe den Anfang meiner Antwort), aber das ist meine ehrliche Antwort. Mehr kann ich nur sagen, wenn es um ein spezifisches Problem geht und dann könnte es darauf hinauslaufen, daß ich auf Literatur dazu verweise.

    AntwortenLöschen