Sonntag, 22. Juni 2008

Verstärken Änderungen beim arktischen Seeeis den Klimawandel?

Leider ist dieser Beitrag 2 Wochen liegen geblieben, aber dafür konnte ich noch einige Ergänzungen machen.

2007 erreichte die Seeeisbedeckung im arktischen Meer einen für Fachleute überraschendes Rekordminimum. (Siehe z.B. hier.) Im folgenden Winter froren zwar erwartungsgemäß weite Teil des arktischen Meeres wieder zu, aber es wäre absurd, daraus abzuleiten, daß die Rekordschmelze damit nur ein vorübergehendes Ereignis gewesen wäre. Das verhältnismäßig dünne, nur einjährige Eis, das sich gebildet hatte, wird in diesem Sommer wesentlich leichter schmelzen als das mehrjährige dickere Eis, das dort vorher war. Nur eine Reihe besonders kalter arktischer Winter in Folge könnte den ursprünglichen Zustand des nordpolaren Eises wieder herstellen. Zu den Erwartungen für 2008 siehe z.B. hier, bzw. (da zitiert) hier. Das Bild zeigt den langfristigen Trend der Eisbedeckung in der Arktis:











Den aktuellen Trend kann man hier nachsehen, Quelle ist das National Snow and Ice Data Center. Das Bild hier wiederum zeigt den hohen Anteil besonders dünnen, nur einjährigen Eises.

Eine Untersuchung der Eisschmelze von 2007 ergab, daß sie zwar auf besondere Witterungsverhältnisse zurückzuführen war. Eine Hochdruckzone ab Juni 2007 über gut 3 Monate hinweg mit wolkenarmen Bedingungen sorgte für eine besonders intensive Eisschmelze. Solche Verhältnisse bestanden aber auch schon 1977 und 1987. 2007 hatte aber die anhaltende globale Erwärmung das polare Eis so ausgedünnt, daß nun im Gegensatz zu früher weite Bereiche der arktischen Gewässer eisfrei wurden. Eine Übersicht dazu hat John Cook zusammengetragen.

Mit einer Wiederherstellung langjähriger Eisschichten ist nicht zu rechnen. Das liegt nicht nur daran, daß der Trend einer globalen Erwärmung in den Temperaturdaten intakt ist und vielleicht schon der nächste El Nino globale Temperaturen herbeiführen kann, die die maximalen Temperaturmittel in 1998 und 2005 erreichen oder übersteigen könnten. Das liegt auch daran, daß die globale Erwärmung sich selbst verstärken kann. Und nirgendwo sieht man es besser als im arktischen Raum.

Die bekannteste Rückkopplung ist der Albedoeffekt. Schnee und Eis reflektieren sichtbares Licht besonders gut, sogar besser als Wasser (wo nur bei ruhigem Wasser bei einem bestimmten Eintrittswinkel Totalreflektion des Lichtes erfolgt). Ein Abschmelzen des Eises in der Arktis bedeutet daher, daß diese Region sich stärker aufheizen kann. Dieser Effekt wird noch verstärkt dadurch, daß offenes Wasser in der Arktis einen weiteren Effekt hat. Das Wasser unter einer Eisdecke ist erheblich wärmer als das benachbarte Land, das auf Temperaturen unter -10, -20, sogar -40 Grad Celsius auskühlen kann – im Tagesmittel. Fällt die isolierende Eisdecke weg, kann die Wärme aus dem Wasser in die benachbarte Luft und weiter auf das benachbarte Land transportiert werden. Das kann vor allem über den Transport latenter Wärme geschehen. Das relativ wärmere Wasser (nahe dem Gefrierpunkt) verdunstet und entzieht dabei dem Meer etwas Wärme. Diese Feuchte kondensiert wieder an Land und erwärmt dort den Boden. Die Schneedecke an Land taut schneller auf oder wird später gebildet. Das Land heizt sich über den oben erläuterten Albedoeffekt weiter auf. Am Ende kann das dazu führen, das Bodenschichten auftauen, in denen bisher Permafrost herrschte, wo also selbst im Sommer die Erde gefroren blieb.

Das hat aber einen weiteren Rückkopplungseffekt zur Folge. Im Permafrostboden sind organische Stoffe gebunden. Taut der Boden auf, werden diese zersetzt. Dabei werden gasförmige Abbauprodukte gebildet, wie CO2 und vor allem Methan. Methan aber ist ein Gas, das einen stärkeren Treibhauseffekt hat als CO2. Kurzfristig ist der Effekt einen Faktor 75 stärker. Berücksichtigt man den Abbau von Methan über 100 Jahre, ist es immer noch 25mal wirksamer als CO2. Die globale Erwärmung fördert also so den zusätzlichen Eintrag von Treibhausgasen.

Diesen Zusammenhang erläutert Tamino sehr ausführlich. Dabei bezieht er sich unter anderem auf einen Artikel von Lawrence et al. in den Geophysical Research Letters (im Link ist eine Inhaltsangabe dazu): Accelerated Arctic land warming and permafrost degradation during rapid sea ice loss. Der Verlust des Seeeises in der Arktis könnte die Erwärmung dort dreimal so schnell ablaufen lassen. Dabei könnten 1 - 4 Gigatonnen Kohlenstoff in die Atmosphäre pro Jahr abgegeben werden. Das ist bis zu der Hälfte des von Menschen jährlich erzeugten CO2.

Daß dieses geschehen wird, war eigentlich nie bezweifelt worden. Was wirklich erschreckend ist, ist die Schnelligkeit, mit der das Seeeis verschwindet, die Arktis wärmer wird und schließlich das Auftauen des Permafrostbodens zu erwarten ist. Vor wenigen Jahren ging man von einem jahreszeitlich eisfreien Polarmeer erst nach 2030 aus. Nun müssen wir dies aber schon in den nächsten Jahren erwarten. Entsprechend werden auch die Rückkopplungseffekte, der Albedoeffekt und das Auftauen des Permafrostbodens vorverlegt. Das macht Maßnahmen zur Reduktion der CO2-Emissionen noch weitaus dringlicher als man bisher geglaubt hatte. Zu diesen Zusammenhängen gibt es weitere Ausführungen hier und in den dort verlinkten Artikeln.

Montag, 2. Juni 2008

Wie zuverlässig sind die Temperaturdaten von den Ozeanen?

Ich muß etwas vorausschicken, weil ich nicht erwarten kann, daß jeder Leser den gleichen Hintergrund mitbringt. Wenn mit Modelle Projektionen gemacht werden, was die Einbringung der Treibhausgase in die Atmosphäre in der Zukunft wohl bewirken wird, dann ist es von Interesse zu schauen, inwieweit die Reaktionen der Erde mit den Modellergebnissen übereinstimmen. Dazu braucht man Temperaturmessungen als Fieberkurve der Erde. Das große Problem dabei ist, daß eine Temperaturmessung nur für den Ort repräsentativ ist, an dem sie gemacht wird, und auch nur, wenn die Messung sehr, sehr gut gemacht wird. Man braucht nur an einem warmen Sommertag aus einer schattigen Allee auf einen asphaltierten Parkplatz hinauszutreten, und kann am eigenen Leib erleben, was wenige Meter bereits an Temperaturunterschied ausmachen können. Kann man die Temperatur der Erde aus einem Temperaturmeßnetz auf einen Zehntelgrad genau bestimmen. Nein, keine Chance. Deshalb macht man es auch nicht. Was man macht, ist die Temperaturanomalie zu bestimmen. Das ist die Abweichung der Temperatur von dem Mittelwert für irgendeinen Bezugszeitraum, z.B. für einen 30-Jahreszeitraum wie 1961-1990. Diese Anomalien (wobei der Begriff nicht sagen soll, daß hier irgendetwas anormal wäre, sondern nur, daß man sich nur die Abweichung von einem willkürlichen Bezugspunkt anschaut) sind für wesentlich größere Gebiete repräsentativ. Sie können nahezu gleich sein in der schattigen Allee und auf dem sonnendurchfluteten Parkplatz wie auch auf einem nahegelegenen Höhenzug, weil man die besonderen Temperaturprofile der jeweiligen Meßstellen bereits mit dem Mittelwert für den Bezugszeitraum herausgenommen hat. Dabei gehe ich mal über die Tatsache hinweg, daß alle diese Überlegungen erst so richtig greifen, wenn man sich Jahresmittelwerte vornimmt. Die Anomalien können an Meßorten mit verschiedenen Charakteristiken immer noch gewisse Unterschiede im Tages- und vielleicht sogar Jahresgang zeigen

Während wir also die Temperatur der Erde nur sehr ungefähr abschätzen können, können wir die Temperaturanomalie der Erde recht genau bestimmen. Deshalb wird von Klimatologen durchweg mit diesen Anomalien gearbeitet, so lange es nicht ganz spezifisch um die Temperatur an einem ganz bestimmten Ort geht.

Nun sind mehr als 2/3 der Erde von Ozeanen bedeckt. Auf den Ozeanen gibt es aber keine Meßstationen wie an Land. Das braucht man auch nicht. Da die Luft über den Meeren mehr oder weniger die Temperatur des Wassers annimmt, über die sie zieht, braucht man nur die Wassertemperatur zu nehmen, um etwas über die Lufttemperatur auszusagen. Auch hier nimmt man Anomalien der Wassertemperatur und entledigt sich so elegant des Unterschieds zwischen Luft- und Wassertemperatur. Die Wassertemperatur erhalten wir in der Regel aus Schiffsmessungen, in neuerer Zeit auch zunehmend aus Bojen. Die traditionelle Schiffsmessung sieht so aus, daß man zu bestimmten Zeit einen Eimer Wasser mit einigem Geschick aus dem Schiff ins Meerwasser wirft, dort 1 Meter unter die Oberfläche bringt und dann möglichst schnell diesen Eimer wieder an Bord holt, um die Temperatur des Wassers zu messen. Die ganze Zeit, die man, manchmal bei starkem Wind und Seegang, damit beschäftigt ist, den Eimer wieder einzuholen, auf Deck zu stellen und die Temperatur zu messen, kann das Wasser im Eimer seine Temperatur ändern. Zum Beispiel, indem Wasser aus dem Eimer verdunstet, was das Wasser ziemlich effizient kühlt. Ziemlich effizient ist hier relativ zu verstehen – wenn das Wasser um einige Zehntelgrad abkühlt, hat man bereits einen Fehler, der bei der Betrachtung der Anomalien ganz gewaltig ist. Weil man mit solchen Messungen viel Erfahrung hat, weiß man allerdings auch, wie stark man die Meßreihen hier korrigieren muß, um zu aussagekräftigen globalen Werten zu kommen.

Das Problem ist aber, daß über die vergangenen 100 oder 200 Jahre hinweg die Meßmethode nicht durchweg gleich ausgeführt wurde. Die Anomalien ändern sich, wenn man verschieden große Eimer nimmt und verschieden lange Zeit braucht, sie einzuholen. Sie ändern sich noch mehr, wenn man statt einfacher Holzeimer Behälter aus Leinwand nimmt, bei denen die Temperatur noch stärker sinken kann. Oder isolierte Spezialbehälter mit integrierten Thermometern, bei denen kaum Abkühlung stattfinden kann. Oder wenn die Wassertemperatur im Schiff gemessen wird, wenn dieses Meerwasser zur Kühlung der Maschinen einsaugt. Hier könnte das Schiff selbst das Wasser sogar in der Tendenz noch geringfügig anwärmen, bevor die Messung erfolgt ist. Die Bojen liefern vielleicht die am wenigsten zu korrigierende Temperatur, aber natürlich systematisch etwas geringere Temperaturen als die aus Messungen im Schiffskühlwasser. Alle diese Methoden wurden im Laufe des 20. Jahrhunderts mehr oder weniger angewendet. Es ist eine Sisyphos-Arbeit, zu jedem Datenpunkt die entsprechende Korrektur für über 100 Jahren an Schiffsmessungen anzubringen, und diese Arbeit wurde tatsächlich noch nicht erledigt.

Korrekturen an den Daten werden daher, wenn überhaupt, eher global vorgenommen. Man weiß, daß im Laufe des 20. Jahrhunderts zunehmend Daten aus dem Schiffskühlwasser gewonnen wurden, daß im Laufe der Zeit der Holzeimer vom Leinwandbehälter und dann von isolierten Behältern abgelöst wurde, daß amerikanische Schiffe schon vor dem Krieg in der Regel Temperaturen aus dem Kühlwasser nahmen, britische hingegen aus Behälterproben. Eine Korrektur müßte also berücksichtigen, wann wo mit welcher Methode bevorzugt gemessen wurde und die Anomalienzeitreihe mit entsprechend gewichteten Zu- und Abschlägen versehen. Obwohl diese Arbeit noch nicht gemacht wurde, läßt eine aktuelle Publikation aus dem Hadley Centre erahnen, wie groß der Effekt vielleicht sein kann und in welche Richtung es wohl geht. Das Hauptproblem ist, daß während des 2. Weltkriegs auf den Meeren amerikanische Schiffe dominierten, während nach 1945 wieder ein erheblicher Anteil von Schiffen unter britischer Flagge fuhr. Wenn beide Flotten aber in der Zeit gerade ausschließlich entweder Temperaturen aus dem eingesaugten Wasser (USA) oder aus Leinwandbehältern (Britannien) nahmen, dann ergibt sich gerade 1945 ein Sprung in der Zeitreihe. Genau dieser wurde nun sichtbar gemacht, indem man andere Effekte aus der Zeitreihe, wie etwa El Nino-Ereignisse, entfernte. Bei RealClimate findet man einen schönen Beitrag dazu, der auch die verschiedenen Meßmethoden kurz anreißt. Atmoz hat sich gleich daran gemacht, was denn in nullter Näherung eine Korrektur der Daten ergeben würde.

Das Resultat ist folgendes: um die Anomalien richtig zu korrigieren, werden vor allem die Daten zwischen 1945 und ca. 1970 verändert werden müssen. Die Korrektur wird 1945 maximal sein und dann in den nächsten 30 Jahren immer geringfügiger zu werden. Ein zusätzliches Problem ist, daß die Bezugsdaten für die Anomalien selbst mit betroffen sein werden, wenn auch nur wenig. Die Anomalien aus den Meeresdaten wird man maximal um 0,3 Grad ab 1946 anheben müssen, vermutlich aber eher deutlich weniger, und dieser Wert wird dann auf praktisch Null bis 1970 oder 1975 absinken, als fast alle Schiffe die Wassertemperatur aus eingesaugtem Meerwasser bestimmten. Der Effekt ist, daß der geringfügige Temperaturabfall von ca. 1940 bis ca. 1970 deutlich gleichmäßiger erfolgt. Nimmt man die Landdaten hinzu, wird dieser Effekt noch mal auf maximal 0,2 Grad gedämpft, weil die Landdaten diesen Kalibriereffekt nicht haben.

Man kann sich bei The Independent anschauen, welchen Effekt die Korrektur auf die globalen Temperaturanomalien haben wird.



Oder man schaut sich die folgenden Zeitreihen des Hadley-Centres an.


Die rote Kurve gibt die Messungen an Land an, die grüne Messungen der Lufttemperatur über den Meeren in der Nacht. Beide Kurven liegen nahe beieinander, gehen dann aber im Zuge der globalen Erwärmung auseinander, weil sich das Land schneller erwärmt. Die hohe Wärmekapazität macht die Meere gegenüber dem Klimawandel träge. Die blaue Kurve zeigt die Wassertemperatur der Ozeane. Sie läuft meistens in etwa genauso wie die grüne Kurve. Jedoch gerade um 1945 bis 1955 laufen diese beiden Kurven besonders weit auseinander. Hier sieht man deutlich, daß die Wassertemperaturen einen systematischen Fehler enthalten, weil hier ab 1945 verstärkt Daten von britischen Schiffen vorlagen, die mit Leinwandbehältern die Temperaturen bestimmt hatten. Man sieht damit auch, daß schon 1955 der Effekt geringfügig wird und danach im übrigen Fehler verschwindet. Am Trend der globalen Erwärmung der letzten 30 Jahre und auch 50 Jahre ändert sich praktisch nichts. Dies analysiert unter anderem James Annan näher. Ein Ergebnis der Korrektur wäre, daß die globalen Modelle und die Messungen im Zeitraum um 1945 näher zusammenrücken, da die Modelle den raschen Temperaturabfall ab ca. 1945 bis ca. 1955 nie hatten gut nachbilden können.