Donnerstag, 11. September 2008

Ein bißchen Geschichte

Ich habe einen toten Link zum Nierenberg-Report (Zusammenfassung für Entschiedungsträger) aktualisiert. 21.7.2009

Es ist schwierig, die Zeit für einen Blog zu finden, wenn man den zwischen Arbeit und Familie betreibt und dabei auch für seine Beiträge Hintergrundinformationen und Links besorgen möchte. Der Effekt ist, daß immer wieder angefangene Beiträge liegen bleiben. Am Ende frage ich mich dann, ob es überhaupt einen Sinn hat, noch etwas zu posten, was dann doch schon weitgehend anderswo abgehandelt wurde. So drängt es mich, etwas zu der neuen Veröffentlichung des MPI Hamburg über die Klimaentwicklung in Deutschland zu schreiben. Die Ergebnisse der Simulationen mit einem hochauflösenden Modell (REMO), die wegen eines zwar geringfügigen, aber ärgerlichen Fehlers einmal revidiert werden mußten und dabei viel Häme provozierten, kann man sich hier anschauen: (Link zur pdf-Datei - 16,18 MB)
Aber das muß warten. Stattdessen ein kurzer Blick auf eine interessante Diskussion, die gerade in amerikanischen Blogs läuft. Ende der siebziger Jahre war die amerikanische Regierung bereits über die Möglichkeit einer globalen Erwärmung besorgt, und hatte eine wissenschaftliche Arbeitsgruppe eingesetzt, um dazu Bericht zu erstatten. Präzise gesagt, eine Art geheime Denkfabrik exzellenter Wissenschaftler, die wissenschaftliche Ideen für die Verteidigung oder von nationaler Bedeutung entwickelten, genannt Jason, erhielt 1977 den Auftrag, über das Problem der Klimaentwicklung nachzudenken und legte 1979 einen Bericht vor: JSR-78-07: The Long Term Impact of Atmospheric Carbon Dioxide on Climate. Interessant ist, daß die Ergebnisse dieses Berichtes in den Kernaussagen vorwegnehmen, was danach immer wieder mit größerer Präzision und Sicherheit bestätigt wurde:

Der Effekt einer Verdopplung der CO2-Mischungsverhältnisse, hier bis 2035 erwartet (inzwischen für ca. 2050 vorhergesehen) liegt bei 2-3 Grad Celsius Temperaturerhöhung. In der Arktis sollte die Temperaturerhöhung mit 10-12 Grad deutlich stärker sein.

Heute prognostiziert das IPCC 2-4,5 Grad je Verdopplung der CO2-Konzentration mit über 10 Grad Temperaturerhöhung in der Arktis.

Zur gleichen Zeit, als der Jason-Bericht herauskam, gab es auch eine Arbeit für den National Research Council, die man hier findet. Dieser Bericht mit dem Titel Carbon Dioxide and Climate: A Scientific Assessment, auch bekannt als der Charney-Report, hatte als wesentliche Ergebnisse, daß die CO2-Mischungsverhältnisse bis zur Mitte des 21. Jahrhunderts sich verdoppeln würden und daß dieses zu einer Klimaerwärmung von ca. 2 bis 3,5 Grad Celsius führen würde. In der Arktis wäre die Erwärmung noch deutlich stärker.

So hatten schon 1979 zwei Studien mit unterschiedlichen Auftraggebern basierend auf frühen Modellrechnungen im Kern die gleiche Warnung vor einer globalen Erwärmung durch anthropogenes CO2 gegeben. Doch es gab noch einen dritten Bericht, den sogenannten Nierenberg-Report, der eine Trendwende markierte und eine Phase der Verzögerung von Maßnahmen gegen den Klimawandel einleitete. Die Hintergründe werden hier in Rabett Run erläutert, der sich dabei wiederum auf einen Artikel von Oreskes stützt. Der Bericht an das National Research Council kam 1983 heraus, und Nierenberg als Leiter der Arbeitsgruppe wird dabei die Rolle zugeschrieben, nun im Auftrag der Reagan-Administration dafür gesorgt zu haben, daß die Gefahr einer globalen Erwärmung verharmlost wurde. Die Zusammenfassung des Berichtes hat der Sohn des damaligen Leiters, Nicolas Nierenberg, hier gepostet. Und das erstaunliche ist: fast durchweg sind die Schlußfolgerungen die gleichen, wie in den anderen Berichten: die CO2-Mischungsverhältnisse werden sich im 21. Jahrhundert verdoppeln, der Effekt ist eine Erhöhung der Temperatur von 1,5-4,5 Grad Celsius (wobei die exakte Formulierung hier trickreich ist, da von der Temperaturerhöhung die Rede ist, die folgt, wenn CO2 sehr lange auf verdoppeltem Niveau bleibt). Die Unterschiede zu den anderen Berichten liegen woanders. Der Nierenberg-Report betont, anders als die anderen Berichte, daß es auch positive Auswirkungen (CO2-Düngung) gebe. Und er empfiehlt, zunächst mal das Problem weiter zu erforschen, aber noch nichts zu unternehmen, um massiv CO2-Emissionen zu reduzieren. Es sei kostengünstiger mit anderen Treibhausgasen zu beginnen. Daß die Schlußfolgerungen dieses Berichts bei gleicher wissenschaftlicher Grundlage ganz anders ausfielen und nun der Reagan-Administration erlaubten, das Problem auf die lange Bank zu schieben, bis 1988 Hansen erneut mit Modellergebnissen deutlich machte, daß es nun klare Hinweise auf einen laufenden Klimawandel gebe, liegt wohl an der Zusammensetzung dieser Arbeitsgruppe, bei der zum einen Nierenberg seinen Einfluß nutzte, die Resultate zu entschärfen und andererseits zwei Wirtschaftswissenschaftler beteiligt waren, die das gleiche Ziel hatten.

Wenn man mehr darüber erfahren will, lohnt sich der Blick in den Blog von Atmoz.

Sonntag, 7. September 2008

Wann uns das Wasser bis zum Hals steht…

Globale Erwärmung hat viele Auswirkungen: auf das Wetter, auf die Verbreitung von Tieren und Pflanzen oder die Verfügbarkeit von Wasser. Aber das erste, woran man beim Klimawandel denkt, ist der Anstieg des Meeresspiegels. Gerade diese Folgewirkung gilt aber als besonders schwer vorherzusagen. Eine lineare Beziehung zwischen Temperatur und Meeresspiegelanstieg herzustellen ist illusorisch, wie in einem Artikel von von Storch auf Basis von Modellrechnungen dargelegt wird (Link zur Zusammenfassung und zum (kostenpflichtigen) Artikel), weil die verfügbaren Datenreihen dazu zu kurz sind und aus Zeitreihen von maximal 120 Jahren Beziehungen hergeleitet werden können, aus denen sowohl eine Meeresspiegelanstieg als auch Abfall bei einem Temperaturanstieg resultiert.

Zwar nicht deswegen, aber doch mit Wissen um die vielen Probleme ist der jüngste IPCC Bericht gerade beim Thema Meeresspiegelanstieg besonders zurückhaltend. Man kann zwar recht gut berechnen, wie der Meeresspiegel aufgrund der thermischen Ausdehnung des Meerwassers durch seine Erwärmung ansteigt. Auch für den Zufluß von den Kontinenten aus Gletschern und Niederschlagsabfluß sind Vorhersagen möglich. Der relative Verlust oder Gewinn durch Verdunstung und Niederschlag auf den Ozeanen und durch Sublimation und Abtauen sowie Niederschlag in der Antarktis und auf Grönland kann auch abgeschätzt werden. Diese Größen zusammen führen zu den Schätzungen im Bereich von 18 bis 59 cm bis ca. 2095 über den Wert von ca. 1990 (entsprechend 20 bis 65 cm Anstieg bis 2100) und einen weiteren Anstieg danach (gerundet aus dem IPCC Bericht von 2007). Doch die eigentlich wichtige Größe wollte man 2007 gar nicht erst in die Schätzung mit aufnehmen, nämlich den Meeresspiegelanstieg durch das Abrutschen des polaren Festlandeises in Grönland und der Antarktis in die Ozeane bzw. das Aufschwimmen des westantarktischen Festlandeises auf dem Meerwasser (weil hier das Festland überwiegend unter dem Meeresniveau liegt). Zwar findet man im 4. Assessment Report der Arbeitsgruppe 1 im Kapitel 10 Erläuterungen, nach denen im Laufe des 21. Jahrhunderts ein Temperaturniveau erreicht würde, bei dem das Grönlandeis nicht mehr auf Dauer bestehen bleiben würde, was allein bereits zu einem Meeresspiegelanstieg von 7 Metern führt. Die Zeitskala für dieses Abschmelzen sah man in dem Bericht aber bei Jahrhunderten – immerhin eine Größenordnung von 1 Meter Anstieg des Meeresspiegels pro Jahrhundert, natürlich nicht mit konstanter Geschwindigkeit in diesem Zeitraum. Seitdem aber lassen das weitere Beobachtungen und Schätzungen als zu konservativ erscheinen. Zudem stecken erkennbar Unsicherheiten in den Abschätzungen, weil die Summe aller Schätzterme im IPCC-Bericht immer noch einen geringeren Meeresspiegelanstieg ergeben, als er bisher beobachtet wurde.

Der Meeresspiegelanstieg durch das polare Festlandeis ist so schwierig zu erfassen, weil man dabei die Dynamik großer Eiskörper abschätzen muß. Die entscheidende Größe ist nicht etwa, wie viel Eis abschmilzt bzw. durch Niederschläge wieder gewonnen wird, sondern langfristig, ob und wie schnell der Eiskörper sich ins Meer bewegt. Wenn ein Gletscher auf einer geneigten Fläche aufliegt, gleitet er mit einer gewissen Geschwindigkeit talwärts bzw. ins Meer. Diese Bewegung wird durch Reibung gebremst. Schmilzt etwas Wasser auf dem Eiskörper und sickert zum Boden durch, wirkt das wie ein Schmiermittel. Außerdem kann solches Sickerwasser auch dafür sorgen, daß die Gletschermasse in Teile bricht. Die Teile haben relativ weniger Auflagefläche und somit Reibung und bewegen sich schneller. Meereisgebiete vor dem Gletscherausgang am Meer können auch die Bewegung des Eises bremsen. Bricht diese Meereisfläche auf, kann der Gletscher schneller rutschen. Diese ganzen Vorgänge sind so kompliziert vorherzusagen, daß sich die damit befaßten Glaziologen ungern mit Prognosen aus dem Fenster lehnen.

Trotzdem hatten sich einige an das Thema herangewagt. Rahmstorf etwa hatte sich auf der Basis einer Korrelation zwischen Meeresspiegelanstieg und Temperatur an die Prognose gewagt, daß ein Meeresspiegelanstieg um 0,5 bis 1,4 Meter bis 2100 möglich sei. Dieser Beitrag wurde mit dem Papier von von Storch und Mitarbeitern oben zurückgewiesen. (Die begleitende Pressemitteilung dabei war im Tonfall unnötigerweise wenig kollegial und geriet dadurch manchen Leuten in den falschen Hals, die das Papier dahingehend mißverstanden, daß von Storch et al. Arbeit insgesamt widerlege, daß ein Temperaturanstieg automatisch zu einem Meeresspiegelanstieg führe. Das war aber gar nicht gemeint in dem Beitrag, der sich nur darauf bezog, ob man angesichts des Gedächtnisses des arktischen Eises für frühere Temperaturen mit nur 120 Jahren an Daten bereits zu brauchbaren Korrelationen komme.)

Einiges Rauschen im Blätterwald der Medien verursachte eine Arbeit von Pfeffer, Harper und O'Neel. In dieser Arbeit untersuchte man, wie stark eigentlich die Bewegung von Gletschern auf Grönland und in der Westantarktis innerhalb physikalisch sinnvoller Grenzen anwachsen könnte, um so eine obere Grenze des dadurch verursachten Meeresspiegelanstieges zu finden. Der schnellste Gletscher ist der von Jakobshaven in Grönland mit fast 9 km pro Jahr, und man bräuchte eine Verdreifachung der Gletschergeschwindigkeiten ab dem Jahr 2010, um zu mehr als 2 Meter Meeresspiegelanstieg bis 2100 zu kommen. Das Ergebnis liegt also bei etwa 2 Metern maximal bis 2100, aber 80 cm sei nach Meinung der Autoren der plausibelste Wert. Das liegt im Bereich der Schätzungen von Rahmstorf und natürlich deutlich über den Werten aus den IPCC-Szenarios, selbst noch über dem ungünstigsten Szenario.

Eine weitere aktuelle Schätzung findet man in einem Bericht der (neuen) Deltakommission in den Niederlanden, die abschätzen muß, wie hoch zukünftig die Deiche in Holland zu bauen sind. Hier findet man den Link zu dem Bericht (auf niederländisch), der im übrigen Gesamtkosten von 90 bis 135 Milliarden Euro für das (nicht nur durch den Klimawandel) erforderliche Deichprogramm ansetzt. Auf Seite 111 findet man die Schätzungen für den weltweiten Anstieg des Meeresspiegels, der mit 55 cm bis 1,10 Meter angesetzt wird. Bis zur Hälfte des Anstiegs kommt aus Grönland und der Antarktis. Aufgrund der hohen Investitionen in das Deichbauprogramm besteht hier ein deutliches Interesse, realistische Abschätzungen zu bekommen.


Was aber bedeutet nun eigentlich ein Anstieg des Meeresspiegels um z.B. 80 cm innerhalb von 90 Jahren? Es bedeutet nicht, daß man um den entsprechenden Betrag die Küstenlinien verschieben muß. Es ist eine reine Kostenfrage, ob man mit Deichen die alte Küstenlinie erhält oder nicht. Für die Niederlande ist es z.B. keine Frage, daß man die Deiche entsprechend erhöhen wird, auch wenn dieses um die 100 Milliarden Euro kostet. Damit läßt sich das Abtauchen der Niederlande noch 200 oder 300 Jahre aufhalten, bis die Deichhöhe irgendwann einfach an technische Grenzen stößt. Ganz anders sieht es für ein Land wie Bangladesh aus, wo ein entsprechendes Deichbauprogramm bis zu 10% des Bruttoinlandprodukts verschlingen würde. Das ist einfach nicht finanzierbar. Doch es noch komplizierter. Der Verlust an nutzbarem Land bemißt sich nicht danach, was im Meer versinkt. Es hängt vielmehr daran, wo das Meerwasser das vorhandene Grundwasser hochdrückt. Diese Auswirkungen können sehr viel weiter landeinwärts zu einer unerwarteten Versalzung von Böden führen, die dann für den Ackerbau ausfallen. Die zweite Frage ist, wie viel Land bei Hurricans oder Orkanen und Springfluten dem Risiko einer Überschwemmung ausgesetzt ist, weil man Deiche zumeist nicht darauf auslegt, eine „Jahrtausendflut“ abzuhalten. Diese Überflutungshöhe bei Extremereignissen steigt nicht linear mit dem Anstieg des Meeresspiegels, sondern hängt davon ab, wie steil die Küste vor dem Deich ist. Wenn nicht noch Marschland, sondern nur direkt der Deich zu bewältigen ist, stürmt die Sturmflut ungedämpfter auf das Land. Zugleich nimmt die Zahl der extremen Sturmereignisse bei einer globalen Erwärmung vermutlich zu. Und je mehr Land einzudeichen ist, desto größer ist die Schadenssumme, wenn bei Extremereignissen der Deich dann doch nicht hält. Man muß auch berücksichtigen, wie viel natürlicher Lebensraum verloren geht, etwa Wattland, Marschen und Mangrovenwälder, die nach und nach im Meer versinken, während andererseits Eindeichungen verhindern, daß Ersatz dafür weiter im Inland entstehen kann. Dadurch gehen z.B. die Kinderstuben mancher Fischarten zugrunde, die dann auf den Tellern vieler Menschen fehlen. Nicht zuletzt verschwinden damit auch viele natürliche Strände, was z.B. für einige Urlaubsländer zum Problem werden kann.

Donnerstag, 4. September 2008

Hockeyschlägerkurve erneut bestätigt und was das bedeutet

Temperaturrekonstruktionen geben einen Eindruck davon, wie sich die Temperatur global und in bestimmten Regionen in der Vergangenheit entwickelt hatte. Der wesentliche Zweck dieser Rekonstruktionen ist es, zu verstehen, wie sich das Klima abhängig von verschiedenen Einflußgrößen wandeln kann und wie variabel es ist. Hat es früher starke Veränderungen gezeigt, müssen wir befürchten, daß es auch auf den CO2-Konzentrationsanstieg stark reagiert. In Verbindung mit Informationen über andere Einflüsse, zum Beispiel Vulkanausbrüche oder Änderungen der Sonneneinstrahlung kann man daraus ableiten, wie das Klima auf diese Veränderungen reagiert. Außerdem kann man darüber auch Modelle validieren, Schwächen aufzeigen und Klimamodelle verbessern.
Deshalb war die frühe Temperaturrekonstruktion von Mann, M.E., R.S. Bradley, and M.K. Hughes. 1998. Global-scale temperature patterns and climate forcing over the past 6 six centuries. Nature 392:779-787. so wichtig, da hier erstmals in diesem Umfang eine Temperaturrekonstruktion vorgelegt wurde.

Was eine solche Temperaturrekonstruktion ausdrücklich nicht kann und nicht soll, ist irgendeinen Beweis dafür zu erbringen, was die Ursachen für den Temperaturanstieg seit Mitte des 20. Jahrhunderts sind. Eine Korrelation zwischen CO2-Anstieg und Temperaturanstieg war nie ein Argument in der Klimadebatte. Menschen, die die Klimaforschung nicht verstehen, unterstellen dies aber und haben daher den falschen Eindruck, die Tatsache, daß die Temperaturentwicklung in den letzten 1000 und sogar fast 2000 Jahren vor unserer Zeit nie einen solchen Temperaturanstieg zeigte wie in den letzten 100 Jahren, wäre der Beleg dafür, daß Menschen über Treibhausgase das Klima ändern. Nein, wenn man soviel CO2 in die Luft bläst (und andere Treibhausgase), wie es seit über 100 Jahren nun der Fall war, dann ist ein erhöhter Strahlungsantrieb und damit ein Temperaturanstieg zwingend. Um das zu beweisen, benötigt man keine Temperaturrekonstruktionen und keine CO2-T-Korrelationen.

Durch diesen falschen Eindruck der Aufgabe von Temperaturrekonstruktionen kam es dazu, daß die Hockeyschlägerkurve von Mann et al. so stark angegriffen wurde, wie kaum ein anderer Beitrag zur Klimaforschung. Man könnte darüber reden, welche Fehler bei dieser immerhin frühen und ambitionierten Arbeit gemacht wurden und wie signifikant sie sind. Das ist aber eine Expertendiskussion, die man sich mit einer sehr einfachen Betrachtung ersparen kann. Kommen andere Gruppen mit anderen Daten und anderen Methoden prinzipiell zum gleichen Ergebnis wie Mann et al. 1998 ? Ja. Ich hatte darüber bereits an dieser Stelle berichtet. Man kann sich bei dem vierten Bericht des IPCC von 2007 die Temperaturrekonstruktionen anschauen und sieht, daß man auf den ersten Blick Mann et al. 1998 von anderen Temperaturkurven nicht unterscheiden kann. Man kann auch einen unabhängigen Bericht des National Research Council in den USA von 2006 anschauen (Surface Temperature Reconstructions for the Last 2,000 Years), der ebenfalls zwar einige Probleme anmerkte, aber im Grundsatz auch zum gleichen Resultat kam.

Und man kann sich nun die Ergebnisse der neuesten Temperaturrekonstruktion in den Proceedings of the National Academy of Sciences (Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia, Mann et al. 2008) bei Real Climate hier anschauen (siehe auch den Kommentar von Joe Romm hier), bei der man viermal so viele Datensätze zur Verfügung hatte, bei der man auch Rekonstruktionen zeigt, die nicht auf Hauptkomponentenanalysen und nicht auf Baumringdaten basieren (die beiden beliebtesten Einwände gegen Mann et al.) und man sieht: die grundsätzliche Aussage von Mann et al. ist robust gegen Datenquellen und Methodik der Auswertung von Proxydaten. Egal wie man die Daten behandelt und welche Daten man nimmt, das Mittelalteroptimum war vielleicht so warm wie die Mitte des 20. Jahrhunderts, aber seitdem ist es ca. 0,5 Grad wärmer auf der Erde geworden. Damit haben wir das schmale Band klimatischer Verhältnisse verlassen, in dem sich menschliche Zivilisationen entwickelten und die Menschen die heutige Bevölkerungsdichte aufbauten, worauf Joe Romm gerne hinweist. Das Unbehagliche an dieser Betrachtung ist, daß wir ja den größeren Teil der globalen Erwärmung nach allen Prognosen noch vor uns haben.
Die neue Arbeit von Mann et al 2008 hat den Vorzug, daß nun zum einen die Datenabdeckung auf der Südhemisphäre besser ist und besser abgeschätzt werden kann, wie stark das Mittelalteroptimum auf der Südhemisphäre war (nämlich merklich schwächer ausgeprägt als in unseren Breiten), zum anderen werden zeitliche Strukturen deutlicher, aus denen man schließen kann, daß das Klima empfindlicher reagiert als es in früheren Arbeiten erkennbar war. Es könnte ein weiterer Hinweis darauf sein, daß die gegenwärtig angenommene Klimasensitivität von 3 Grad je Verdopplung der CO2-Konzentration eher den Treibhauseffekt unterschätzt als überschätzt.


Falls jemand meint, hier würde nur einer von vielen natürlichen Temperaturzyklen abgearbeitet, dem sei noch ein Blick hierher anzuraten. Der gegenwärtige Temperaturanstieg beginnt nicht etwa am Ende einer Kaltzeit, sondern startet von einer relativen Warmzeit. Zudem ist der Temperaturanstieg 3 bis 10 mal schneller als bei den starken Temperaturänderungen zwischen Eiszeiten und Zwischeneiszeiten in der Vergangenheit. Am Ende der Entwicklung der Gegenwart stehen globale Temperaturen, bei denen sich die Dinosaurier auf der Erde wohl fühlten. Unsere Spezies entwickelte sich bei kühlerem Klima und an dieses ist unsere gegenwärtige globale Landnutzung angepaßt.