Sonntag, 11. Oktober 2009

Was können wir gegen die globale Erwärmung tun?

Die globale Erwärmung ist real. Man kann zeigen, daß die globale Temperatur steigt, daß sie es beschleunigt tut und daß nur die Emission von Treibhausgasen durch Menschen diese Erwärmung erklären kann. Es gibt also Grund genug, etwas dagegen zu tun. Im allgemeinen ist es aber Sache der Staaten, hier zu Vereinbarungen zu kommen und Maßnahmen zu treffen, um die Emissionen von Treibhausgasen zu reduzieren. Das Problem ist nur: sie tun es nicht.
Sie tun es nicht ausreichend. Das Hauptproblem stellen die USA dar. Bereits unter Jimmy Carter waren die ersten Kommissionsberichte erstellt worden (1979 der JASON-Report und der Charney-Report), die auf die Bedrohung hinwiesen. Geschehen ist jedoch in den USA praktisch nichts. Zunächst hatte man sich darauf berufen, daß noch Zeit genug sei für Maßnahmen und daß nach einigem Wirtschaftswachstum es relativ gesehen billiger würde, Maßnahmen zur Energieeinsparung und Verminderung der Emissionen zu treffen. Das war aber falsch. Es ist keineswegs billiger, sondern teurer geworden, den Klimawandel zu verlangsamen, weil aufgrund der verstrichenen Zeit heute viel drastischere Maßnahmen notwendig sind, als in den 80er Jahren des letzten Jahrhunderts ausgereicht hätten. Zum zweiten wird gerne auf andere Staaten gedeutet, deren Emissionen angeblich eigene Maßnahmen sinnlos machen würden. Wenn Chinas Wachstum bei den Emissionen in einem Jahr größer ist, als manche kleine Staaten insgesamt emittieren, kann schon fraglich werden, ob Maßnahmen nicht schon im Ansatz sinnlos werden, weil der Nachholbedarf der Schwellenländer sie aufwiegt. Das ist aber eine kurzsichtige Einstellung. Sobald die Schwellenländer ebenfalls anfangen, ihre Emissionen zu verringern, sind die Einsparungen der industrialisierten Länder keineswegs mehr sinnlos. Vor allem aber zieht schon das Vorbild der entwickelten Länder die Schwellenländer mit. Die Einsparmaßnahmen von Staaten wie Deutschland, dem Vereinigten Königreich, Frankreich, Schweden, Dänemark und den Niederlanden haben zum Beispiel China durchaus davon überzeugt, daß die Industriestaaten den Klimawandel ernst nehmen und man Entwicklung auch daran mißt, daß man sich Ziele im Umweltschutz setzt. Was wir in Europa also tun, regt Staaten wie China, Südkorea und Indien an, ebenfalls etwas zu unternehmen. Das sind die eigentlichen Zinsen des Kyoto-Protokolls, weniger die tatsächlichen Emissionsminderungen, die insgesamt nur eine geringe Wirkung auf das Erdklima hatten.

Mit der Präsidentschaft von Obama hatten manche die Hoffnung verbunden, daß sich dadurch in den USA nun etwas bewegen würde. Dabei unterschätzt man aber, wie stark Amerikaner an ihrem Lebensstil festhalten wollen, der auf niedrigen Steuern für Strom und Benzin und damit Energieverschwendung ohne Reue baut. Auch Obama und eine relative Mehrheit der Demokraten im Kongreß können nichts daran ändern, daß alle Maßnahmen unpopulär sind, die in Europa den Energieverbrauch vermindern. Und das liegt auch daran, daß in den USA, im Gegensatz zu Europa, noch nicht mal die Medien einheitlich die Botschaft überbringen, daß der Mensch das Klima ändert. Hier wird immer noch der Eindruck erweckt, es gäbe eine wissenschaftliche Kontroverse, ob der Mensch das Klima ändert und wenn, ob dies bedrohlich sei. Ohne eine starke Motivation, den Klimawandel aufzuhalten, sind aber erforderliche harte Maßnahmen gegen die Emissionen von Treibhausgasen nicht umsetzbar.

Solange aber die Staaten nicht an einem Strang ziehen, was kann da der einzelne tun? Es gibt ein paar Punkte, bei denen jeder aktiv werden kann.
  1. Flugreisen: Menschen, die regelmäßig Flugreisen absolvieren, haben einen großen CO2-Fußabdruck, und nur eine Minderheit ist aus beruflichen Gründen dazu gezwungen, eilig den Globus zu bereisen. Vor allem der Urlaub in Übersee ist so verzichtbar wie klimaschädlich. Und auch wenn es keineswegs nötig ist, unter dicken Decken zitternd bei Kerzenschein in dunklen Wohnungen zu hocken, wie manche Leugner als Zukunft unter Umweltfanatikern an die Wand malen, es sollte jedem klar sein, daß wir für die Zukunft unserer Kinder und Enkel Prioritäten setzen müssen. Und der Verzicht auf Flugreisen in Übersee sollte niemandem weh tun.
  2. Heizung: Wer Mieter ist, hat nicht viel Einfluß auf die Isolation seines Hauses. Aber die Heizung der Wohnung ist für die meisten Menschen der größte Posten beim Energieverbrauch und daher oft die wichtigste Möglichkeit, CO2-Emissionen zu senken. Wer kann, sollte die Investitionen wagen, sein Haus nach den besten Wärmedämmungskriterien zu modernisieren. Mieter müssen hoffen, daß ihr Vermieter mitzieht und ansonsten die bekannten Tipps zur Einsparung von Heizwärme beherzigen.
  3. Ernährung: Es ist nicht allen bekannt, daß der individuelle CO2-Abdruck sehr stark durch die Ernährung beeinflußt wird. Ein großer Teil der Klimawirkung unserer Nahrung kommt dadurch zustande, daß die Bearbeitung der Äcker mit Maschinen, der Düngemitteleinsatz und der Transport und die industrielle Verarbeitung der Nahrungsmittel dafür sorgen, daß ein harmlos wirkendes Stück Nahrung erhebliche CO2-Emissionen mit sich bringt. Das gilt vor allem für Obst und Gemüse außerhalb der Saison, das von anderen Kontinenten angeliefert wird. Viel gravierender ist aber der Methan-Abdruck von Lebensmitteln. Methan ist ein weitaus wirksameres Treibhausgas als CO2. Das relativiert sich zwar, weil Methan auch viel kurzlebiger ist. Deshalb hängt es erheblich davon ab, über welchen Zeitraum man Methan betrachtet, um zu entscheiden, um wieviel potenter es als Treibhausgas im Vergleich zu CO2 ist. Im allgemeinen ist der Betrachtungszeitraum ein Jahrhundert und Methan ist auf der Zeitskala etwa einen Faktor 25 wirksamer als CO2. Die Nahrungsmittelproduktion ist nun teilweise eine wichtige Methanquelle. An erster Stelle stehen da Rinder, in deren Mägen Bakterien die Zellulose des nährstoffarmen Grases in verdaubare Nähstoffe aufschließen und dabei Methan produzieren, das die Rinder ausrülpsen. Auf Rindfleisch zu verzichten kann den persönlichen Beitrag zum Treibhauseffekt in der Ernährung unter Umständen halbieren, und die Ernährung selbst wiederum kann, je nachdem ob man Flugreisen macht oder nicht, den persönlichen Klimafußabdruck bis zu einem Drittel bestimmen. Auch Schweine und Schafe leisten einen Beitrag zu klimarelevanten Emissionen. Eine generelle Empfehlung lautet daher, auf das Fleisch dieser Tiere weitgehend zu verzichten, den Verzehr von Milchprodukten niedrig zu halten und ansonsten sich möglichst nach der Saison und aus der Region mit Nahrungsmitteln zu versorgen.

Das sind zunächst qualitative Überlegungen. In späteren Beiträgen hoffe ich, das noch mit mehr Angaben unterfüttern zu können.

Sonntag, 4. Oktober 2009

Warum sollte man fehlerhafte Daten aussortieren?

Steve McIntyre ist ein Statistiker, der dadurch berühmt (oder berüchtigt) wurde, daß er zusammen mit dem Geologen McKitrick öffentlichkeitswirksam über Details in einer wissenschaftlichen Arbeit von Michael Mann und seinen Kollegen gemeckert hat – ich kann es leider nicht schmeichelhafter ausdrücken. Michael Mann und seine Kollegen hatten zu einem frühen Zeitpunkt das Risiko gewagt, Aussagen zur Entwicklung der Temperaturen in den vergangenen 1000 Jahren zu machen (Mann, M.E., R.S. Bradley, and M.K. Hughes. 1998. Global-scale temperature patterns and climate forcing over the past 6 six centuries. Nature 392:779-787.). Bis dahin wußte man nichts bestimmtes über die Entwicklung globaler Temperaturen, denn es gibt ja erst seit kaum 400 Jahren, und dann auch nur für Europa, Thermometermessungen der Temperatur. Es gibt zwar indirekte Hinweise darauf, daß in Europa das Mittelalter eher warm war und die Neuzeit, insbesondere das 18. und 19. Jahrhundert, eher kühl, aber daraus kann man nicht ableiten, um wieviel warm oder kühl es war im Vergleich zu heute, oder in wie weit das eine Aussage zu globalen Temperaturen ist. Mann et al. haben 1998 daher zum ersten Mal eine halbwegs belastbare Temperaturrekonstruktion aus verschiedenen Quellen zusammengestellt, die es ihnen ermöglichte zu sagen, daß die Erwärmung im Mittelalter zwar global war, aber nicht besonders ausgeprägt relativ zur globalen Erwärmung der letzten Jahrzehnte. Sie lehnten sich insbesondere damit weit aus dem Fenster, daß sie behaupteten, daß die 90er Jahre sehr wahrscheinlich das wärmste Jahrzehnt der letzten 1000 Jahre waren. Damals war das eine ziemlich weit gehende Interpretation der Daten, aber es war eben der erste Versuch, eine quantitative Temperaturrekontruktion für die Welt so weit in die Vergangenheit zurück zu machen. Selbst wenn Teile der Daten sich hinterher als fehlerhaft herausgestellt hätten, wäre die Arbeit alleine schon für ihren Pioniercharakter und die Diskussion neuer Methoden in diesem Bereich bemerkenswert gewesen, und auf jeden Fall hatten wir damit zum ersten Mal eine Quantifizierung der globalen Temperatur bis zur Zeit des Mittelalters.


Um den Kontext herzustellen: seitdem haben andere Gruppen, mit teilweise oder gänzlich anderen Wissenschaftlern, teilweise mit den gleichen, teilweise aber auch mit ganz anderen Paläodaten und mit gleicher oder anderer Methodik, die gleichen Ergebnisse erzielt: die warme Zeit des Mittelalters war vielleicht eine globale warme Phase im 13./14. Jahrhundert, aber dieses Temperaturmaximum war nicht so ausgeprägt wie die Temperaturentwicklung bis zu den 90er Jahren. Die Arbeit von Mann et al 1998 selbst wurde von Wahl und Amann 2006 reproduziert. Die National Academy of Sciences hat 2006 wichtige Aussagen von Mann et al. 1998 bestätigen können, allerdings darauf hingewiesen, daß Aussagen zu einzelnen Jahren oder Jahrzehnten nur mit begrenzter Wahrscheinlichkeit gemacht werden können, wenn man alle Unsicherheiten berücksichtigt. Mann et al 2008 haben dann erneut eine globale Temperaturrekonstruktion erstellt und dabei auch gezeigt, daß auch ohne die von einigen angezweifelten Baumringdaten der gleiche Temperaturverlauf herauskommt. Selbst wenn in der Arbeit von 1998 kleine Fehler gewesen sein sollten, wäre die Hauptaussage trotzdem inzwischen so gut bestätigt, wie man es sich für viele wissenschaftliche Arbeiten nur wünschen könnte. Ein globaler Temperaturverlauf, aus dem der aktuelle Temperaturanstieg deutlich herausragt, ist von verschiedenster Seite aufgrund der verschiedensten Daten hervorragend bestätigt.
Und, das ist alles trotzdem Schnee von gestern, weil das aktuelle Jahrzehnt fast 0,2 Grad wärmer ist als die 90er Jahre. Selbst wenn im Mittelalter ein Jahrzehnt global doch so warm gewesen sein sollte, wie die 90er Jahre, was man im Rahmen der Fehlerbalken von Mann et al 1998 ja nicht völlig ausschließen konnte, ist das laufende Jahrzehnt definitiv wärmer als es je in 1000 Jahren in einem Jahrzehnt war. Inzwischen muß man sagen, als es in 2000 Jahren in einem Jahrzehnt war. Kommentare dazu habe ich bereits hier und hier geschrieben.

Das ist erst mal der Hintergrund für das, was man getrost „Meckern“ nennen kann. McIntyre und McKitrick hatten eine Arbeit herausgebracht (McIntyre, S., and R. McKitrick, 2005: Hockey sticks, principalcomponents, and spurious significance. Geophys. Res. Lett., 32(3),L03710, doi:10.1029/2004GL021750.), in der sie behaupteten, die Ergebnisse von Mann et al. wären teilweise falsch. Auf der Basis dieser Behauptung läuft unter Leugnern die Meinung um, die Temperaturrekonstruktion von Mann et al 1998 wäre widerlegt worden, daher sei es im Mittelalter wärmer gewesen als heute und daher wäre die globale Erwärmung gar kein Problem. Teilweise stimmt schon die logische Kette nicht – selbst wenn Mann et al. 1998 völlig daneben gelegen hätte, wäre die globale Erwärmung trotzdem ein Problem. Und wenn es im Mittelalter wärmer gewesen wäre als heute, würde das nur heißen, daß die Klimasensitivität größer ist als in Modellen unterstellt, und daß daher steigende Treibhausgasmischungsverhältnisse das Klima stärker ändern würden als alle Modelle zeigen. Aber davon abgesehen hatten auch McIntyre und McKittrick keineswegs die Arbeit von Mann et al widerlegt, sondern nur Detailfehler aufgezeigt, die an der Grundaussage nichts ändern. Sie hatten gezeigt, daß die Dokumentation der verwendeten Daten nicht vollständig war. Andere Behauptungen hielten der Kritik nicht stand. Wahl und Amann etwa widerlegten, daß die Methode von Mann et al nicht reproduzierbare Ergebnisse lieferten. Es wurde auch widerlegt, daß die Methode von Mann et al eine Hockeyschlägerform der Temperaturrekonstruktion erzwinge. Es konnte gezeigt werden, daß McIntyre und McKittrick selbst die Hauptkomponentenanalyse, die Mann et al zur Datenkomprimierung genutzt hatten, fehlerhaft durchgeführt und interpretiert hatten.
Aber wegen des einen Moments des Ruhms, als der mittelmäßige McIntyre an Details einer bahnbrechenden Arbeit gemäkelt hatte und dafür Applaus aus dem politischen Lager der Leugner bekam, beschäftigt sich der Mann nun schon seit Jahren mit nichts anderem als dem Meckern an den Arbeiten anderer Leute ohne selbst je etwas von wissenschaftlichem Wert beizutragen. Vergleichbar mit einem Literaturkritiker, der es selbst nie geschafft hat, ein Buch zu schrieben und deshalb mit besonderer Lust Werke verreißt, in denen er Druckfehler feststellt. Das macht er auch, von wenigen Ausnahmen abgesehen, nicht über wissenschaftliche Publikationen, sondern in seinem Blog CimateAudit. Es ist absehbar, daß niemand besondere Lust hat, seinen selten besonders höflich geäußertern Aufforderungen nachzukommen, sämtliche Daten, Programme usw. an ihn herauszugeben, die für eine bestimmte Publikation benutzt wurden, damit McIntyre nun beharrlich suchen kann, ob es darin vielleicht wieder etwas gibt, über das man Meckern kann. McIntyre nennt seine Tätigkeit „Audit“ mit der unausgesprochenen Unterstellung, die von ihm ausgeguckten Wissenschaftler würden schlampig oder unfähig arbeiten, und müßten auf alles, was nach seiner Meinung ein Fehler sei, damit reagieren, ihre ganze Tätigkeit der Vergangenheit neu zu überarbeiten. Mit Verlaub, so funktioniert das nicht. Geschweige denn, daß McIntyre je bereit gewesen wäre, mal so auf die Fehler zu reagieren, die ihm nachgewiesen wurden.

Kürzlich gab es beim Erzeugen von Stürmen in Wassergläsern bei McIntyre eine neue Steigerung. Unter den vielen Daten, mit denen man Temperaturrekonstruktionen erstellen kann, gibt es auch Daten von Baumringen. Das Wachstum von Bäumen kann schneller oder langsamer sein in Reaktion auf Umweltbedingungen, was man an der Dicke der Baumringe erkennen kann. Umweltbedingungen können sein: wie warm ist es in der Wachstumszeit; wie feucht ist es in der Wachstumszeit; wie ist das Nährstoffangebot; wie stark setzen Schädlinge dem Baum zu... Will man aus Baumringen Rückschlüsse darauf ziehen, welche Temperatur vor Ort vorherrschte, muß man logischerweise eine Auswahl von den Bäumen treffen, bei denen vor allem die Temperatur das Wachstum beeinflußte, weil z.B. Wasser und Nährstoffe jederzeit ausreichend zur Verfügung standen. Aus vielen Baumringdaten, die an verschiedenen Orten der Erde gesammelt wurden, wird man also eine Auswahl treffen.

Ich denke, daß McIntyre das wissen muß. Deshalb ist es wenig glaubwürdig, wenn er nun Rohdaten aus Sibirien findet und dann feststellt, daß man aus diesen Daten einen Satz konstruieren kann, der einen anderen zeitlichen Verlauf der Dicke der Baumringe zeigt als die Daten, die von Briffa und anderen (die auch mit Michael Mann zusammengearbeitet haben) für Temperaturrekonstruktionen verwendet wurden. Das ist so eine Meldung wie „Ein Sack Reis in China ist umgefallen“. Infam ist aber, daß McIntyre nun diese Daten nimmt, die nicht mit der Temperatur korrelieren, daraus einen synthetischen Temperaturverlauf erzeugt, der anzeigt, daß die Temperaturen seit dem 2. Weltkrieg gefallen seien, was, wie wir aus Messungen wissen, ja falsch ist und dann dies auf seinem Blog so präsentiert, daß jeder Leser den Eindruck erhält, Briffa und seine Kollegen hätten Baumringdaten danach ausgewählt, daß sie zu ihrer vorgefaßten These von einer Hockeyschlägerform paßten, also unrepräsentative Daten genommen und somit ihre Ergebnisse gefälscht. Da wird etwas so präsentiert, daß suggeriert wird, hier wäre gelogen worden. Nach 254 Blogkommentaren stellt McIntyre dies halbherzig im Nebensatz scheinbar richtig, indem er meint, Briffa hätte nicht grob Daten nach Gusto selektiert („cherry picked“). Statt grob also subtil? Oder was? Briffa hat natürlich selektiert bzw. eine Selektion der russischen Kollegen übernommen. Nämlich die Baumringdaten ausgewählt, die eine Korrelation mit der Temperatur zeigen. Welche denn sonst? Und McIntyre hat eine Datenauswahl dargestellt, die genau zeigt, warum man sie verwerfen sollte – weil sie einen anderen Temperaturverlauf zeigt, als wir gemessen haben!

Es sind solche Darbietungen, die erhellen, warum McIntyre ein getreuer Ritter der Leugnerszene ist – er selbst macht seine „Audits“, in denen er eine Kulisse angeblicher Datenfälschung aufbaut, und läßt dann die Kommentatoren seines Blogs die Schmutzarbeit tun, die er vermeidet, um den seriösen Wissenschaftler zu geben. Seine Kommentatoren formulieren dann nämlich das aus, was McIntyre nur suggeriert: die Wissenschaftler, die die globale Erwärmung nachweisen, würden dies nur auf der Basis falscher Daten tun, und wenn man diese Fälschungen wegnimmt, gäbe es keine globale Erwärmung durch Treibhausgase. McIntyre weiß, daß dies falsch ist – es gibt Kommentare dazu von ihm – aber hier geht es auch nicht um wissenschaftliche Wahrhaftigkeit, sondern – für McIntyre – um Politik.

Also: McIntyre zeigt, warum die von Briffa nicht verwendeten Daten nicht verwendbar waren. Und tut dann so, als hätte er ihn überführt. Und der Teil der Presse, der politisch entsprechend aufgestellt ist, macht daraus die Meldung, die Hockeyschlägerform des Temperaturverlaufs, wie von Mann et al. 1998 erstmals festgestellt und seitdem dutzende Male mit zum Teil anderer Methode oder Daten bestätigt, sei widerlegt. Falsch. Widerlegt wurde nur, daß McIntyre irgendetwas macht, was mit seriöser Wissenschaft zu tun hätte.

Eine schon fast sarkastische Reaktion gibt RealClimate. Lesen sollte man dazu Deltoid. Und die dort jeweils angegebenen Links.

Ergänzung: Hier noch mehr zu dem Thema, wie jemand wie McIntyre sagt, daß jemand wie Briffa nicht Daten verfälschend selektiert hat, indem er wiederholt genau unterstellt, daß er Daten verfälschend selektiert hat ("cherry picked") und weitere Details.

Samstag, 19. September 2009

Arktisches Seeeis - der Trendwechsel, der keiner war?

Als 2007 das arktische Seeeis im Sommer ein Rekordminimum mit weitem Abstand markierte, gab es allgemein Spekulationen, daß hier eine neue Qualität eingetreten sein könnte. Über die 30 Jahre, die man das Seeeis mit Satelliten beobachten konnte, nahmen Ausdehnung und Volumen ab. Im Sommer ging das Seeeis stark zurück, im Winter hingegen nur langsam. Das kann man verstehen – der Raum, in dem gerade die Temperaturen erreicht werden, bei denen Meerwasser gefriert, ändert sich im arktischen Winter nicht stark. Aber im Sommer macht es einen großen Unterschied, ob weite Gebiete nur knapp über der Taupunktstemperatur liegen oder deutlich zu warm für Seeeis werden. Und je weniger das Eis im Winter an Zuwachs erhält, desto schneller wird es im Sommer wegtauen. Schließlich gibt es noch den Effekt der arktischen Verstärkung (der Erwärmung): ist erst mal Seeeis weggetaut, reflektiert das darunter liegende Meerwasser das Sonnenlicht weniger gut. Es wird stärker absorbiert und erwärmt diesen Bereich stärker. Sobald also im Sommer Teile des arktischen Seeeises abschmelzen, wird es erst recht noch wärmer.

Vor allem wegen diesem Effekt errechnen Klimamodelle dann auch, daß es einen Punkt gibt, an dem das Seeeis im Sommer immer schneller wegtaut und schließlich ganz verschwindet. Noch lange nach diesem Punkt wird es, auch bei fortschreitender globaler Erwärmung weiter ein Zufrieren des nordpolaren Meeres im Winter geben. Wir erwarten also, daß die Seeeisbedeckung im Sommer über die Jahre schnell zurückgeht, im Winter langsam und daß es irgendwann einen Punkt gibt, an dem von Jahr zu Jahr die Seeeisbedeckung beschleunigt verschwindet, bis das Seeeis im Sommer ganz verschwindet. Laut den Modellen ist dieser Kippunkt des Klimas für die Arktis aber noch Jahrzehnte entfernt. Das Jahr 2007 war aber um über 2,5 Standardabweichungen vom linearen Trend der Seeeisausdehnung für das Minimum im Sommer entfernt. Es ist sehr unwahrscheinlich, daß allein durch eine zufällige Verkettung von Wetterereignissen das sommerliche Abschmelzen des Seeeises sich so weit vom Trend entfernt. Unmöglich ist es natürlich nicht.

Daher sahen die Forscher nun mit Spannung auf die Entwicklung des Seeeises in den Folgejahren. Würde die Seeeisausdehnung wieder zum alten Trend zurückkehren? 2008 wurde der zweitniedrigste Wert für die Seeeisausdehnung erreicht. Immer noch über anderthalb Standardabweichungen (1,65 genau) unter dem Trend. Dieser Wert allein hätte eine Wahrscheinlichkeit von einigen Prozent, aber in Kombination mit dem Vorjahreswert wurde damit die Wahrscheinlichkeit für einen Trendbruch nahezu sicher. Daher hatte man mit Spannung darauf gewartet, ob dieses Jahr die Seeeisausdehnung den Rekord bestätigen würde. Im September ist das Minimum normalerweise erreicht und derzeit wächst die Seeeisausdehnung in der Arktis bereits wieder. Mit 5,1 Millionen Quadratkilometern ist die Seeeisausdehnung nun weniger als eine Standardabweichung vom Trend entfernt, bedingt durch niedrige Temperaturen in einigen Meeresgebieten und Winde, die diesmal das Packeis über eine größere Fläche verteilt haben. Für sich genommen liegt der Wert im üblichen Schwankungsbereich um einen Trend. Aber es handelt sich immer noch um den drittkleinsten Wert der Seeeisausdehnung in der ganzen Zeitreihe.

Zusammen mit den anderen beiden Minima 2007 und 2008 liegen die Werte der letzten 3 Jahre nach wie vor deutlich unter dem Trend der Jahre 1979 – 2008. In der Graphik sieht man deutlich, daß diese Dreiergruppe weiter vom Trend entfernt liegt als jede andere Dreiergruppe von Werten. Angesichts der Streuung der Werte sagt aber auch dies noch nichts über einen Trendbruch aus. Man braucht einfach mehr Werte, um den statistisch signifikant festzustellen. Das gilt auch für eine andere Eigenschaft der Werte. Eigentlich liegen sie schon von jeher nicht auf einem linearen Trend. Man merkt es schon daran, daß am Anfang und am Ende der Wertereihe die meisten Werte für das Minimum der Seeeisausdehnung unter dem linearen Trend liegen, in der Mitte aber meistens darüber. Das ist ein Hinweis darauf, daß eine konvexe Anpassung, eine sich beschleunigende Abnahme eine bessere Anpassung wäre als eine lineare Regression. Aber aufgrund der starken Schwankungen der Werte ist dieser Unterschied nicht signifikant.

Bei der Graphik, die ich eingefügt habe, wurden mir leider die Beschriftungen abgeschnitten (wenn ich dazu komme, will ich in den nächsten Tagen eine bessere Version einstellen). An der vertikalen Achse geht es von 4 bis 8 Millionen qkm in 0,5 Millionen-Schritten, an der horizontalen Achse geht es von Jahr 1979 bis 2009. Der Wert für 2009 ist bei 5 Millionen eingezeichnet, weil ich hier noch eine Prognose eingesetzt hatte. Die lineare Regression ist für die 30 Jahre von 1979 bis 2008 berechnet – 2009 ist ausgenommen. Natürlich macht jeder weitere niedrige Wert den Trend steiler.

Auch dieses Jahr wurde wieder im Juni versucht vorherzusagen, wie niedrig das Minimum der Seeeisausdehnung ausfallen würde. Diesmal lagen alle Vorhersagen zu niedrig, auch wenn im Median der Prognosen korrekt vorhergesagt wurde, daß die Seeeisausdehnung 2009 nicht unter 2008 liegen würde.

Fazit: die Frage, ob wir bereits an einem Kippunkt des Klimas sind, und ob die Klimamodelle bei der Vorhersage der von Seeeis befreiten Arktis zu konservativ waren, ist weiterhin offen. Aber Hinweise, wie zum Beispiel von Vicky Pope vom Hadley Centre, daß es sich hier vermutlich einfach nur um einen Hinweis darauf handelt, daß die Klimavariabilität größer ist als früher vermutet, erhalten mit jedem Wert, der stärker zum Trend zurückläuft mehr Gewicht. Erst in einigen Jahren wird man entscheiden können, ob 2007 wirklich einen Trendbruch darstellte.

Erheblich mehr zum Thema gibt es bei Primaklima.

Sonntag, 30. August 2009

Probleme mit Firefox gelöst

Ich gebe zu, daß ich mein Blog nach dem Prinzip der Black-Box benutze. Ich gebe Texte ein, aber ich habe keine Zeit und keine Lust, auch noch die knappe Freizeit darauf zu verwenden, mich in Feinheiten des Net-Publishing einzuarbeiten. Doch das kann auch in die Hose gehen. Da ich Mozilla als Net-Browser nur ausnahmsweisebenutze, merke ich auch normalerweise gar nicht, wenn nach Änderungen mein Blog in Firefox nicht lesbar ist. Und so mußte nach Murphys Gesetz genau das passieren. Zum Glück hat mich ein Feund auf das Problem aufmerksam gemacht. Also: der Blog ist jetzt ein bißchen schmaler und dafür wieder in Firefox lesbar (jedenfalls Version 3.5 - keine Garantien für ältere Versionen). Tut mir leid, wenn ich damit einigen Lesern die Freude am Blog verdorben hatte.

Donnerstag, 20. August 2009

Klimavorhersage bis 2030?

Man muß immer wieder darauf hinweisen, daß die Klimamodelle, deren Ergebnisse in die IPCC-Berichte eingehen, keine Klimavorhersage machen. Eine Vorhersage nimmt einen möglichst gut bekannten, konkreten Anfangszustand und entwickelt ihn mit möglichst guten Kenntnissen der bestimmenden Zustandsgleichungen und antreibender Größen so lange fort, bis die Ungenauigkeit der Vorhersage groß wird gegenüber den Vorhersagegrößen. Bei der Wettervorhersage ist die Grenze nach etwa 10 Tagen erreicht, stabilere Größen verschwinden nach etwa 15 Tagen in der Ungenauigkeit der Vorhersage. Die Klimamodelle hingegen machen Aussagen dazu, wie sich das Klima bei bestimmten Randbedingungen langfristig im statistischen Mittel einstellen wird. Der Weg hin zu einem bestimmten Klima wird nur sehr grob angegeben, weil in Wahrheit das globale Wetter ganz erheblich um den jeweiligen klimatologischen Mittelwert schwanken wird. Daher kann man zwar sagen, um wie viel sich die globale Temperatur innerhalb der nächsten 100 Jahre ändert, falls ein bestimmtes Emissionsszenario eingehalten wird, aber es wird nicht sinnvoll sein, die Aussage dieses Modell über die Temperatur in 10 Jahren zu verwenden, und zwar selbst dann, wenn das Ergebnis nach 100 Jahren ohne Fehler stimmen würde, denn es führen viele gleichwertige Entwicklungen des globalen Wetters hin zum selben Klimazustand in 100 Jahren.

Es gibt aber auch Klimavorhersagen. Diese Vorhersagen kann man in zwei Gruppen unterteilen. Zum einen sind da die deterministischen Vorhersagen. Das sind im Grunde die gleichen Klimamodelle oder entsprechend angepaßte Wettervorhersagemodelle, denen man aber konkrete Anfangsbedingungen aufzwingt, statt sie sich erst mal in einem Vorlauf frei einschwingen zu lassen. Am wichtigsten ist hier ein möglichst exakte Anpassung an Temperaturen auf und in den Meeren. Im Bereich von einigen Monaten liegen dabei Modelle, die zum Beispiel die El Nino-Southern Oscillation ENSO vorhersagen sollen, und derzeit etwa vorhersagen, daß die El Nino-Bedingungen im Pazifik sich weiter fortentwickeln werden und dadurch zumindest bis nächsten Frühjahr für eine deutliche globale Temperaturzunahme sorgen werden. Es gibt aber auch Versuche, Vorhersagen für die nächsten Jahrzehnte zu machen. Veröffentlicht sind einerseits Vorhersagen des Hadley Centres und der Climate Research Unit der University of East Anglia. Diese Gruppe sagt vorher, daß in den nächsten Jahren die globale Temperatur rasch ansteigen wird, um 0,3 Grad zwischen 2004 und 2014. Das ergäbe eine Temperaturanomalie um 0,7 Grad in 2014 gegenüber im Mittel 0,43 Grad im laufenden Jahrzehnt. Das hieße, daß die Temperatur in den nächsten Jahren rasch ansteigen würde. Keenlyside et al. hingegen behaupten, daß die globale Temperatur in den nächsten Jahren nur wenig ansteigen würde. Beide Vorhersagen sind nur gering glaubwürdig, denn das Verfahren ist noch wenig erprobt und bisherige Ergebnisse im Vergleich zur tatsächlichen Entwicklung zeigen nur eine schwache Prognosegüte.

Neben den deterministischen Modellen gibt es auch statistische Modelle. Die Grundidee hier ist, sich die wesentlichen Größen herauszupicken, die die zukünftige Entwicklung beschreiben, und für diese die weitere Entwicklung zu bestimmen. Ich habe ja schon mal, allerdings mit einer anderen Zielsetzung, die Temperatur in verschiedene Anteile zerlegt. Hier fängt mal allerdings gleich mit der globalen Temperaturanomalie an. Man teilt die globale Temperatur in verschiedene Komponenten auf, z.B. Temperaturänderung(durch Vulkane) + Temperaturänderung(durch ENSO) + Temperaturänderung(durch Sonneneinstrahlungsänderung) + Temperaturänderung(durch menschlichen Eingriff über Treibhausgase und Aerosol) + Basiswert. Dahinter stecken zwei Annahmen. Die Größen sind voneinander unabhängig, was recht plausibel ist, und sie entwickeln sich linear additiv, das heißt, wenn ich die Temperatur durch menschlichen Eingriff um 1 Grad steigen lasse und dann ein Vulkanausbruch eine Abkühlung um 0,2 Grad bewirkt, würde der gleiche Vulkanausbruch, wenn die Temperatur um 2 Grad gestiegen ist, sie ebenfalls um diese 0,2 Grad senken. Das ist eine Annahme, die nicht zu stimmen braucht. So lange wir aber die nächsten Jahre betrachten und die globale Temperatur sich noch nicht zu stark geändert hat, ist diese Annahme noch nicht unplausibel.

Die Frage ist nun, wie finde ich heraus, um wie viel eine bestimmte Änderung einer Größe (Stärke des ENSO-Indikator, Stärke der Sonneneinstrahlung, menschlicher Strahlungsantrieb durch Treibhausgase und Aerosole, Stärke von Vulkanausbrüchen) jeweils die Temperatur ändert. Die Antwort hier ist die Anwendung einer multiplen linearen Regression. Die Größen werden als unabhängig angenommen und es wird versucht, die Abweichungen einer Kombination dieser Größen zur Temperatur zu minimieren. Dann kann man vorhersagen, um wie viel sich die Temperatur in den nächsten Jahren ändert, wenn man diese vier Größen, ENSO, Sonne, Vulkane und menschlicher Antrieb, ändert.

Genau das haben nun Lean und Rind gemacht und die Ergebnisse in den Geophysical Research Letters vorgestellt (Lean, J. L., and D. H. Rind (2009), How will Earth's surface temperature change in future decades?, Geophys. Res. Lett., 36, L15708, doi:10.1029/2009GL038932.) Diese beiden Wissenschaftler haben sich bereits 2008 mit der Frage beschäftigt, welche Größen eigentlich auf die globale Temperaturentwicklung Einfluß nehmen und wie groß der menschliche Anteil daran ist (er ist dominierend in den letzten Jahrzehnten) (Lean, J. L., and D. H. Rind (2008), How natural and anthropogenic influences alter global and regional surface temperatures: 1889 to 2006, Geophys. Res. Lett., 35, L18701, doi:10.1029/2008GL034864.) Nun sagen sie voraus, daß die globale Temperatur bis 2014 deutlich ansteigen sollte (um 0,15 Grad, also auf über 0,55 Grad Temperaturanomalie nach der HadCRUT-Zeitreihe – derzeit stehen wir bei 0,5 Grad im Juni 2009 bzw. 0,42 Grad im Mittel des laufenden Jahrzehnts), von 2014 bis 2019 hingen nur gering (0,03 Grad) steigen wird, ziemlich analog zum raschen Anstieg in der ersten Hälfte des laufenden Jahrzehnts und der Konsolidierung des Anstiegs danach. Sie begründen das damit, daß der unterliegende anthropogene Trend überlagert wird durch eine Verstärkung der Erwärmung durch erhöhte solare Aktivität in den nächsten 5 Jahren und wieder abfallender Aktivität in den folgenden 5 Jahren. Sie deuten auch an, wie ein Vulkanausbruch in der Stärke des Pinatubo-Ausbruchs Anfang der 90er Jahre und ein starker El Nino Einfluß nehmen würden. Beides ist auf der Zeitskala grundsätzlich nicht vorhersagbar, aber wenn man einen El Nino auf die ansteigende globale Temperatur aufaddiert, würde man zu jeder Zeit das Temperaturmaximum von 1998 übertreffen. Das Ergebnis liegt natürlich in dem Rahmen, den bereits meine Milchmädchenrechnung angibt, und den auch Easterling und Wehner mit einer ganz anderen Methode finden.

Die Ergebnisse sind also nicht überraschend und nicht aufregend, aber die Arbeit ist sorgfältig ausgeführt und verdeutlicht, daß die globale Temperaturentwicklung recht gut verstanden wird. Im Vergleich zu dieser Arbeit wirkt das kurz zuvor veröffentlichte Machwerk von McLean et al. 2009, in dem eine hohe Korrelation zwischen Temperatur und ENSO-Indikator erzwungen wird und am Ende Aussagen zum Klimatrend gemacht werden, die keinen Bezug zu den Daten in der Arbeit haben, erst recht amateurhaft und unseriös. Das Ergebnis von Lean und Rind ist wohl die derzeit beste Vorhersage der globalen Temperatur der nächsten Jahre. Aber auch hier sieht man deutlich, wie massive Begrenzungen greifen. Weder können wir über mehr als ein halbes Jahr den ENSO-Zyklus vorhersagen noch wissen wir, wann wieder ein Vulkan der Stärke des Mt. Pinatubo ausbricht, dessen (Sulfat-)Aerosol für eine merkliche, kurzzeitige Abkühlung sorgen könnte. Sicher ist nur, daß wir die Temperaturen der 90er Jahre, des 20. Jahrhunderts und wohl auch der letzten 2000 Jahre, endgültig hinter uns gelassen haben, und wir vielleicht schon 2010, auf jeden Fall aber vor 2014 den nächsten Temperaturrekord in allen Temperaturzeitreihen sehen werden. Sicher ist auch, die globale Erwärmung schreitet voran und nein, es wird nicht kühler. Aber das wußten wir auch schon.

Dienstag, 18. August 2009

Wasser sparen, oder?

Jeder kennt sie, die Wasserspartaste an Toiletten, die speziellen Köpfe an Duschen und Wasserhähnen, um den Wasserdurchfluß zu reduzieren und die Appelle, Wasser sei ein knappes Gut, die gerade in der internationalen Weltwasserwoche (17.-23.8.) wieder verbreitet werden.

Ein knappes Gut, global gesehen.

In erster Linie ist Wasser ein sehr ungleich verteiltes Gut. Der größere Teil Deutschlands ist Wasserüberschußgebiet, ausgenommen Teile Brandenburgs und von Mecklenburg-Vorpommern, wo der Klimawandel zu Wassermangel führen könnte. In Teilen Spaniens oder gar in Nordafrika ist Wasser natürlich ein knappes Gut. Aber mir fehlt die Fantasie, einen Zusammenhang zwischen weniger gespültem Wasser in meiner Toilette und Trinkwassermangel in Nordafrika herzustellen.

Doch angenommen, es wäre sinnvoll, in Deutschland Wasser zu sparen. Was wären denn dann angemessene Maßnahmen? Einen praktischen Zugang liefert ein Spielzeug, auf das man über das Internet zugreifen kann, um den Wasserfußabdruck zu bestimmen. Der Rechner, auf den man auch hier direkt kommt, erlaubt es, seinen Wasserverbrauch abzuschätzen oder Varianten dafür durchzuspielen. Wenn man den mal durchgeht, ist das Schaubild am Ende die wichtigste Botschaft. Grob 1/3 des Wasserverbrauchs werden da durch den allgemeinen Konsum bestimmt. Das ist der Wasserverbrauch bei der Stromproduktion und in der Industrie, um Stahl, Papier oder Plastik herzustellen. Mehr Konsum, mehr Wasserverbrauch. Wenn man versuchshalber vorgibt, daß man nicht in Deutschland lebt, sondern in den USA, erhöht sich dieser Anteil am Wasserverbrauch um fast die Hälfte. Global gesehen habe ich also schon einen gewaltigen Beitrag zum Wasserschutz geleistet, indem ich nicht in den USA lebe. (Der Satz ist nicht übermäßig ernst gemeint.) 2/3 meines Wasserverbrauchs bestimme ich über meine Ernährung. Die Landwirtschaft ist neben Industrie und Energiewirtschaft der wichtigste Verbraucher von Wasser. Wenn ich hier einen Effekt erreichen will, dann reduziere ich meinen Fleischkonsum. Der verbraucht nämlich besonders viel Wasser pro Kilogramm Nahrungsmittel.

Und jetzt zur Wasserspülung und zum Wasserreduzierer am Wasserhahn. Hier reden wir über einen kleinen Teil eines Anteils von vielleicht 4% am Gesamtverbrauch an Wasser. Wenn ich da 10% spare oder verschwende, geht also mein Gesamtverbrauch um ein atemberaubendes halbes Prozent rauf oder runter. Wie wäre das: ich reduziere meinen Konsum um 1% und dafür habe ich täglich eine Spaßspülung auf dem Klo frei? Oder ich verzichte auf 100 Gramm Fleisch pro Woche und habe dafür täglich über sechs Spaßspülungen am Klo frei. Es ist unpopulär, aber für die Umwelt ist wohl kaum etwas so überflüssig wie die Wasserspartaste an Toiletten in Deutschland. Der wesentliche Effekt des deutschen Wassersparens ist es, Wasser in Deutschland teuer zu machen, denn die Wasserwerke, die Wasserleitungen und die ganze Infrastruktur verschwinden ja nicht, sondern verursachen fixe Kosten, die auf den Wasserverbrauch umgelegt werden. Die Egoisten, die Wasser „sparen“, erhöhen allen anderen die Wasserrechnungen. Zugleich droht das Risiko verstopfter Rohre, weil das Verhältnis von Dreck zu durchfließendem Wasser ungünstiger wird. Alte Kanalisationsanlagen sind auf das überzogene Wassersparen nicht eingerichtet.

Auf den Punkt gebracht: sparsame Deutsche haben den täglichen Verbrauch an Wasser pro Kopf in 20 Jahren um 20 Liter vermindert. Kaufen sie sich nun eine einzige Jeans zusätzlich, ist die ganze Ersparnis futsch und der jährliche Verbrauch sogar um 1000 Liter gestiegen. 7 Steaks kann sich ein Deutscher von dieser Wasserersparnis leisten – so manche Wampe könnte ruhig weniger fressen und dafür öfter auf dem Klo spülen.

Ich finde diese Rechner im Internet, um seinen Fußabdruck in was auch immer abzuschätzen eine tolle Sache, wenn man die Beschränkungen solcher Programme im Hinterkopf behält. Sie geben einem vor allem einen Sinn für Proportionen und die Möglichkeit Alternativen durchzuspielen. Und hier ist die Botschaft eindeutig, daß mein Wasserverbrauch vor allem eine Frage meines Konsums und meiner Ernährung ist. Vielleicht spielt es auch noch eine Rolle, ob ich grundsätzlich dusche oder meine, ich müßte dauernd eine Badewanne mit Wasser füllen, um sauber zu werden. Aber viel wichtiger ist, was ich verbrauche, wie viel Wasser so manches Importgut im Ursprungsland verbraucht und welchen Einfluß ich auf den Landschaftsverbrauch nehme oder den globalen Wasserkreislauf (für den der Klimawandel eine erhebliche Rolle spielt).

Wie gesagt, mal abgesehen davon, daß Deutschland für Privatverbraucher über reichlich Wasser verfügt, und abgesehen davon, daß das Sparen von Wasser in Deutschland an der Wasserknappheit in Südspanien nichts ändert.

Mittwoch, 12. August 2009

Die Psychologie des Versagens

Das Thema des Klimawandels ist nicht nur ein naturwissenschaftliches. Die Auswirkungen und die Frage der geeigneten Gegenmaßnahmen spielen in die Ökonomie hinein. Die Auswirkungten des Klimawandels sind auch Thema der Sicherheitspolitik. Und es gibt auch eine Psychologie des Klimawandels.

Der Mensch ist in der Evolution daran angepaßt worden, auf Bedrohungen in seiner Umgebung zu reagieren. Er muß schnell handeln, um Angriffe von Tieren abzuwehren oder sich vor Naturgewalten in Sicherheit zu bringen. Der Mensch überlebte, wenn er Gefahren schnell erkannte und dann schnell und entschlossen das richtige tat. Er überlebte außerdem, wenn er sparsam mit seinen Ressourcen umging. Ein Mensch, der dauernd im Streß um eingebildete Gefahren ist, verbraucht schneller wertvolle Energie und wird am Ende schneller verhungern als seine Artgenossen.

Inzwischen hat sich die Welt verändert. Und die Art der Gefahren, mit denen wir umgehen müssen, ist eine ganz andere geworden. Das wichtigste Lebensrisiko für Menschen heute ist nicht mehr, von einem Raubtier überfallen zu werden, zu verhungern oder vom Nachbarn erschlagen zu werden. Menschen sterben heutzutage an Übergewicht, an Bewegungsmangel, an zu viel Alkohol oder Tabakkonsum. Allen diesen Gefahren ist gemein, daß sie langsam kommen, daß sie vermeidbar sind und daß der durchschnittliche Mensch - sie nicht vermeidet.

Ich merke es an mir selbst: das Wissen darum, daß mich zu wenig Sport statistisch gesehen bis zu einigen Jahren früher ins Grab bringen und auch die Lebensqualität meines letzten Lebensjahrzehnts verschlechtern kann, reicht nicht aus, um mich jeden Abend dazu zu motivieren, noch eine Runde ums Haus zu laufen und Übungen zu machen. Ausreden finden sich oft genug. Mein Verstand sagt mir das eine, aber meien Belohnungs- und Gefahrenzentren im Gehirn können mit einer Gefahr, die langsam kommt, die sich erst in unbestimmter Zukunft auswirkt, die aber jetzt sofort von mir konkrete Opfer verlangt, nicht umgehen.

Genau deshalb tut es sich die Menschheit so schwer, jetzt die Maßnahmen zu treffen, um dem Klimawandel zu wehren, der im Laufe der kommenden Jahrzehnte schrittweise immer gravierendere Auswirkungen haben wird. Maßnahmen gegen Terror, Krieg, Kriminalität oder, aktuell, die Schweinegrippe oder die Finanzkrise, sind entschieden sexier als Vorsorge vor zukünftigen kritischen Entwicklungen.

Eine Arbeitsgruppe der American Psychological Association hat in diesem Sinne die Hindernisse zusammengetragen, die bewirken, daß die Menschheit nicht auf die Gefahr des Klimawandels reagiert. Sie zählen auf:

  • Unsicherheit über die zukünftige Entwicklung.
  • Mißtrauen bezüglich Experten und Regierungsstellen (insbesondere in den USA ein Problem).
  • Leugnung - viele Menschen, vor allem dort, wo die Versorgung durch seriöse Medien schlecht ist und Lobbygruppen sehr aktiv sind, hören einfach weg, wenn die falsche Botschaft kommt und leben in einer Scheinrealität, in der der Klimawandel nicht existiert, nicht von Menschen bewirkt wird, keine negativen Auswirkungen hat oder sowieso nichts dagegen getan werden kann.
  • Unterschätzung von Risiken, insbesondere, wenn diese in der Zukunft liegen.
  • Mangel an Kontrolle - viele Menschen schätzen ihre Möglichkeiten gering ein, etwas am Problem ändern zu können und sehen es daher als ein "Problem anderer Leute".
  • Beharrlichkeit bestehender Gewohnheiten - es ist schwer, eine gewohnte Lebensweise zu ändern, selbst wenn man genau weiß, daß diese schädlich ist. Dass Gehirn sucht unbewußt Ausreden, um nicht die gewohnten und Sicherheit bietenden Abläufe zu verlassen.

Die Arbeitsgruppe empfiehlt daher, auf die Psychologie der Menschen einzugehen. Zum Beispiel sollten Umweltschutzmaßnahmen direkte Rückmeldungen und Belohnungen geben, indem zum Beispiel Energiespareinrichtungen direkt anzeigen, wie viel an Geld gespart wird. Man sollte nicht schauen, wei man technisch ein Problem löst, sondern die betroffenen Menschen auch mit ihrem Verhalten und Gefühlen berücksichtigen. Der Teufel liegt hier natürlich im Detail. Eine der Voraussetzungen ist zum Beispiel, daß zunächst mal zum Beispiel Regierungen überhaupt zur Überzeugung gelangen müssen, daß hier ein dringendes Problem vorliegt. Und die Medien müssen die Botschaft in die Gesellschaft tragen. Beides hat in den USA in den letzten fast 30 Jahren nicht funktioniert, mit der Folge, daß die US-Gesellschaft den höchsten Anteil an Leugnern des Klimawandels hat, die aktivsten Lobbygruppen gegen Umweltschutzmaßnahmen und dem Klimaschutz in Umfragen die geringste Priorität gegenüber anderen Problemen der Zeit gibt.

Donnerstag, 30. Juli 2009

ENSO macht keinen Trend, aber Politik

Angenommen, ich möchte zeigen, das der größte Teil der globalen Temperaturänderungen der letzten 100 Jahre von der Südlichen Oszillation (El Nino Southern Oscillation, kurz ENSO), einer wiederkehrenden Schwankung von Luftdruckunterschieden und von Meeresströmungen im Pazifik, verursacht wurde, wie würde ich da vorgehen?

Zunächst einmal müßte ich aus der Temperaturzeitreihe den langjährigen Trend entfernen, denn hier spielen ja die Treibhausgase eine große Rolle. Weiterhin würde ich Schwankungen aus der Zeitreihe entfernen, die kurzfristig erfolgen relativ zu ENSO. Auf jeden Fall würde ich alle Variationen, die schneller als ein Jahr erfolgt, wegfiltern, denn ENSO ereignet sich auf einer Zeitskala von wenigen Jahren.

Was für ein Zufall, daß in dem Artikel von McLean, J. D., C. R. de Freitas, and R. M. Carter, Influence of the Southern Oscillation on tropospheric temperature, J. Geophys. Res., (2009), 114, D14104, doi:10.1029/2008JD011637, genau dieses gemacht wurde. Die Autoren wollten Temperaturen aus Satellitenmessungen (der Datensatz der University of Alabame in Huntville, UAH, aus der mittleren Troposphäre) mit dem Southern Oscillation Index (SOI) vergleichen, der über den Luftdruckunterschied zwischen West- und Ostpazifik die Stärke von El Nino (negativer Wert) bzw. La Nina (positiver Wert) mißt. Erfahrungsgemäß wirkt sich ENSO erheblich auf die regionale und die globale Temperatur aus. Primär findet bei einem El Nino ein Zustrom warmen Oberflächenwassers vor der Westküste Südamerikas statt. Die Zirkulation in die Tiefsee wird geschwächt, der Wärmetransport in die Arktis wird verstärkt und insgesamt wird es an der Oberfläche gegenüber vor oder nach einem El Nino wärmer. Bei einem La Nina passiert genau das Gegenteil. Weil dieser Zusammenhang bekannt ist, wird er auch intensiv diskutiert, wenn es zum Beispiel um die Diskussion von Temperaturänderungen geht, die auf der Zeitskala von wenigen Jahren stattfinden. Insgesamt zähle ich in meinem Blog ENSO unter globales Wetter. Weil es sich bei ENSO um eine Oszillation, eine Schwankung der Temperaturverteilung und der Wärmeflüsse in den Ozeanen handelt, erwarte ich davon keinen langfristigen Trend. Dies wurde auch z.B. von Lean and Rind, How Natural and Anthropogenic Influences Alter Global and Regional Surface Temperatures: 1889 to 2006, Geophysical Research Letters, (2008) 35, L18701, doi:10.1029/2008GL034864 gezeigt, die ENSO, Aerosole aus Vulkanen und Änderungen der Sonneneinstrahlung als Quellen für Variabilität in der Temperaturzeitreihe belegten, aber den Trend der Temperaturentwicklung der letzten Jahrzehnte fast ausschließlich dem Anstieg der Treibhausgase zuordnen konnten.

McLean et al. wollten offensichtlich ein anderes Ergebnis. Deshalb nahmen sie ein gleitendes Mittel über 12 Monate der monatlichen Werte der Temperaturzeitreihe und des SOI. Damit sollten kurzzeitige Schwankungen herausgefiltert werden, die die Korrelation zwischen beiden Datensätzen verringert hätten. Andererseits sind nun beide Datensätze stark autokorreliert. Weiterhin wurden die beiden starken Vulkanausbrüche des El Chichon und des Pinatubo aus den Datenreihen entfernt plus ca. bis zu einem Jahr, das noch von der Vulkanasche beeinflußt sein könnte. Die so verstümmelten Datensätze waren den Autoren aber immer noch nicht genug präpariert. Sie wurden auch noch vom Trend befreit, indem die monatlichen gemittelten Werte von denen 12 Monate später jeweils abgezogen wurden. Das ist im Grunde eine Ableitung der Zeitreihe nach der Zeit, indem nun jeweils die Änderung innerhalb eines Jahres betrachtet wird. Nachdem also alles aus den Datensätzen beseitigt wurde, was eine hohe Korrelation zwischen Temperatur und dem ENSO-Signal hätte beeinträchtigen können, fand man genau das, was man finden wollte – eben diese hohe Korrelation, die schon allen im Felde bekannt war (nicht zuletzt in Lean und Rind, 2008 belegt – siehe oben) und auch in den IPCC-Berichten diskutiert wurde. Neu ist lediglich, daß man die Korrelation zwischen den verstümmelten, gemittelten und nach der Zeit abgeleiteten Datensätzen für Temperatur und SOI noch weiter erhöhen kann, wenn man sie um 7 Monate gegeneinander verschiebt. Wäre es nur darum gegangen, wäre das ein langweiliger, aber wissenschaftlich korrekter Artikel gewesen. Aber mindestens zwei der Autoren sind bekannte Leugner des Klimawandels, die sich schon längst von seriöser Wissenschaft verabschiedet haben und dieser Artikel zeigt genau, warum ich de Freitas und Carter nicht für seriöse, ehrliche Wissenschaftler halte.

Der wichtigste Punkt sind die Schlußfolgerungen. Obwohl die Zeitreihen durch die Subtraktion der Werte voneinander im Jahresabstand, was letztlich eine Ableitung nach der Zeit ist, von ihrem Trend befreit wurden, behaupten die Autoren dort, sie hätten belegt, daß „vielleicht“ ENSO und nicht anthropogene Treibhausgase die globalen Klimaveränderungen bewirkt hätten. Das ist eine platte Lüge, denn wenn man den Trend aus einer Zeitreihe entfernt, kann sich der in einer Analyse auch nicht auswirken und mit nichts korrelieren. Dies wird noch deutlicher in der Presseerklärung, die Carter herausgab, in der er ganz offen davon sprach, daß man belegt habe, daß nicht der Mensch, sondern ENSO den Klimawandel mache. Wenn man den Hintergrund dieser Autoren kennt, ihre Kommentare dazu sieht und sich die Arbeit unter diesem Gesichtspunkt anschaut, kann man zu keinem anderen Schluß kommen, als daß dies eine präzise geplante Arbeit war, die alleine der Propaganda gegen den wissenschaftlichen Sachstand zum Klimawandel dienen sollte. Es war ja vorher bekannt, daß die Variabilität der globalen Temperatur im Bereich weniger Jahre vor allem mit dem ENSO-Signal korreliert, und alle Analyseschritte waren systematisch darauf aufgebaut, diesen Punkt zu betonen. Man hat sogar darauf geachtet, die aus Satellitenmessungen berechnete Temperatur zu nehmen, weil bekannt ist, daß sich hier das ENSO-Signal noch stärker zeigt als in den Bodenmessungen, die zudem die von ENSO weniger betroffenen polaren Gebiete stärker betonen.

In der ganzen Arbeit findet man Stellen, in denen gar nicht mal subtil eine politische Botschaft untergebracht wird. So wird bei der Begründung für die Wahl der Temperaturdaten, die aus Satellitenmessungen berechnet wurden, behauptet, daß diese Daten zuverlässiger seien als die Daten von Bodenmeßstationen. Letztlich wurde damit angedeutet, daß diese Daten nicht korrekt seien – gemeint waren damit Unterstellungen, die Daten seien vom städtischen Wärmeinseleffekt oder gar politisch motivierten Manipulationen verseucht.

An anderer Stelle wurde anerkannt, daß schon in dem 4. IPCC-Bericht der Einfluß von ENSO auf die Variabilität der globalen Temperatur hingewiesen wurde und betont wurde, daß man ENSO-Zyklen nicht über mehr als maximal 12 Monate vorhersagen könne. Daraus wurde die Unterstellung abgeleitet, daß Klimamodelle, die also die wichtigste Quelle für Variabilität in den globalen Temperaturdaten mit Anerkennung durch das IPCC nicht vorhersagen könnten, könnten erst recht keine Aussagen zum Klimawandel bis zum Jahr 2100 machen. Dies ist eine etwas originellere Variante des absichtlichen Verwechseln von Wetter und Klima.

Wettervorhersagen sind Anfangswertprobleme, bei denen ein konkreter Wetterzustand in die Zukunft vorausberechnet wird, wobei sich schnell ein Vorhersagefehler aufschaukelt. Klimaprojektionen sind Randwertprobleme, bei denen man einen typischen, mittleren Zustand der Atmosphäre sich auf die vorgegebenen Randbedingungen einschwingen läßt. ENSO vorherzusagen gelingt über 6 bis maximal 12 Monate. Aber der klimatische Trend ist auch eine Mittelung über viele ENSO-Zustände, daher ist es für eine Klimaprojektion keineswegs erforderlich, einzelne ENSO-Zyklen vorherzusagen. Auch dies ist den Autoren bekannt, die sich politisch zweckmäßig dumm stellen.

In einem weiteren Abschnitt behaupten die Autoren, daß Klimamodelle mit den in ihnen enthaltenen Darstellungen der natürlichen Variabilität der globalen Temperatur diese nicht hätten erklären können und die Abweichung zwischen den bekannten natürlichen Einflüssen und den Beobachtungen hätte man dann dem anthropogenen Treibhauseffekt zugewiesen. Das ist absurd, denn der Effekt der Treibhausgase auf den Strahlungshaushalt wird genauso modelliert wie die übrigen Einflüsse. Wenn dann Diskrepanzen zwischen Modellergebnissen und Beobachtungen verbleiben, ist genau das dann der Modellfehler, den man dann zur Kenntnis nimmt – anders wäre es nicht möglich, die Klimamodelle zu verbessern. Auch diese völlig falsche Zuweisung ist rein politisch kalkuliert.

Letztlich war die ganze Untersuchung zur Korrelation von SOI und Temperatur nur ein Vehikel, um die üblichen Verschwörungstheorien, Vernebelungstaktiken und Diffamierungen des wissenschaftlichen Prozesses unterzubringen, die schon seit gut 20 Jahren im Umlauf sind. Die Fachbegutachter, die diesen Beitrag passieren ließen, haben vielleicht zu sehr darauf geachtet, ob der Beitrag mit dem ENSO-Phänomen richtig umgeht und die darauf bezogenen Aussagen korrekt sind. Das ist weitgehend der Fall. Der politische Unterton ist ihnen aber anscheinend genauso entgangen, wie die inhaltlich gar nicht gedeckten Schlußfolgerungen, Klimamodelle taugten nichts und der klimatische Trend sei „vielleicht“ nur von ENSO, aber nicht von anthropogenen Treibhausgasen erzeugt worden. Zum Teil liegt es daran, daß die Autoren ein bewußtes Vernebelungsspiel mit dem Wort Varianz bzw. Variabilität treiben, das zum einen Veränderungen auf dem Trend bedeuten kann, aber auch Veränderungen unter Einschluß des Trendes (zum einen „variance“, zum anderen „variation“, beide Begriffe werden benutzt, als bedeuteten sie das gleiche). Innerhalb des Artikels kann man gutwillig unterstellen, daß nur die Variabilität auf dem Trend gemeint sei, denn schließlich läßt die Form der Analyse nur dieses zu. Aber mit den Hinweisen in den Schlußfolgerungen und ganz besonders mit der Presseerklärung wird klar gemacht, daß die Leser davon überzeugt werden sollen, daß der Trend selber mit gemeint sei. Genau so wird methodisch eine scheinbar seriöse Fachpublikation in Wahrheit zum trojanischen Pferd, politische Aussagen zu transportieren und die wissenschaftliche Arbeit zu torpedieren. Das der Zweck erreicht wurde, zeigt schon, daß der Titel der wissenschaftlich nicht originellen Arbeit alleine bei google bereits nach einer Woche über 3000 Treffer erbringt, was zeigt, wie begierig Leugnerblogs inzwischen solche trojanischen Pferde aufgreifen, um das politische Kapital daraus zu schlagen.

Was Leugner sicher nicht belasten wird, aber für sie eigentlich ein Problem sein müßte, daß hier der Zoo von sich widersprechenden Anti-IPCC-Thesen weiter erweitert wird. Während die Fachwelt sich weitgehend einig ist, daß die globale Temperatur wesentlich durch anthropogene Treibhausgase ansteigt, kursieren bei Leugnern nun die (in der Fachwelt widerlegten) Thesen:

Vielleicht sollten die Leugner erst mal unter sich ausmachen, was denn nun eigentlich ihre alternative Theorie ist, abgesehen davon, daß sie in der Pflicht stehen, sie genauso sorgfältig zu belegen wie die allgemein akzeptierte Theorie vom menschengemachten Klimawandel mit einer Klimasensitivität im Bereich von 2 – 4,5 Grad je Verdopplung des CO2-Mischungsverhältnisses.


Der Artikel wird außerhalb von Leugnerkreisen wohl kaum zitiert werden, da sein wissenschaftlicher Wert fraglich ist. Aber das war ja auch nicht sein Zweck. Der ist damit erfüllt, daß in einigen Zeitungen mit geringer Expertise der Beitrag genau so kommentiert wurde, wie es beabsichtigt wurde – als Beweis, daß der Klimawandel natürliche Ursachen habe, offiziell publiziert in einer Fachzeitschrift mit recht hohem Ansehen. Wie sich das auswirkt, sieht man dann an so schlampigen Beiträgen wie zum Beispiel hier in der Welt, wo ich schon oft solche Machwerke beobachtet habe und seriösen Wissenschaftsjournalismus nicht mehr erwarte. Was da alles nicht stimmt und offensichtlich kritiklos aus der Presseerklärung von Carter abgeschrieben wurde, kann sich nun jeder Leser selbst denken.

Stellungnahmen zu dem Machwerk findet man in Taminos Blog, der sehr gut erläutert, warum man mit den nach der Zeit differenzierten Zeitreihen keine Korrelationen des Trends finden kann, bei Michael Tobis in seinem Blog Onlyinitforthegold, dem erst nach und nach in Überarbeitungen klar wurde, was an der Arbeit so alles nicht stimmt und mehr die politische Seite betrachtet.

Dienstag, 21. Juli 2009

Angriff der Monsterquallen...


Man schaue sich dieses Bild der Nomura-Qualle an. Sie wird bis fast 2 Meter groß (Durchmesser) und gut 200 Kilogramm schwer. Normalerweise lebt sie vor Chinas und Koreas Küsten. Doch in den letzten Jahren dehnte sich ihr Verbreitungsgebiet nach Japan aus. Zu tausenden taucht sie vor Japans Küsten auf, ca. alle 2 Jahre seit 2005. Auch dieses Jahr verstopft und zerstört sie Fischernetze, vergiftet den Fang und frißt die Fische weg.
Obgleich die Qualle selten Menschen angreift, kann sie einen Menschen mit ihrem Gift töten, und dies soll in Einzelfällen auch schon geschehen sein. Warum die Qualle neuerdings in Massen in japanische Gewässer vordringt, ist nicht klar. Aber zu den möglichen Gründen gehören Überfischung und eine zunehmende Erwärmung des Wassers.
Ähnlich sieht es mit Meldungen von der Küste Kaliforniens aus, wo ein massenhaftes Auftreten von Riesenkalmaren (Humboldt-Tintenfische) gemeldet wird. Mit 45 Kg Lebendgewicht und fast 2 Metern Länge ist auch dieser Tintenfisch ein beeindruckendes Weichtier, das Taucher ängstigt und die Fische vor der Küste dezimiert. Auch hier zählen Überfischung und wärmere Gewässer, die das Vordringen nach Norden erleichtern, zu den plausibelsten Gründen für die Invasion dieser Meeresmonster, obgleich in manchen Nachrichten auch behauptet wird, ein Seebeben hätte die Tiere aufgescheucht.

Und wie es der Zufall will, kommt gerade ein Beitrag in den Proceedings of the National Academy of Sciences heraus, der eine weitere beunruhigende Wirkung der globalen Erwärmung schildert. Es schreiben Martin Daufresne, Lengfellner und Sommer, in Global warming benefits the small in aquatic ecosystems, PNAS 20. Juli 2009, doi: 10.1073/pnas.0902080106: im Rahmen einer Metastudie wurde festgestellt, daß eine Reihe untersuchter Spezies (Plankton, Bakterien und Fische) kleiner wird - im Rahmen der Entwicklung einzelner Exemplare und kollektiv. Dabei werden verschiedene Einflußfaktoren, wie Überfischung berücksichtigt und festgestellt, daß es darüber hinaus eine Verkleinerung gibt, die als plausible Reaktion auf eine zunehmende Erwärmung der Meere interpretiert wird (gemäß der Temperatur-Größen-Regel der Biologie). Diese Verkleinerung von Fischen reduziert unter anderem auch ihre Fähigkeit, Fischereierträge zu erbringen. Wir schädigen also nicht nur durch Überfischung, Versauerung und Überdüngung die Meere, zerstören Korallenriffe und belasten die Kontinentalschelfe als Kinderstuben der Fische und züchten die Freßfeinde wie Quallen und Tintenfische heran, sondern machen durch die globale Erwärmung die Fische an sich kleiner.
Wenn wir schon unsere Nahrungsgrundlagen im Meer sabotieren, dann machen wir es gründlich...


Montag, 20. Juli 2009

Wie man Klimamodelle ganz bestimmt nicht testet...

Ein angeblicher Experte für Vorhersagemodelle will die Prognosefähigkeit der IPCC-Klimamodelle überprüfen.

Was macht er?

Modelliert er eine Periode in der Vergangenheit mit einem Modell, und vergleicht die Ergebnisse mit Proxydaten jener Zeit? Nein.

Prüft er einen Satz von Modellergebnissen auf Konsistenz und physikalische Plausibilität? Nein, nein, auch nicht.

Testet er Ergebnisse einzelner Modellkomponenten gegen Referenzdatensätze? Gott, nein, alles viel zu logisch gedacht.

Was der Mensch macht, ist folgendes: er nimmt einfach irgendeine Zahl für eine globale Temperaturänderung, sagen wir, 3 Grad, weil er das irgendwo in irgendeinem Zusammenhang mal gelesen hat, teilt das durch 100 aus keinem besonderen Grund und stellt fest, daß das IPCC-Modell (huch, welches von 2 Dutzend?) für irgendwann 0,03 Grad globalen Temperaturanstieg vorhersagt.

Und dann (jetzt sollte man besser sitzen...) nimmt er sich vor, die Prognosefähigkeit von IPCC-Modellen mit einer Alternative für die Zeit von 1851 - 2007 zu vergleichen (richtig gelesen, der Mann betrachtet mit den angenommenen IPCC-Projektionen für das 21. Jahrhundert die Vergangenheit). Die Alternative ist, daß die Temperatur konstant bleibt. Natürlich ist die Differenz zwischen realer Temperaturzeitreihe und einem willkürlichen, raschen Temperaturanstieg viel größer, als zwischen konstanter Temperatur und den eher langsamen Änderungen der globalen Temperatur vor dem Anwachsen des Klimaantriebs durch Treibhausgase seit der Nachkriegszeit.

Also, was könnte an so einem Ansatz denn alles falsch sein?

Ein solches Ausmaß gewollter Dummheit macht fassungslos. Die Autoren, Kesten Green, J. Scott Armstrong und Willie Soon, alles bekannte Leugner der anthropogenen Klimaveränderungen, wobei Green und Armstrong sogenannte Experte für Vorhersagemodelle sind (eigentlich Wirtschaftswissenschaftler) und Soon Astrophysiker, fallen nicht zum ersten Mal mit seltsamen Interpretationen von Wissenschaft auf, aber was man hier nachlesen kann, steigert noch einmal das Ausmaß an Ignoranz, das man von diesen Herren kennt.

Sonntag, 19. Juli 2009

Die Rätsel des Urvogels

Kürzlich las ich ein Buch: Paul Chambers, Die Archaeopteryx-Saga (Original: Contention of Bones), Zweitausendeins, 2003. Das Buch war mir zufällig in die Hände gefallen, aber als ich anfing es zu lesen, konnte ich nicht mehr aufhören.

Er erzählt die Geschichte der Entdeckung des Archaeopteryx und der wissenschaftlichen Kämpfe um die Deutung dieses Fossils. Dabei wird deutlich, welche große Rolle Voreingenommenheiten und Egoismen der Wissenschaftler haben. Der Urvogel war zuerst Kampfobjekt im Streit der Evolutionsgegner und Befürworter. Er wurde vom Evolutionsgegner Johann Andreas Wagner, Konservator bei der Bayerischen Staatssammlung, 1862 zuerst beschrieben, und dabei als ein Reptil dargestellt und Griphosaurus genannt. Jede Ähnlichkeit mit Vögeln wurde heruntergespielt aus Angst, man könnte den Evolutionsbefürwortern damit einen schlagenden Beweis in die Hände spielen, nämlich eine Übergangsform zwischen Reptilien und Vögeln. Erworben wurde das erste gefundene Archaeopteryx-Fossil dann vom Britischen Museum in London. Treibende Kraft war ein anderer Evolutionsgegner, Richard Owens. Auch er war peinlich bemüht, den Urvogel nicht als Zwischenform zwischen Reptilien und Vögeln erscheinen zu lassen, damit er kein Argument für einen Wandel der Arten werden könnte. Für ihn war der Archaeopteryx – einfach ein Vogel. Es störte Evolutionsgegner anscheinend nicht, daß ihre Anhänger den selben Fund genau gegensätzlich interpretierten, um nur der unbequemen Schlußfolgerung zu entgehen, daß sich Arten wandeln und nicht einmalig erschaffen wurden.

In einem späteren Abschnitt des Buches wird der Bogen zu modernen Evolutionsgegnern gezogen. Die fanden ihre Zeugen in Fred Hoyle und Chandra Wickramasinghe. Beide waren angesehene Astronomen. Mitte der siebziger Jahre begannen sie jedoch, sich mit biologischen Themen zu beschäftigen. Sie entwickelten die Theorie, daß die Ursache für das wiederholte Auftreten von Virusepidemien auf der Erde eine Befruchtung durch Leben im Weltall sei. Kreuze die Erde bestimmte Kometenschweife mit Viren, käme es auf der Erde zu Epidemien. Ja, sogar Sprünge in der Evolution und gelegentliche Massensterben, wie an der Perm-Trias-Grenze oder an der Kreide-Tertiär-Grenze (Aussterben der Dinosaurier) seien die Folge von kosmischer Aussaat. Diese Theorie ist so absurd, so ohne sachliche Rechtfertigung, so schwierig einzufügen in alles übrige, was wir wissen, daß man sich fragt, wie erwachsene Menschen das plausibel finden können. Hier traten jedoch zwei angesehene Wissenschaftler mit großen Leistungen auf ihrem eigenen Gebiet auf. Das waren die geeigneten Zeugen von Kreationisten, um die Evolutionstheorie in den Schmutz zu ziehen, von Impfgegnern, um das bekannte Wissen der Epidemiologie zu trüben. Wider jeder Vernunft wurden sie von den Medien ernst genommen. Im Rahmen dieser Theorie war für sie auch klar, daß es Vögel erst seit einem Saatereignis vor 65 Millionen Jahren geben konnte. Da paßte ein 150 Millionen Jahre alter Urvogel nicht ins Konzept. Was macht man, wenn einem wissenschaftliche Erkenntnisse nicht ins Konzept passen? Man behauptet eine Verschwörung der Wissenschaftler, die über 100 Jahre lang mit gefälschten Archaeopteryx-Fossilien gearbeitet haben sollen. So behaupteten 1978 Hoyle und Wickramasinghe, die im Solnhofener Kalkstein gefundenen Platten seien manipuliert worden, insbesondere die Federabdrücke gefälscht worden, weil man damals Darwin habe stützen wollen. Eine absurde Verschwörungstheorie, die von Paläonthologen bestritten wurde, und die sich auch schon dadurch widerlegte, als auch hernach Platten mit Urvogelfossilien gefunden wurden, auf denen sich auch die bekannten Abdrücke von Federn zeigten. Liest man diesen Abschnitt im Buch, muß man unweigerlich an den Physiker Freeman Dyson denken und seine Behauptung, daß die Klimaforscher sich irrten oder an den Geologen Plimer und sein Machwerk Heaven and Earth, das jede bekannte Behauptung der Klimaleugner wiederholt. Es paßt ins Bild, daß die Verschwörungstheorie nicht in einer paläonthologischen Fachzeitschrift, sondern im British Journal of Photography publiziert wurde. Ganz unwillkürlich mußte ich an Gerlich und Tscheuschners „Widerlegung“ des Treibhauseffektes denken, die in einer drittklassigen Zeitschrift zur Festkörperphysik untergebracht wurde, weil sie in einer angesehenen Zeitschrift zur Klimatologie oder Meteorologie nie ein Peer Review überstanden hätte.

Die kontroverse Diskussion zwischen vor allem Paläonthologen, die den Archaeopteryx als Indiz werten, daß die Vögel ein Zweig der Dinosaurier sind, und einem Teil der Ornithologen, die zuviele Unterschiede zwischen Dinosauriern und Vögeln sehen und deshalb nach einem Vorfahren der Vögel unter ursprünglicheren Reptilien vor über 200 Millionen Jahren suchen, wird ausführlich beschrieben. Hier wird klar, daß man unterscheiden muß zwischen Tatsachen, die geklärt sind (Evolutionstheorie) und Thesen, die nur vorläufig gelten (Vögel als moderne Dinosaurier). Es wird auch deutlich, daß es in der Wissenschaft genau wie im realen Leben Moden und Glaubenskriege gibt. Nicht immer sind Thesen so sicher geklärt, wie es die Medien glauben machen wollen, aber es herrschen auch nicht immer solche Kontroversen, wie die Medien es für ihr Geschäft brauchen.

Die Botschaft der Paläozan-Eozän Warmzeit

Wir leben derzeit in einer Zwischeneiszeit. Das Klima im Wechsel von Eiszeiten und Zwischeneiszeiten ist im Grunde das Klima, das den Menschen hervorgebracht hat. Bedingung für dieses Klimaregime sind niedrige CO2-Mischungsverhältnisse unter 300 ppm.
Aus verschiedenen Gründen gab es aber in der Erdgeschichte seit der Zeit der Dinosaurier Phasen, in denen die CO2-Mischungsverhältnisse und die Temperatur anstiegen. Während die Eiszeiten eher eine Folge (vereinfacht ausgedrückt) wechselnder Neigungen der Erde zur Sonne waren und die dadurch verursachte wechselnder Stärke der effektiven Einstrahlung, und die CO2-Mischungsverhältnisse sich dann in der Folge als Rückkopplungsgröße mit 800 Jahren Verzögerung änderten, um den Wechsel zwischen Eiszeit und Zwischeneiszeit zu verstärken, gab es Ereignisse, in denen andere Antriebe wirkten, die weniger gut verstanden sind.
Über die relative Warmzeit im Mittelalter ist noch nicht mal bekannt, ob es wirklich ein globales Ereignis war oder zu verschiedenen Zeiten unterschiedliche Teile der Erde warm wurden. Insgesamt kann es kaum wärmer gewesen sein als zum Ende des 20. Jahrhunderts, und wahrscheinlich war es da gerade mal ein halbes Grad wärmer als zu Beginn des 20. Jahrhunderts.

Wesentlich ausgeprägter war eine Erwärmung vor 8.000 Jahren, das Klimaoptimum des Holozäns. Damals könnte es durchaus vorübergehend fast so warm gewesen sein wie heute, vielleicht aber liegen wir in diesem Jahrzehnt sogar über dem Maximum der laufenden Zwischeneiszeit. Doch vor den Eiszeiten gab es weitaus stärkere Warmzeiten. Vor 55 Millionen Jahren (55,5 oder 55,8 Millionen Jahre, je nach Quelle) war das Paläozän-Eozän Temperaturmaximum (PETM), das ca. 100.000-200.000 Jahre anhielt. In einem Artikel in Nature von Jason Head, Bloch, Hastings, Bourque, Cadena, Herrera, Polly und Jaramillo, Giant boid snake from the Paleocene neotropics reveals hotter past equatorial temperatures, Nature 457, 715 (2009) wird über eine Riesenboa, eine 13 Meter lange und über 1 Tonne schwere Riesenschlange berichtet, die vor über 58-60 Millionen Jahren gelebt hatte. Aus ihrer Größe leitet man ab, daß ihre Umgebungstemperatur mit einer Jahresmitteltemperatur über 30 Grad wärmer gewesen sein mußte, als es heute in den Tropen üblich ist. Beim PETM 3-5 Millionen Jahre später muß es noch wärmer gewesen sein. Die Tropen könnten Temperaturen um 38-40 Grad im Jahresmittel erreicht haben – für Menschen und viele andere Lebewesen unerträgliche Temperaturen. Laut einer anderen Studie in Nature lagen die Temperaturen in der Arktis über 20 bis 23 Grad, 5 Grad wärmer als vor dem PETM. (Sluijs et al,, Subtropical Arctic Ocean temperatures during the Paleocene/Eocene thermal maximum, Nature 441, 610 (2006).) Die Arktis war natürlich eisfrei. Es ist nicht klar, was das PETM erzeugt hat, aber es war möglicherweise begleitet von hohen Methan-Konzentrationen, einem besonders potenten Treibhausgas. Quelle für das Methan könnten Sümpfe oder ozeanische Methanhydrate, die aus tiefen Wasserschichten emporgesprudelt sind.

Dieses Ereignis zeigt zum einen, wie hoch Temperaturen auf der Erde steigen können, wenn es einen geeigneten Antrieb gibt. Es gibt, anders als vereinzelte Wissenschaftler behaupten, keinen tropischen „Thermostaten“, der zu starke Temperaturanstiege in den Tropen verhindern würde. Und ein an sich noch nicht katastrophaler Temperaturanstieg kann andere Rückkopplungen auslösen, die über eine Methanfreisetzung Klimaänderungen noch weiter verstärken.

Eine neue Studie verstärkt genau diesen Punkt, und verdeutlicht dabei, daß die vorhandenen Klimamodelle solche positiven Rückkopplungen vermutlich unterschätzen. Kürzlich gab es von Nature Geoscience ein Vorabinformation über Richard Zeebe, Zachos und Dickens, Carbon Dioxide forcing alone insufficient to explain Paleocene-Eocene Thermal Maximum warming, Nature Geoscience, 13. Juli 2009, doi:10.1038/ngeo578. Dort beschreiben die Autoren, daß sie die Klimaentwicklung in der PETM mit einem Modell für den Kohlenstoffkreislauf und gemessenen Daten über gelösten Kohlenstoff in den Ozeanen und Anteile der Kohlenstoffisotope nachvollzogen hatten. Ihr Ergebnis war, daß die freigesetzten Mengen an Kohlenstoff (deren Quellen unklar sind) mit den heute bekannten Klimasensitivitäten für CO2 eine Erwärmung um allenfalls 1 – 3,5 Grad erklären könnten, jedoch nicht von 5-9 Grad, wie man tatsächlich für das PETM annimmt. Daraus schließen die Autoren, daß es weitere positive Rückkopplungen auf größerer Zeitskala gibt, die damals in Gang gesetzt wurden, die uns aber in der Zukunft auch drohen könnten.

Diese Erkenntnisse bestätigen Hinweise von Hansen, die vor ca. einem Jahr sehr skeptisch aufgenommen wurden. Er hatte darauf hingewiesen, daß man die Klimaentwicklung seit der letzten Eiszeit schlüssiger erklären kann, wenn man neben den schnellen Rückkopplungen, die zu einem Temperaturanstieg um 2 – 4,5 Grad je Verdopplung des CO2-Mischungsverhältnisses führen, auch langsamere Rückkopplungsmechanismen berücksichtigt, die die Klimasensitivität auf ca. 6 Grad je Verdopplung von CO2 steigern. In diesem Fall wäre aber selbst die Absicht, das CO2-Mischungsverhältnis auf unter 450 ppm langfristig zu begrenzen nicht ausreichend, um katastrophale Klimaveränderungen zu verhindern. Hansens Ziel wären dann 350 ppm CO2 als langfristige Grenze. Das mag illusorisch erscheinen, da schon jetzt das globale CO2-Mischungsverhältnis bei ca. 387 ppm steht. Aber im Falle einer baldigen Einstellung der CO2-Emissionen würden die Ozeane gewaltige Mengen an CO2 aufnehmen und alleine dadurch die CO2-Konzentration der Atmosphäre wieder sinken. Das PETM ist eine klare Warnung, daß unsere Klimamodelle das langfristige CO2-Problem systematisch unterschätzen und daß es keinen „Erdthermostaten“ gibt, der katastrophale Klimaentwicklungen verhindert.

Freitag, 17. Juli 2009

Pause im Klimawandel durch chaotische Kopplungen?

In der letzten Woche führte eine Beitrag von Kyle Swanson und Anastasios Tsonis in den Geophysical Research Letters mit dem Titel „Has the climate recently shifted?“ zu kontroverser Diskussion. Im Kern wird hier behauptet, daß es verschiedene Zustände des Klimas gibt, die einander ablösen können und einen allgemeinen Trend überlagern können. Das könne dazu führen, daß das Klima in einer bestimmten Phase verharre, bis es durch den äußeren Antrieb in die nächste Phase geschoben würde. Die Folge wäre, daß man beobachten könne, daß die globale Erwärmung zeitweise stagniere, um dann zu gegebener Zeit einen Sprung nach oben zu machen. Im Grunde ist die daraus resultierende Vorhersage für das Klima ähnlich der von Keenlyside et al. 2008, über die ich hier und hier geschrieben hatte, jedoch aus ganz anderen Gründen. Jene hatten eine globale Wettervorhersage versucht. Indem sie Daten über die Meerestemperaturen ihren Modellläufen aufprägten, wollten sie eine belastbare Vorhersage der globalen Temperatur in den nächsten 30 Jahren machen. Dabei sagten sie voraus, daß die globale Erwärmung im laufenden 10-Jahreszeitraum gegenüber dem vorherigen (um 5 Jahre überlappenden) 10-Jahreszeitraum stagnieren würde. Die schlechte Performanz des Modells in der jüngeren Vergangenheit regt zur Skepsis gegenüber diesem Modellversuch an. Stehen Swanson und Tsonis besser da?
Bild aus Swanson und Tsonis, Has the climate recently shifted, GRL 2009: Trend für einen eher willkürlichen Zeitraum in grün, Entwicklung zurück zum Trend in rot und linearisierte Modellvorhersage von Smith et al. 2007 für den Trend in hellblau mit eher willkürlichem Startpunkt.

Ich gebe zu, daß ich mit der Mathematik, die Swanson und Tsonis da bemühen, nicht vertraut bin. Wenn ich ein verständliches Bild dafür suche, dann sollte man sich vielleicht zwei schwingende Pendel vorstellen, die mit einer Feder verbunden sind. Die Feder koppelt die Pendel und ermöglicht, daß von einem Pendel zum anderen Energie übertragen werden kann. Das gesamte System verhält sich chaotisch. Mal schwingt das eine Pendel stark und das andere kaum. Dann überträgt das schwingende Pendel über die Feder immer mehr Energie auf das andere Pendel, das nun auch zu schwingen anfängt, bis nach und nach das erste Pendel zur Ruhe kommt. Und dann geht das Spiel rückwärts von neuem los. Zwar gibt es verschiedene Zustände des Systems, die man beschreiben kann, aber die Übergänge sind nicht geschlossen berechenbar und vorhersagbar. Mit Methoden der Chaostheorie kann man dennoch in allgemeiner Form das System beschreiben.

Für das Klima kann man vergleichbar beschreiben, wie Wärme und andere Energie in den verschiedenen Teilen der Atmosphäre und Meere ausgetauscht werden und dabei Schwingungen auftreten, die chaotisch und daher nicht deterministisch vorhersagbar sind, aber doch auf allgemeiner Ebene beschrieben werden können. Am bekanntesten sind dabei unregelmäßige Zyklen wie der ENSO-Zyklus (El Nino/La Nina), die merklichen Einfluß auf die globale Temperatur nehmen können. Swanson und Tsonis berechnen die Kopplungen zwischen verschiedenen Kompartimenten der Erde und die Synchronisation der unregelmäßig-zyklischen Änderungen. Von Zeit zu Zeit werden die Kopplungen stärker und Änderungen erfolgen stärker in Phase, zu anderen Zeiten sind die Kopplungen schwächer. Das alles, so die Autoren, habe zur Folge, daß gerade um 2001/2002 ein Bruch des globalen Erwärmungstrends erfolgt haben könne, nach dem das Klima sich eine Weile seitwärts bewege, bis der ursprüngliche Erwärmungstrend erneut aufgenommen werden könne.

Nun mag das stimmen oder nicht – über die Mathematik kann ich nicht urteilen. Immerhin äußern sich kundigere Leute skeptisch dazu (zum Beispiel siehe Taminos Blog, außerdem zeigt sich auch James Annan skeptisch). Doch die Probleme tauchen schon auf einem grundsätzlicheren Niveau auf. Um ihre Rechnungen zu machen, müßten Swanson und Tsonis hinreichend genau die ganzen Energieübertragungen im System kennen und berechnen können. Daran melde ich Zweifel an, da die Meßfehler erheblich sind. Die Autoren beziehen sich auf vier große Zyklen (El Nino Southern Oscillation ENSO, Pacific Decadal Oscillation PDO, North Atlantic Oscillation NAO und North Pacific Index NPI), die selbst verschieden definiert werden können und Abstraktionen des tatsächlichen globalen Geschehens bei Luftdruck, Temperatur und Meeresströmungen darstellen. Damit wollen sie wahrgenommene Brüche der globalen Temperaturänderungen beschreiben, von denen wir wissen, daß sie Fehler enthalten. Fragwürdig ist zudem, daß im Grunde Änderungen der globalen Temperatur auf die Chaostheorie zurückgeführt werden sollen, für die wir auch deterministische Erklärungen anführen können, wie Vulkanausbrüche und Änderungen der Sonneneinstrahlung, sowie in neuerer Zeit den Einfluß der Treibhausgase und der menschengemachten Aerosole. Die Erklärung von Swanson und Tsonis könnte stimmen – aber man braucht sie gar nicht. Sie erzeugen erst künstlich ein Problem, für das sie dann eine Lösung anbieten. Das ist in den Naturwissenschaften immer etwa, was gleich skeptisch macht – neue Theorien sollten die Welt einfacher machen, nicht erst neue Probleme erzeugen und dann selbst lösen.
Wird also die globale Temperatur eine Seitwärtsbewegung machen? Ich sehe dafür keine Anzeichen. Im Rahmen des statistischen Fehlers gibt es keine Abweichung vom globalen Erwärmungstrend der letzten 30 oder 40 Jahre. Sollten die nächsten 2 oder 3 Jahre wieder, wie es eigentlich von vielen kundigen Leuten (z.B. Hansen) erwartet wird, ein Anziehen der globalen Erwärmung zeigen, sind Theorien wie die von Swanson und Tsonis oder Modellversuche wie die von Keenlyside et al tot. Und das zeigt eigentlich, wie kurzlebig diese wissenschaftlichen Ansätze sind. Man sollte daher bei solchen Arbeiten daran denken, daß nur wenige originelle Ideen in der Wissenschaft längere Zeit überleben – erst die Bestätigung durch weitere Arbeiten und nicht zuletzt die Vorhersagekraft für Beobachtungen kann aus einzelnen Thesen Theorien machen, die zur Erklärung der Welt herangezogen werden können. Solche (Fehl-)versuche erweitern nichtsdestotrotz unsere wissenschaftlichen Erkenntnisse, denn im welchen Rahmen die Chaostheorie das globale Wetter bzw. Abschnitte in der Klimaentwicklung erklären kann, ist eine spannende und bislang offene Frage.

Weitere Diskussionen dazu gibt es auf RealClimate. Und natürlich, wie nicht anders zu erwarten, wird auch dies von Leugnern aufgegriffen, um zu behaupten, daß auch seriöse Wissenschaftler die These verteidigten, die globale Erwärmung hätte gestoppt. Ohne weiteren Kommentar...

Die Versauerung der Meere

In früheren Beiträgen (etwa hier) habe ich schon darauf hingewiesen, daß der Anstieg der CO2-Mischungsverhältnisse mehr Probleme mit sich bringt als nur die globale Erwärmung. Und die anderen Folgen sind wahrscheinlich sogar schlimmer. Derzeit wird fast die Hälfte des CO2, das wir in die Luft abgeben, durch den steigenden Partialdruck in der Atmosphäre in das Meerwasser gepreßt. Das ist so ähnlich wie die Herstellung von Sprudelwasser aus normalem Leitungswasser und einer CO2-Kartusche. Und da so oft davon geredet wird, daß steigende Temperaturen die Löslichkeit von CO2 in Wasser verringern und daher die Meere zu CO2-Quellen werden könnten: pro Jahr steigt der CO2-Partialdruck in der Atmosphäre um ca. 0,5 %. Die Ausgasung allein durch einen Temperaturanstieg von 0,02 Grad pro Jahr würde den Partialdruck von CO2 über dem Wasser um (sehr grob gerechnet) 0,05 % erhöhen. Der steigende Partialdruck des CO2 hat also einen mindestens zehnmal stärkeren Effekt als die steigende globale Temperatur. Dabei sind Effekte wie etwa durch eine Änderung der Salinität von Meerwasser oder dadurch, daß das gelöste CO2 nicht im chemischen Gleichgewicht ist und biologische Effekte nicht berücksichtigt. Während man sehr grob schätzen kann, welcher Effekt größer ist, ist es sehr schwierig, tatsächlich für die Ozeane zu berechnen, wie viel CO2 zu jeder Zeit in Lösung geht.

Das gelöste CO2 hat vor allem einen Effekt: ein Teil des gelösten CO2 bildet eine starke Säure, die Carbonsäure H2CO3, die zum größeren Teil in Hydrogencarbonat und Hydroniumionen zerfällt:

CO2 + H2O = H2CO3

H2CO3 + H2O <-> HCO3- + H3O+

Letzteres sorgt dafür, daß das an sich alkalische Meer (pH-Wert 8,2 vor Beginn der Industrialisierung) immer weniger alkalisch wird bzw. langsam saurer wird. Ein Anstieg des Mischungsverhältnisses von CO2 um 100 ppm hat innerhalb eines Jahrhunderts bereits den Säuregehalt um 30 % gesteigert bzw. den pH-Wert um 0,1 Punkte fallen lassen. Und genau das ist das Problem. Bestimmte Meereslebewesen haben nur eine geringe Toleranz für Änderungen des pH-Wertes. Kleine Schalentiere leiden unter Schäden an ihren Kalkschalen, wenn das Meer saurer wird. Steigt das CO2-Mischungsverhältnis in der Luft über 450 ppm, könnte der pH-Wert der Meere um mehr als 0,3 Punkte sinken – ein Abfall des pH-Wertes um 0,14-0,35 Punkte wird im aktuellen IPCC-Bericht für wahrscheinlich gehalten. In dem Fall würden viele Meeresorganismen mit Kalkschalen aussterben (darunter Seesterne, Seeigel, viele Muscheln und Kleinstkrebse). Damit fällt der Beginn der Nahrungskette in den Meeren weg. In der Folge würden auch viele Fische aussterben, entweder als Jäger der ausgestorbenen Schalentiere oder als Jäger jener ausgestorbenen Fischarten. Auch die Korallen, ohnehin durch steigende Meerwassertemperaturen belastet, würden durch eine wachsende Hydroniumionenkonzentration weiter geschädigt. Mit dem Absterben der Korallenriffe fiele aber eine wichtige Lebensumwelt von Meereslebewesen und eine ihrer Kinderstuben weg.

Profitieren würden nur wenige Arten, wie zum Beispiel Seegras und bestimmte Arten von Algen, außerdem Quallen. Die Versauerung der Meere würde zum größten Artensterben seit 65 Millionen Jahren auf der Erde führen.

Man könnte zwei Dinge einwenden. Zum einen gab es Zeiten etwa in der Kreidezeit, als die Ozeane saurer waren als heute und trotzdem ähnliche Arten lebten, deren Aussterben man inzwischen befürchten muß, wie Korallen und Kleinstkrebse. Allerdings hatten sich die säureresistenteren Arten über Jahrmillionen entwickeln können. Vielleicht tun sie das in Zukunft auch wieder. Vielleicht aber auch nicht. Jedenfalls werden wir in den nächsten Jahrtausenden sicher nicht beobachten können, daß sich durch die Evolution schnell wieder die gleichen säuretoleranten Arten der Kreidezeit entwickeln – so etwas braucht einfach mehr Zeit. Man könnte auch darauf verweisen, daß der pH-Wert der Ozeane von Ort zu Ort sehr verschieden sein kann. Wie könne da eine pH-Wert-Änderung kritisch sein, die man auch beobachten würde, reiste man aus dem Atlantik ins Mittelmeer vor Italien. Dazu ist zu sagen, daß in jedem Meeresgebiet die Arten vorkommen, die sich an die Verhältnisse dort angepaßt haben. Wenn sich jedoch alle Meere gleichzeitig verändern, werden in allen Meeren die dort angepaßten Arten ausgerottet. Manche werden wandern können und in die Meeresgebiete wandern, die ihren alten Siedlungsgebieten ähnlich werden. Aber für die meisten Arten wird es keine alkalischeren Gebiete mehr geben, in die sie sich zurückziehen könnten.

Im Fall der globalen Erwärmung wird über Geoengineering geredet, um die Erde künstlich zu kühlen. Ungeachtet der geringen Wahrscheinlichkeit, daß diese Methoden umgesetzt werden können, gibt es keine denkbare Möglichkeit, die pH-Wert-Änderung der Meere künstlich abzupuffern. Die einzige Möglichkeit, das Überleben der Meere zu sichern und damit eine wichtigen Nahrungsmittelquelle der Menschheit zu retten ist es, mit der Emission von CO2 aufzuhören.