Montag, 29. Dezember 2008

Die Strategien der Chiropraktiker

In dem Buch "Die Darwin DNA" von Sean B. Carroll fand ich einen bemerkenswerten Abschnitt über Wissenschaftsleugner. Carroll suchte da nach Vergleichen für die Strategien, mit denen Evolutionsgegner versuchen, gegen diese Theorie anzukämpfen. Dabei schaute er sich näher den Widerstand der (amerikanischen) Chiropraktiker gegen die Theorie an, Infektionskrankheiten würden von Krankheitskeimen, z.B. Viren und Bakterien übertragen, und eine erfolgreiche Maßnahme gegen vieler dieser Krankheiten wäre die Impfung. Der Widerstand der Chiropraktiker ist zum einen erstaunlich, da man bei diesen um die Gesundheit bemühten Menschen erwartet hätte, daß diese eine positive Einstellung zu neuen medizinischen Erkenntnissen hätten. Doch in den 50er Jahren waren die Chiropraktiker ein Berufsstand, der neuen Impfungen wie die gegen Kinderlähmung, heftigsten Widerstand entgegenbrachten. 1954, dem Jahr vor der Einführung der Polioimpfung nach Salk, gab es ca 38.500 Fälle von Kinderlähmung, im Jahr 1961 noch etwas über 1.300 Fälle, soviel erst mal zur Wirksamkeit der Impfungen. Chiropraktiker bekämpften dieses mit Artikeln in ihren Verbandszeitschriften, in denen etwa gefragt wurde: „Ist der Reagenzglaskampf gegen die Kinderlähmung fehlgeschlagen?“ und mit der eigennützigen Empfehlung, bei Symptomen der Kinderlähmung eine chiropraktische Einrichtung der Wirbelsäule vorzunehmen. In aktuellen Umfragen unter Chiropraktikern gibt es immer noch eine starke Gruppe, die Impfungen für nutzlos halten. 1999 ergab eine Umfrage, daß 42 Prozent der Chiropraktiker ihre Kinder nicht impfen lassen, darin unterstützt im wesentlichen von fundamentalistischen Christen, die von Impfungen aus ihren Gründen wenig halten.

Diese ganze Wissenschaftsfeindschaft einer Berufsgruppe erinnert einen an etwas. Nämlich an den auch nicht ganz uneigennützigen Widerstand, den manche Geologen der anerkannten Theorie zum Klimawandel entgegenbringen. Auch hier pflegen Kreise innerhalb einer Berufsgruppe, von der man erwarten sollte, daß sie besser informiert ist, einen uninformierten Widerstand gegenüber bekannten Tatsachen, wie etwa, daß sich das Klima erwärmt, daß dies durch den Anstieg der CO2-Konzentration verursacht wird und daß dieser CO2-Anstieg durch die Verbrennung von Kohle, Öl und Gas verursacht wird, deren Auffindung für viele Geologen nun einmal leider der Broterwerb ist, was anscheinend die Wahrnehmung genauso trübt, wie die Tatsache, daß Chiropraktiker durch Wirbelsäuleneinrenken keine Infektionskrankheiten heilen können.

Welche 6 Argumente oder Strategien wendeten die Chiropraktiker laut Carroll an?

1. Zweifle an der Wissenschaft: Chiropraktiker suchten für den Rückgang mancher Krankheiten nach alternativen Erklärungen, die nichts mit Impfstoffen zu tun hatten. Dabei spielten klinische Untersuchungen keine Rolle.
Ähnlich bei den Klimawandelleugnern: hier wird teilweise der Klimawandel insgesamt angezweifelt oder es wird behauptet, es gebe nur natürliche Ursache (die Sonne oder kosmische Strahlen oder natürliche Zyklen). Daß die Fachliteratur das alles nicht stützt, wird ignoriert.

2. Stelle die Motive oder die Aufrichtigkeit der Wissenschaftler in Frage.
Zum einen wurde von Impfgegnern behauptet, die Daten zur Wirksamkeit der Impfungen würden manipuliert, zum anderen wurde eine Verschwörung zwischen Wissenschaftlern und Pharmaindustrie behauptet. Genau solche Vorwürfe findet man gegen Klimaforscher erhoben. Den IPCC-Berichten wird vorgeworfen, parteiisch zu sein und Klimaforschern wird unterstellt, von Katastrophenprognosen zu profitieren (in eklatanter Unkenntnis darüber, wie die Forschungsfinanzierung funktioniert).

3. Übertreibe die Meinungsverschiedenheiten zwischen Wissenschaftlern und nenne Außenseiter als Autoritäten.
Es gibt neben den zentralen Bereichen, in denen Einigkeit herrscht, immer auch Randbereiche, in denen es Kontroversen gibt. Sowohl die Impfgegner als auch die Leugner des Klimawandels haben solche Kontroversen benutzt, um zu behaupten, die zentralen Punkte seien noch nicht Teil eines wissenschaftlichen Konsenses und in beiden Fällen wurden Außenseiterstimmen, die es nun einmal immer gibt, genutzt, um zu behaupten, die Wissenschaftler seien sich nicht einig.

4. Übertreibe mögliche Schäden.
Gemeint sind damit in der Kampagne gegen Impfungen die Impfschäden, die man aber nun einmal ins Verhältnis zu den viel größeren Schäden der Infektionskrankheit setzen muß, zum anderen im Fall des Klimawandels die Kosten von Maßnahmen zur Senkung von Emissionen von Treibhausgasen, die man ins Verhältnis zu den viel größeren Kosten der Schäden durch den Klimawandel setzen muß.

5. Appelliere an die persönliche Freiheit
Impfungen funktionieren am besten dann, wenn ein bestimmter Durchimpfungsgrad der Bevölkerung erreicht wird, sonst werden Kranheitsüberträger die Infektion weiter am Leben erhalten. Daher gab es immer wieder auch Impfzwang oder eine starke Propagierung von Impfungen, wie etwa bei der weltweiten Ausrottung der Pocken durch einen weltweiten Impfzwang. Dagegen wurde allen Ernstes die persönliche Freiheit gesetzt, entscheiden zu dürfen, wie hirnlos man sich benehmen möchte (oder wie verantwortungslos Eltern mit dem Leben ihrer Kinder umgehen dürfen). Eine solche Berufung auf die persönliche Entscheidung, die Welt zu verschmutzen, wird gelegentlich als Argument gegen Klimaschutzmaßnahmen eingesetzt. Man findet das allerdings in einer besonders üblen Verschwörungstheorie wieder, wie sie zum Beispiel Vaclav Klaus, der tschechische Staatspräsident propagiert. Danach gebe es eine kommunistisch-grüne Weltverschwörung, die Weltwirtschaft zu sozialisieren unter dem Deckmantel des Klimaschutzes, und so alle privaten Freiheiten durch eine Weltdiktatur zu ersticken. Das ist zwar unglaublich schwachsinnig, wird von dem paranoiden Tschechen und vielen Parteigängern aber im Brustton der Überzeugung, man müsse die Welt retten, penetrant abgesondert.

6. Die Anerkennung der Theorie widerspricht einfach zentralen Überzeugungen.
Im Falle der Impftheorie wurde zum Schluß nach dem Scheitern aller anderen Argumente erklärt, die Impfung widerspreche der sogenannten Grundvoraussetzung der Chiropraktik. Letztlich zog man sich also auf reine Glaubenssätze zurück und über Glauben läßt sich nicht argumentieren, nur streiten. Dieser Punkt droht uns im Fall der Auseinandersetzung um die Klimaforschung, wenn die Faktenlage zu überwältigend wird, weil die Temperaturdaten bald wieder gegen alle Behauptungen der Klimawandelleugner nach oben gehen werden, weil der Meeresspiegelanstieg sich weiter beschleunigt und weil die arktische Verstärkung wohl bald unübersehbare Wirkungen zeigen wird. Schon jetzt erlebt man das Vorbringen geradezu religiöser Punkte: es könne keinen menschenverursachten Klimawandel geben, weil die Sonne den dominanten Einfluß auf das Erdklima haben müsse und weil es nur natürliche Zyklen gebe.

Es ist interessant, daß man ähnliche Strategien bei der Bekämpfung wissenschaftlicher Erkenntnisse immer wieder findet. Das gilt für den Widerstand der Chiropraktiker gegen die Theorie der Impfung, das gilt für die Leugner der Evolution, das gilt für die Leugner der Gefahren des Rauchens, das gilt für die Leugner des menschengemachten Klimawandels. Die Strategien ähneln sich und es entwickeln sich sogar Bündnisse oder Überschneidungen in Personen, wie etwa zwischen Evolutions- und Impfgegnern oder zwischen Klimawandelleugnern und Leugnern der Gefahren des Rauchens oder Evolutionsgegnern und Klimawandelleugnern.

Dagegen hilft nur, diese Strategien transparent zu machen.

Freitag, 19. Dezember 2008

Die Arroganz des Journalisten

Das meteorologische Jahr, das mit dem ersten Wintermonat am 1.12. beginnt und mit dem letzten Herbstmonat am 30.11. endet, ist gerade vorüber und die Jahresmitteltemperatur 2008 von den verschiedenen Organisationen verkündet worden. Die Weltmeteorologieorganisation WMO, von uninformierten Journalisten auch Weltmeteorologiebehörde genannt, gibt naturgemäß dabei das Ergebnis des Hadley Centres, einer Abteilung des UK Meteorological Office weiter (das ist eine Behörde), da entsprechend der Arbeitsteilung der Mitglieder der WMO das Vereinigte Königreich es übernommen hat, bestimmte Weltklimadaten auszuwerten. Als La-Nina-Jahr war 2008 tendenziell weniger wam als das Mittel der aktuellen Periode. Es ist bisher das kühlste Jahr des laufenden Jahrzehnts und wird dies vermutlich auch bleiben. Es ist sogar zwar nicht sicher, aber wahrscheinlich, daß 2008 das relativ am wenigsten warme Jahr des Jahrhunderts sein wird. Doch das ist eine unzulässige Spekulation. Wie wissen aber sicher, daß statistisch gesehen das Jahr in der normalen Varianz um den aktuellen Trend liegt und daß dieser Erwärmungstrend sich beschleunigt.

Weil aber nun dieses Jahr vergleichsweise wenig warm ist (kühl ist das falsche Wort für ein Jahr, dessen Temperatur zu keiner Zeit vor 1997 übertroffen wurde, seit es Wetteraufzeichnungen gibt), gibt es naturgemäß denen Auftrieb, die von der wissenschaftlichen Arbeit zum Klima wenig halten und ihre Verschwörungstheorie von der angeblich erfundenen anthropogenen Klimaerwärmung pflegen. Einige inzwischen von diesen Verschwörungstheorien lang genug geplagte Wissenschaftler sehen dieses voraus, und geben den Journalisten eingedenk aller schlechten Erfahrungen Sprachregelungen auf den Weg. Das ist ein hoffnungsloses Unetrfangen und davon handelt dieser Beitrag.

Mein Beispiel ist dieser Kommentar in der FAZ vom Ressortleiter für den Wissenschaftsteil Joachim Müller-Jung, den er zu allem Unglück auch in seinem Blog weiter erläutert hatte, damit man jede Unschuldsvermutung verliert. Es gibt so einiges in dem Artikel, das einem den Magen umdrehen kann. Und das frappierende ist, daß der Artikel von korrekten Fakten ausgeht, daß der Autor, ein Biologe, durchaus sich auch Quellen angesehen hatte, deren Inhalte ihn von falschen Schlüssen hätten abhalten können, doch hatte es nichts genutzt. Vielleicht gab Müller-Jung die Tatsache, daß Gavin Schmidt einen alten Fehler gemacht hatte, das Jahrtausend mit dem Jahr 2000 anfangen zu lassen, ein falsches Gefühl der Sicherheit, auf Augenhöhe kritisieren zu können. Genau da aber stellt sich der Biologe, der selbst keine Erfahrung als Wissenschaftler hat, selbst ein Bein. Im wesentlichen sind es folgende Fehler, auf die der Autor aufläuft.

Da ist zunächst mal der Satz aus seinem Blog: „Allerdings muss sich der Potsdamer Klimadeuter auch den Hinweis gefallen lassen, dass die - bei aller Variation - erkennbare Stagnation in den vergangenen acht Jahren dem in langen statistischen Reihen vom IPCC ermittelten Erwärmungstrend von 0,2 Grad pro Jahrzehnt nicht mehr folgt.“ Hier stecken gleich zwei grundsätzliche Fehler drin. Zum einen haben die Modelle, die für den letzten IPCC-Bericht verwendet wurden, niemals einen aktuellen Erwärmungstrend von 0,2 Grad pro Jahrzehnt berechnet. Vielmehr sagen die Modelle abhängig von den verschiedenen Szenarien verschiedene Temperaturverläufe vorher, die am Ende des Jahrhunderts zu einer bestimmten Temperaturspanne führen. Auf dem Weg dahin machen die Modelle Temperaturschwankungen um den langfristigen Trend mit. Diese Schwankungen sind nur im statistischen Sinne korrekt. Man kann also am Ende des Jahrhunderts sagen, daß dann im Mittel die Temperatur um 0,15 bis 0,4 Grad je Jahrzehnt gestiegen ist. Dazwischen können aber einzelne Jahrzehnte liegen, in denen die Temepratur gar nicht oder viel schneller gestiegen ist. Dies ist schon hier erläutert worden. Der zweite Fehler ist der Schluß, wenn in einer Reihe von 8 Jahren das letzte Jahr eine niedrigere Temperatur als das erste Jahr zeigt, daß dann die Temperatur stagniert sei oder sogar gefallen. Da aber die Jahre um einen Trend herum variieren, kann man erst nach einer statistisch signifikanten Stichprobe von Jahren Aussagen zum Trend machen. Wir wissen, daß man dazu mehr als 8 Jahr braucht. Ab 15 Jahre kann man es versuchen, aber eigentlich sinnvoll wird es erst bei mindestens 20 Jahren und bei 30 Jahren ist der Trend sicher statistisch signifikant.

Der dritte Fehler steckt in der Darstellung einer Klimawette von Rahmstorf, die man sowohl im Kommentar als auch im Blog findet. Das wird erschöpfend bei Georg Hoffmann in seinem Primaklima-Blog erläutert, daher schreibe ich nichts weiter dazu. Hintergrund des ganzen ist die Temperaturprognose aus einem Modell des Forschungszentrums Geomar in Kiel, zu dem ich hier etwas geschrieben hatte.

Ein weiterer Fehler steckt aber darin, daß Müller-Jung die Natur der Modelle, die er vergleicht, verkennt. Dahinter steckt das grundsätzliche Unverständnis über den Unterschied zwischen Klima und Wetter. Klima ist die statistische Zusammenfassung der vielen möglichen Wetterereignisse. Man findet dies durch die Mittelung von Wetter über lange Zeiträume. Bei den Modellen findet man diesen Unterschied ebenfalls. Die Modelle, die für die IPCC-Projektionen verwendet werden, sind Klimamodelle. Sie sollen etwas dazu sagen, wie sich das Klima ändert in Abhängigkeit von gewählten Randbedingungen. Das sind Aussagen, die man auch für ein Jahrhundert sinnvoll treffen kann. Das Wetter ist eine einzelne Realisierung des statistischen Mittels, das vom Klima dargestellt wird. Wetter kann man vorhersagen, indem man einen möglichst genau ermittelten Anfangszustand weiterentwickelt, bis er irgendwann durch die chaotischen Anteile in unvorhersagbare Zustände hineinläuft. Das Modell des Geomar-Forschungszentrums in Kiel versucht im Gegensatz zu den IPCC-Modellen eine langfristige Wettervorhersage. Die Abweichungen zwischen dem IPCC und diesem Modell rühren also nur daher, daß das IPCC Mittelwerte für sehr verschiedene Einzelrealisierungen der verwendeten Modelle angibt. Man kann also nicht etwa behaupten, daß das Geomar-Modell besser wäre. Es hat sogar, wenn man sich die Originalpublikation anschaut, eine eher schwache Prognosegüte. Kein Wunder, daß Rahmstorf eine Wette gegen die Interpretation der Modellergebnisse durch Latif und seine Kollegen anbietet. Eine Wettervorhersage über 30 Jahre ist einfach noch verfrüht. Dies grundsätzliche Unterschied zwischen Klimaprojektion und Wettervorhersage ist dem Biologen Müller-Jung nicht klar, obwohl er bei Real Climate durchaus die Erläuterungen zu den unterschiedlichen Realisierung der einzelnen Klimamodelle gesehen hatte.

Wenn man tiefer schürft, kommt man auf das Grundproblem, die typische Arroganz des Journalisten, die durchaus Verwandtschaft hat mit der Arroganz des Richters und der Arroganz des Arztes – sie alle sind dabei Opfer ihres Berufes. Der Journalist hat den Beruf, eine Vielzahl von Informationen und Pressemitteilungen zu verwerten, um zusammengefaßte Information unterhaltsam an seine Leser zu vermitteln. Damit verdient er sein Geld. Dies geschieht normalerweise unter großem Zeitdruck, der dazu zwingt, sich genau zu überlegen, ob man eine Pressemitteilung so nimmt, wie sie kommt, oder die Zeit investiert, sich noch weitere Expertenmeinungen einzuholen und sich mehr Wissen dazu anzulesen.

So hat der Journalist zwar viele Informationen, aber nicht den Hintergrund, um diese zu interpretieren und richtig zu werten. Er hat die Illusion breiten Wissens, obwohl es zu oberflächlich ist, um angewendet werden zu können. Und diese Illusion läßt den Journalisten unter Umständen glauben, er sei mit den Experten auf Augenhöhe. Das führt dann dazu, daß der Journalist eben nicht mehr nur der Bote ist, der die Nachricht dem Leser bringt, sondern gleich auch diese Nachricht selbst interpretieren will. Und kein Gefühl dafür hat, wie wenig ihn dazu befähigt. Kein Wunder, daß Wissenschaftler, die schon ihre Erfahrung mit den Medien gemacht haben, Journalisten gerne vor Fehlinterpretationen bewahren möchten, und gleich versuchen, Sprachregelungen mitzuliefern. Leider fühlen sich Journalisten dadurch gegängelt, umso mehr, je erfahrener sie sind und je stärker sich die Illusion der Kompetenz aus der Vielzahl unverdauter und oberflächlicher Informationen entwickelt hat.

Und diesen Trotz gegen die gefühlte Gängelung und die entwickelte Arroganz, schon selbst die Informationen interpretieren zu können, merkt man Müller-Jung in dem ersten Satz seines Blogbeitrags deutlich an, wenn er schreibt:
„Mit der aktuellen Klimabilanz des Jahres 2008, (...) steigt offenbar wieder die Sorge bei den Klimatologen, die Journaille könnte das Ergebnis (wieder einmal) fehlinterpretieren.“ Genau diese Sorge hat er erfüllt.

Dienstag, 16. Dezember 2008

Beschleunigt sich der Klimawandel?

In den Medien und Blogs gibt es stellenweise noch Diskussionen, ob denn nun ein Klimawandel läuft und ob dieser von Menschen verursacht wurde oder nicht. Es ist eine fruchtlose Diskussion, weil die wissenschaftliche Diskussion seit den 90er Jahren darüber hinweg ist. Man konnte vielleicht noch in den 80er Jahren einen Disput anfangen, ob die bis dahin aufgetretene Erwärmung den Bereich üblicher Schwankungen verlassen hat, ob man bereits eine menschliche Signatur sehen kann und ob man die Abläufe im wesentlichen verstanden hat. Die 90er Jahre waren das Jahrzehnt der Bestätigung der Feststellungen, die in den 70er Jahren vorbereitet wurden (z.B. durch Berichte an die US-Regierung und an der National Academy of Science in den USA 1979 und 1983) und in den 80er Jahren als ernstzunehmende Theorien verbreitet wurden. Gerade meldet das Hadley Centre für die WMO, daß nach vorläufigen Werten 2008 das zehntwärmste Jahr in ihrer Zeitreihe ist und das aktuelle Jahrzehnt im Mittel 0,2 Grad wärmer als das vorherige.

Worüber man disputieren kann, sind andere Fragen. Sind wir bereits über bestimmte Instabilitätspunkte hinweg (tipping points), an denen unumkehrbare Veränderungen geschehen? Offensichtlich ist bei der Meereisbedeckung in der Arktis so ein Punkt überschritten worden, bei dem es nun eine Verstärkung der Klimaerwärmung in polaren Breiten gibt, weil nun im Sommer Teile des arktischen Meeres eisfrei sind. Das jedenfalls erklären Wissenschaftler des National Snow and Ice Data Center (NSIDC) in den USA nach einer Meldung im "Independent". Es gibt weitere solche Instabilitätspunkte, wie etwa Instabilität der Eisschilde, Veränderungen von Klimazonen usw. Man kann auch diskutieren über das Ausmaß, in dem bisherige Modellprojektionen bestätigt wurden. Vergangene Modellerfolge sagen nur begrenzt etwas aus über die zukünftige Übereinstimmung von Projektionen und Ergebnissen, ein weiterer Diskussionspunkt. Oder man kann darüber reden, ob wir bereits aus den Daten ablesen können, daß sich der Klimawandel beschleunigt.

Das ist kein einfacher Punkt, denn man braucht eine gewisse Menge an Daten, um überhaupt einen klimatologischen Trend zu erkennen und viel, viel mehr Daten, um eine Serie von Trends zu haben, bei denen man dann nach einer Veränderung schauen kann, sozusagen einen Trend der Trends. Das einfachste ist das, was man im IPCC-FAQ sehen kann: es zeigt den Temperaturtrend über 150, 100, 50 und 25 Jahre und findet, wenig überraschend, daß diese Trends um so steiler sind, je näher der Startpunkt zur Gegenwart liegt. Das ist ein primitives Maß für eine Beschleunigung der Klimaänderung, aber unbefriedigend, denn wir mischen den Zeitraum, in dem menschliche Einflüsse überwiegen (geschätzt so ab Ende der 60er Jahre) mehr oder weniger mit Zeiträumen, von denen wir denken, daß sie von natürlicher Variabilität geprägt waren (aufgrund von Vulkanausbrüchen und Änderungen der Sonneneinstrahlung vor allem). Wenn man mehr oder weniger Zeitanteile ohne Trend zumischt, variiert natürlich der insgesamt bestimmte Trend, aber man erfährt nicht wirklich etwas darüber, ob der Trend jetzt sich verändert.

Geübte Statistiker (ich bin keiner) haben verschiedene Möglichkeiten, zu berechnen, ob ein vorliegender Trend im Rahmen des Fehlers wirklich linear ist oder ein anderes Modell (z.B. ein exponentieller Anstieg) besser passt. Ich könnte zwar eine entsprechende Anpassung an die Daten vornehmen, aber die Gefahr ist groß, daß ich dabei Fehler mache, denn ich müsste berücksichtigen, daß die Daten ein Gedächtnis haben (die Meerestemperaturen ändern sich träge), also autokorreliert sind, und die Fehler auf den Daten wären zu berücksichtigen. Man kann sich das Leben erleichtern, indem man von vornherein robuste Statistiken wählt, die weniger empfindlich für Fehler in den Daten sind, die dann aber auch nur grobe Aussagen erlauben.

Zunächst mal habe ich mir die Mittelwerte für Dekaden angeschaut, wobei die letzte Dekade noch nicht vollständig ist. Der Mittelwert der Temperaturanomalien für die 70er, 80er, 90er und 2000er Jahre (beginnend 1971-1980 usw.) aufgrund der HadCruT3-Jahresmittel der globalen Temperatur ist -0,06; 0,10; 0,23; 0,44. Daraus lässt sich nur ablesen, daß wir einen robusten Anstieg der Temperatur haben, wobei der Schritt von den 90er zu den 2000er Jahren der größte ist mit 0,21 Grad. (Wenn die Jahre 2008 und 2009 hinzukommen, kann sich das noch ändern- das relativ kalte Jahr 2008 könnte den letzten Mittelwert bis ca. 0,42 herunterziehen, womit der letzte Schritt immer noch bei 0,19 Grad über den anderen liegt. 2009 wird aber ohne einen La Nina-Einfluß wohl eher wieder wärmer werden.)

Da die Zeit, in der wir Temperaturänderungen vor allem durch den gesteigerten Treibhauseffekt annehmen, nur seit Ende der 60er Jahre reicht und vorher eine Dominanz natürlicher Einflüsse nicht ausschließen können, haben wir kaum mehr als 40 Jahre zur Verfügung. Wir brauchen aber mindestens 20, besser 30 Jahre, um sinnvoll eine lineare Regression zu rechnen und eine Steigung, also einen Trend zu bestimmen, der statistisch signifikant ist. Also müssen wir überlappende Zeiträume berechnen. Z.B. die Trends für 1969-1988; 1979-1998 und 1988-2007. Dabei erhalte ich als Steigungen 0,0125; 0,0141 und 0,0198. (Nehme ich 2008 hinzu und lasse die letzte Regression bei 1989 anfangen, komme ich bei mindestens 0,0180 an – ein Maß für den relativ großen Fehler in der Steigung, aber keine Änderung des Trends in den drei Werten.) Diese Trends sind statistisch signifikant. Und man erkennt, daß diese Steigungen selbst einen Trend haben – sie werden steiler. In dem betrachteten Zeitraum wuchsen die Temperaturänderungen je Jahrzehnt von 0,125 über 0,141 auf 0,198 Grad an. Extrapoliere ich auf 1999-2018, erwarte ich einen Wert bei oder über 0,2. Die Frage ist aber, ob ich extrapolieren darf. Die Steigerung des Trends ist offensichtlich nicht linear, und für die Zukunft bleiben daher alle Möglichkeiten offen – daß 1988-2007 ein Ausreißer nach oben war (nehme ich 2008 mit, erhalte ich ja eine flachere Steigung), daß der Trend nicht nur steigt, sondern beschleunigt steigt oder daß er sich auf einem höheren Niveau stabilisiert. Daher keine weiteren Spekulationen – robust ist nur die Feststellung, daß sich die globale Erwärmung, seit wir sie als einen signifikanten Trend wahrnehmen, beschleunigt hat, von 0,125 Grad je Dekade auf fast 0,2 Grad je Jahrzehnt (und über 0,18 Grad, wenn wir das relativ kühle Jahr 2008 berücksichtigen). Das allein ist bereits eine schlechte Nachricht.

Sonntag, 14. Dezember 2008

Extremwertstatistik, Klimawandel und Versicherungen

Der Deutsche Wetterdienst gibt für die meteorologische Fortbildung eine Zeitschrift heraus namens Promet (die aktuelle Nummer ist noch nicht on-line). Zu einem festen Thema schreiben hier Experten in den unregelmäßig erscheinenden Heften Übersichtsartikel. Die aktuelle Ausgabe Jahrgang 34, Nr. 1/2, 2008 beschäftigt sich mit dem Thema Meteorologie und Versicherungswirtschaft.

Gleich im Eingangsartikel geht es zur Sache, wenn G.Berz von der Münchener Rückersicherung Zahlen nennt. Danach waren von 17000 Naturkatastrophen von 1980 bis 2007 85% in irgendeiner Form meteorologisch bedingt. Das ist genau die Kategorie, die im Falle eines Klimawandels weitere Veränderungen zeigen sollte. Nun ist es sicher spekulativ, ob und in welcher Weise in der Zukunft mit mehr Sturmereignissen zu rechnen ist, weil dies von der Art, Stärke und Region der Stürme abhängt, und es hier eine offene Diskussion der Experten gibt. Unstrittig ist aber, daß die Lufttemperatur steigen wird und davon andere Faktoren betroffen sein werden, etwa das Wasserangebot und die Feuchte oder die Verbreitung wärmeliebender Krankheitserreger. Ein Beispiel war dabei der Jahrhundertsommer 2003, in dessen Folge Lehmböden in England austrockneten, was zu Bodensenkungen und dadurch zu Gebäudeschäden führte. Ein teurer Spaß für die Betroffenen und die Versicherer, und für mich eine überraschende Folge eines solchen Sommers. Von Berz nicht erwähnt, aber für mich eher bekannt ist, daß im aktuellen bayrischen Waldschadensbericht hervorgehoben wird, daß es immer noch kranke Bäume als Folge der Trockenheit im Jahrhundertsommer 2003 gibt.

Was aber nun als Jahrhundertsommer gilt, ist eine Frage der Statistik, und die ändert sich. Steigt die mittlere Temperatur, verschiebt sich auch die Verteilung der Temperaturen mit, die es in einem bestimmten Zeitraum geben kann. Und dabei sind die Veränderungen an den Rändern viel stärker als im Zentrum der Verteilung (das Thema der Extremwertstatistik hatte ich hier schon mit erwähnt). Steigt die Mitteltemperatur um harmlos klingende 1,6 Grad, so steigt die Wahrscheinlichkeit eines Sommers wie 2003 von 1,3% auf 33,3%, wie im Rahmen der Studie Climate Change Impacts 2004 für England bestimmt wurde. Auch wenn die Zahlen für Deutschland etwas andere sind, das Prinzip ist das gleiche. Aus einem Jahrhundertsommer wird ein Ereignis, das alle 3 Jahre auftritt. Und da nach Extremereignissen Lebewesen den Hitze- oder Trockenheitsstreß eine Weile im Gedächtnis behalten, kann eine kürzere Folge von Extremereignissen eine aufschaukelnde Wirkung haben. Ein „Jahrhundertsommer“ alle 3 Jahre ist zu kurz, damit sich hitzegeplagte Bäume wieder erholen können. Das Ende der Fichte ist daher zum Beispiel in den meisten Regionen Deutschlands vorgezeichnet.

Versicherungen bewerten nicht nur, daß mit dem Anstieg des Mittelwertes der obere Rand der Verteilung überproportional stark anwächst, sie bewerten auch, daß sich Verteilungen von Ereignissen in der Form ändern können. Wird die Verteilung breiter, gibt es in besonders starkem Maße auch mehr Extremereignisse, wie Dürren, Hitzewellen oder Überschwemmungen. Die Frage ist, werden Verteilungen für Wetterereignisse durch den Klimawandel breiter? Das ist nicht sicher, aber möglich. Das liegt daran, daß einerseits die Temperatur der Luft und an Land durch den Treibhauseffekt ein starken Erwärmungstrend zeigt. Diese Erwärmung muß in die Ozeane hineinwandern, was eine gewisse Zeit braucht. Damit steigt der Temperaturgradient, der Temperaturanstieg zwischen tiefen und flachen Meeresschichten. Dies kann dazu führen, daß die Temperaturvariabilität zwischen Phasen stärkeren und schwächeren Wärmetransports in die Meere größer wird. Und so die Verteilung der Temperaturen und der daran gekoppelten Wetterereignisse breiter wird.

Im gleichen Heft beschäftigt sich auch Prof. Schönwiese von der Uni Frankfurt mit dem Thema der Extremwertstatistik. Am Beispiel der Temperaturen in Frankfurt zeigt er, daß zumindest diese Verteilung nur ihren Mittelwert im Rahmen des Klimawandels bisher verschoben hat. Beim Niederschlag hingegen sieht es komplizierter aus. Starke Veränderungen konnten an der Station Eppenrod bei Limburg nur in bestimmten Monaten festgestellt werden. Dann aber vor allem hin zu einer breiteren Verteilung. Sowohl Tage mit geringen als mit sehr hohen Niederschlägen treten im Laufe der letzten 100 Jahre in den Wintermonaten immer stärker auf, während sich am Sommerniederschlag wenig geändert hatte. Das verdeutlicht, daß der Niederschlag eine Größe ist, bei der man sehr stark differenzieren muß, wenn man Aussagen zu den Folgen des Klimawandels machen will.

Die Extremwertstatistik ist ein Schlüssel, um zu verstehen, welche Folgen der Klimawandel mit sich bringt.

Freitag, 21. November 2008

Der Boden als CO2-Quelle - neue Ergebnisse zu schwarzem Kohlenstoff

Die Erde enthält große Mengen an Kohlenstoff. Dieser Kohlenstoff stammt zum einen aus früheren Ablagerungen wie zum Beispiel Kreide und andere Carbonate, die aus den Schalen kleiner Meereslebewesen zu ganzen Gebirgen aufgeschichtet werden können. Bei der Verwitterung wird dieses Carbonat wieder freigesetzt und kann so auch wieder als CO2 in die Atmosphäre abgegeben werden. Während also die Meere CO2 aufnehmen, welches in Meereslebewesen gebunden wird und auf dem Meeresgrund Sedimente bildet, geben Erde und Gesteine CO2 ab.

Es gibt weitere wichtige CO2-Quellen und –Senken im Boden. Pflanzen und Tiere, die sterben, werden verwertet oder verrotten am Boden. Ein Teil dieses organischen Materials geht in den Boden und bildet dort zum Beispiel Humus. Die organischen Bestandteile in diesem Mutterboden werden von Kleinstorganismen zersetzt und geben dabei wieder CO2 ab. In Sumpfgebieten und Mooren kann diese Zersetzung unter Luftabschluß erfolgen und es wird statt CO2 eher Methan (CH4) freigesetzt. Methan hat je nach betrachteter Zeitskala einen ca. 21mal stärkeren Treibhauseffekt als CO2 (bei einer Zeitskala von 100 Jahren).

Eine weitere Kohlenstoffquelle sind Waldbrände. Sie hinterlassen vor allem Holzkohle. Das ist im wesentlichen Ruß, gering verunreinigter Kohlenstoff, im englischen black carbon genannt. Dieser Kohlenstoff ist für Kleinstlebewesen schwerer zu verwerten. Statt innerhalb von wenigen Jahren wird hier der Kohlenstoff innerhalb von ein oder zwei Jahrtausenden wieder als CO2 freigesetzt bzw. in den biologischen Zyklus eingebracht. Man kann sich vorstellen, daß es einen großen Unterschied für die Kohlenstoffbilanz macht, wie viel organisches Material zu humusartigen Bestandteilen umgesetzt wird und wie viel zu schwarzem Kohlenstoff. Leider weiß man es nicht.

Steigende Temperaturen führen zu einer positiven Rückkopplung, weil der mikrobiologische Abbau von organischen Substanzen deutlich beschleunigt wird. Außerdem tauen Permafrostböden in der Tundra Sibiriens und Kanadas auf, die zu sumpfigem Gelände werden, das in starkem Maße Methan freisetzt. Die Prozesse, die jeweils dahinter stehen, sind stark abhängig von der sehr unterschiedlichen Zusammensetzung der Böden und hochgradig nicht-linear. Eine Horrorvision für Modellierer, die die Rückkopplung der globalen Temperaturänderungen mit ihren Bodenmodellen berücksichtigen wollen. In der Vergangenheit erzeugten voll gekoppelte Modelle, bei denen Kohlenstoffemissionen aus sich erwärmenden Böden berücksichtigt wurden und selbst zu weiterer Erwärmung beitragen konnten, für CO2-Mischungsverhältnisse um 2100 von gut 600 ppm oder weit über 1000 ppm im Standardlauf je nach Modell und Annahmen. Der potentielle Effekt ist gewaltig, aber der tatsächliche Effekt unbekannt. Seitdem wurden nach Meinung der Forscher die Unsicherheiten eingegrenzt. In den IPCC-Modellen wird diese Rückkopplung erst in der neuesten Generation voll berücksichtigt und ist damit in dem neuesten IPCC-Berichten von 2007 integriert.

In einer neuen Publikation haben Johannes Lehmann und seine Mitarbeiter dargelegt, daß sie den Anteil von schwarzem Kohlenstoff in den Böden für unterschätzt halten. Nach ihren Modellrechnungen müssten die Projektionen von CO2-Abgaben aus den Böden bei einer Temperatursteigerung um 3 Grad um ca. 20 Prozent gesenkt werden, wenn Messungen aus Australien zum Gehalt an schwarzem Kohlenstoff global übertragen werden könnten. Nun ist gerade in Australien aufgrund der dort vorkommenden Busch- und Waldbrände ein relativ hoher Gehalt an schwarzem Kohlenstoff zu erwarten. Deshalb verdeutlicht die Arbeit Lehmanns eigentlich nur den hohen Forschungsbedarf. Er selbst weist darauf hin, daß der Vergleich von Messungen und Modellrechnungen derzeit eher andeutet, daß wir nach Quellen für weitere Kohlenstoffemissionen suchen müssten und seine Rechnungen, die die Kohlenstoffquellen in die Atmosphäre verringern, den vorhandenen Fehler noch vergrößern.

Interessanterweise ist schwarzer Kohlenstoff auch eine der Möglichkeiten, Kohlenstoff im Boden zu binden und eine Möglichkeit des Geoengineerings. Man würde hier Pflanzen unter verminderter Luftzufuhr teilweise verbrennen und verkohlen und als Biochar in die Böden geben. In einigen Jahren könnte dies eine ökonomisch sinnvolle Maßnahme sein, CO2-Bilanzen zu verbessern. Lehmann gehört zu den Forschern, die an solchen Lösungen arbeiten.

Sonntag, 16. November 2008

Klimasensitivität - die Wasser-Temperatur-Rückkopplung

Die Verdopplung der CO2-Konzentration allein führt über den Treibhauseffekt nur zu einer moderaten Temperaturerhöhung von ca. 1,2 Grad Celsius. Erst Rückkopplungseffekte verstärken die Auswirkungen der Erhöhung der Treibhausgaskonzentrationen auf die derzeit anerkannte Spanne im Bereich von ca. 1,5 bis 4,5 Grad Celsius mit dem wahrscheinlichsten Wert von 3 Grad. Daß diese Rückkopplungen bestehen, zeigen Auswertungen von Klimaveränderungen in der Vergangenheit. Hier war der Antrieb meist eine Veränderung der Aufnahme der Sonnenstrahlung durch Bahnveränderungen der Erde, aber auch Häufungen von Vulkanausbrüchen, die über ausgestoßenes Aerosol die Reflektion von Sonnenlicht erhöhten. Betrachtet wurden Eiszeiten, aber auch z.B. globale Temperaturschwankungen in den letzten Jahrhunderten und Jahrzehnten. Übereinstimmend ergeben Auswertungen vergangener Klimaänderungen und die Modellrechnungen einen positiven Beitrag der Rückkopplungen, die globale Temperaturänderungen um einen Faktor ca. 2,5 verstärken (mit der Spanne ca. 1,5 bis über 3).

Von ganz besonderer Bedeutung ist dabei die Temperatur-Wasser-Rückkopplung. Ihre Größe und ihr Vorzeichen macht letztlich den Unterschied aus zwischen Szenarien, bei denen der der Anstieg der Treibhausgasemissionen zu einer deutlichen globalen Erwärmung mit allen diskutierten Folgen führt und solchen, bei denen die Klimaänderung sich in kontrollierbaren Grenzen hält. Die Möglichkeit, daß eine steigende Temperatur auf geheimnisvolle Weise dazu führt, daß letztlich weniger Wasser in der Atmosphäre ist oder die Wolken sich so ändern, daß sie mehr Sonnenlicht reflektieren war seit langem die einzige wissenschaftlich begründbare Position, den Grundaussagen des IPCC skeptisch gegenüber zu stehen.
Diese Position hatte ich bereits als die Iris-Hypothese von Lindzen erwähnt. Kurz zusammengefaßt behaupten Lindzen und einige wenige andere Wissenschaftler dabei, daß über warmen Meeresflächen die hohen Cirruswolken ausgedünnt werden und dadurch mehr Wärme in das Weltall abgestrahlt werden kann, wodurch die Erde gekühlt wird. Das wäre eine negative Rückkopplung.

Diese Behauptung wurde bereits wiederlegt – sie stimmt mit Messungen nicht überein. Darüber hinaus wurde bereits in anderen Arbeiten und Modellrechnung wiederholt bestätigt, daß eine Erwärmung der Erde dazu führt, daß die Luft eher mehr Wasser halten kann und dadurch Wasser als zusätzliches Treibhausgas den Treibhauseffekt anderer Treibhausgase verstärkt – entsprechende Literaturstellen findet man in den IPCC-Berichten an gegebener Stelle.

Wem alle diese Nachweise und Diskussionen noch zu abstrakt waren, für den sollte eine Veröffentlichung alles klar machen, die letzten Monat herauskam. Hier wurde eine starke Temperatur-Wasser-Rückkopplung auf der Basis einer Auswertung von Satellitenmessungen nachgewiesen, die im Einklang mit Untersuchungen vergangener Klimaänderungen und mit den Modellergebnissen steht. Dessler, Zhang und Yang haben in einer sehr knapp und präzise formulierten Arbeit, die kürzlich in den Geophysical Research Letters publiziert wurde, aus Satellitendaten abgeleitet, wie stark die Temperatur-Wasser-Rückkopplung ist (über den Link ist leider nur die Zusammenfassung des Artikels frei verfügbar - den Artikel selbst erhält man hier). Gemessen wurden dabei verschiedene Größen, wie Temperatur und Feuchtegehalt der Atmosphäre. Sie fanden einen relativ hohen Wert von 2,04 W/m2/K heraus. Das heißt, je 1 Grad Klimaerwärmung steigt der Wassergehalt der Atmosphäre derart, daß der Treibhauseffekt einen zusätzlichen Antrieb von 2,04 W/m2 erhält, entsprechend einer weiteren Verdopplung der CO2-Konzentration. Damit ist aufgrund von Messungen bestätigt, daß zusammen mit anderen bereits bekannten positiven Rückkopplungen dafür eine Verdopplung von CO2 zu einer Temperaturerhöhung von nunmehr mindestens 3 Grad führt, möglicherweise auch mehr. Zusammen mit der höher als erwarteten Emissionsentwicklung heißt das, daß von den IPCC-Szenarien derzeit eher die pessimistischen zutreffen werden oder diese sogar noch übertroffen werden. Es gibt derzeit in der Fachliteratur einen Trend, und der deutet darauf hin, daß die Aussagen des IPCC eine wirkliche konservative Abschätzung der anstehenden Probleme darstellen - konservativ in dem Sinne, daß eher eine untere Grenze der Klimaänderungen und Klimafolgen dargestellt wird. Eine weitere Diskussion zu diesem Thema findet man auch hier.

Todeszonen in den Ozeanen als Folge des Klimawandels

Für Meeresbiologen und Ozeanographen sind sie ein bekanntes Phänomen, die sogenannten Todeszonen in den Ozeanen. Erst kürzlich war es in der internationalen Presse eine Schlagzeile, daß eine starke Ausbreitung einer Todeszone im Golf von Mexiko beobachtet wurde. Bei den Todeszonen handelt es sich um Gebiete in den Meeren, in denen der sonst vorhandene Sauerstoff im Wasser vollständig verbraucht wurde. Leben, daß von diesem Sauerstoff abhängig ist, ist in den Todeszonen nicht möglich. Also gibt es dort weder Fische noch wirbellose Tiere noch Pflanzen, allenfalls besonders bedürfnisloses Kleinstleben, insbesodnere anaerobe Bakterien, die zum Beispiel von Schwefelverbindungen leben und dabei giftiges Schwefelwasserstoff freisetzen können. Da diese Todeszonen auch Meerespflanzen abtöten, haben sie auch eine starke Erhaltungsneigung. Erst ein intensiver Austausch mit suerstoffreichem Wasser kann die Todeszone auflösen. Das ist natürlich bei sehr großen Zonen schwierig. Diese Zone können bei warmem Wetter und in Zeiten der Algenblüte weiter wachsen. Besonders bedeutsam wird es, wenn diese Todeszonen Gebiete einschließen, in denen eigentlich in großem Umfang Jungfische heranwachsen müßten. Die Nahrungskette in den Ozeanen kann beeinträchtigt werden, sich zu einem ausgedehnten Artensterben auswachsen und uns dabei einen Einbruch bei unseren wichtigsten Nahrungsfischen bescheren.

Es lag bisher schon der Verdacht nahe, daß der Klimawandel zu einer Ausdehnung der Todeszonen führen könnte - warmes Wasser neigt dazu, weniger Sauerstoff zu enthalten und das wird verstärkt durch eine höhere biologische Aktivität, die den Sauerstoff aufzehrt. Die Versauerung der Meere durch immer mehr gelöstes Kohlendioxid kann dazu führen, daß manche Arten, etwa Schalentiere, absterben und dadurch die Belastung der Ozeane mit totem, Sauerstoff verbrauchendem Material erhöhen. CO2 hat aber auch einen Düngeeffekt. Düngeeffekte sind anders als landläufig angenommen, nicht per se günstig. Überdüngung ist genau eine der Ursachen für ein Umkippen von Gewässern, in denen nach einer Blüte von Algen und anderen Lebewesen absterbendes Material den vorhandenen Sauerstoff aufbraucht. Genau eine solche Überdüngung durch das verfrachtete organische Material und mitgeschleppte Waschmittel und Dünger aus den einmündenden Flüssen, wie dem Mississippi, ist zum Beispiel die Ursache für die Todeszone im Golf von Mexiko. Hier kommen aber auch besondere Strömungsverhältnisse dazu. Würde diese Todeszone sich soweit ausdehnen, daß sie den Golfstrom beeinflussen könnte, hätte das sicher gravierende Folgen.

CO2 hat selbst aber auch einen Düngeeffekt, denn auch ein Zunahem des CO2-Gehalts im Wasser kann das Algenwachstum anregen. Absterbende Algen verbrauchen dann in den tieferen Meeresschichten (einige 100 Meter Tiefe) den Sauerstoff. Eine neue Studie unter der Federführung von Kieler Forschern des Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) belegt mit Hilfe eines Modells, das atmosphärische, marine und biologische Abläufe verknüpft, wie zum Beispiel Nahrungsangebot, Algenblüte und Sauerstoffverbrauch, daß durch die erhöhte CO2-Menge in den Ozeanen die Todeszonen sich in den nächsten Jahrzehnten erheblich ausdehnen werden. Eine Gruppe um Prof. Andreas Oschlies bezifferte die Ausbreitung tropischer Todeszonen bis zum Ende des Jahrhunderts um 50%. Angesichts vieler Unsicherheiten ist eine solche Zahl eher als eine Hausnummer zu verstehen, die uns die Größenordnung angibt. Die Entwicklung solcher Todeszonen kann sich durch Rückkopplungseffekte verstärken und vielleicht schwächer, vielleicht auch stärker ausfallen, und letzteres in Kombination mit Veränderungen an Land könnte zu einer massiven Nahrungsmittelknappheit im Lauf des Jahrhunderts beitragen.

ERGÄNZUNG: Diese Sicht auf sich ausdehnende Todeszonen wirkt allerdings noch konservativ gegenüber Ansichten, die der Ozeanograph Jeremy Jackson vom SCRIPPS Institut für Ozeanographie vertritt. In einer eigenen Veröffentlichung sieht er die Möglichkeit eines durch solche Todeszonen in naher Zukunft verursachten Massenaussterbens von Arten in den Ozeanen.

Eine weitere Gefahr liegt darin, daß die Düngung von Meeresgebieten mit Eisen als eine der Maßnahmen gehandelt wird, die vielleicht zur Verringerung der CO2-Menge in der Atmosphäre beitragen könnte. Die Düngung nährstoffarmer Meeresgebiete und die dadurch verursachte Algenblüte trägt auch nach Versuchen zunächst dazu bei, daß CO2 in den Algen gebunden wird. Sinken die abgestorbenen Algen in die Tiefsee ab, ist damit der Luft erst mal CO2 entzogen. Gleichzeitig ist aber die Gefahr gegeben, daß auch das zur Ausbreitung von Todeszonen in den Meeren beiträgt. Wie alle Maßnahmen des Geoengineerings kann auch diese dazu führt, daß es am Ende heißt: "Operation gelungen, Patient tot."

Sonntag, 26. Oktober 2008

Was können wir aus der Finanzkrise für den Klimawandel lernen?

Mit Blick auf die Finanzkrise, die in den letzten Monaten in die Realwirtschaft schwappt, greift gerade die Neigung um sich, andere Probleme zu verdrängen. Der Zusammenbruch der Investmentbanken in den USA kostet gerade gut eine Viertel Million Menschen aus diesem Bereich die Jobs – ein großer Teil der Wallstreet verliert die Existenzgrundlage, da viele Recherche- und Analystenteams jetzt genauso wie die Mitarbeiter der betroffenen Banken nicht mehr benötigt werden. Der Einbruch der Baukonjunktur und die Schrumpfung der kreditfinanzierten Geschäfte (z.B. Autokäufe, Autoleasing) inklusive der Zulieferer bedrohen in den USA aber bereits mehr als eine Million Stellen. Schätzungen von 25 Millionen Entlassungen in betroffenen Branchen weltweit stehen im Raum, aber in Wahrheit ist die Dimension des anstehenden Wandels noch nicht klar. Für eine Kapitalismuskritik taugt das alles nichts, weil ja viele dieser Stellen erst auf der Basis einer Kreditwirtschaft ermöglicht wurden. Man kann schlecht freudig die vielen Jobs in Anspruch nehmen, die durch Investmentgeschäfte und kreditgetriebene Expansionen möglich werden und dann darüber schimpfen, daß eine so von Krediten getriebene Wirtschaft konjunkturelle Schwankungen hat, die sich manchmal stärker aufschaukeln können. Aber es gibt in solchen Situationen verzeihliche und dumme Fehler, und die dummen Fehler kann man vermeiden.

Als in den 70er Jahren in den USA die Regelungen gesetzt wurden, daß Schuldenmachen fürs Eigenheim ohne Reue möglich wurde (d.h. man hat das Recht, wenn der Wert des Hauses unter den Kredit fällt, das Haus der Bank zur Verwertung zu geben und damit den Kredit abzulösen), konnte man wohl nicht ahnen, daß dieses eines Tages die USA in eine Kreditblase treiben wurde. Aber wenn in den letzten Jahren zunehmend davor gewarnt wurde, daß die Situation auf den Kreditmärkten und die Abhängigkeit von unendlich steigenden Hauspreisen nicht mehr gesund ist (übrigens nicht nur in den USA, auch z.B. in Spanien und im Vereinigten Königreich gab es Immobilienblasen), hätten die Profis zumindest ihre Abhängigkeit von solchen heißgelaufenen Märkten schrittweise reduzieren müssen. Wie quälend langsam solche Abhängigkeiten über weitergereichte Kredite an Instituten auch in Deutschland zugegeben wurden, zu Abschreibungen führten, bis dann das Vertrauen an den Märkten gründlich ruiniert war, war sicher ein zusätzlicher Antrieb für den Abschwung. Es wird jetzt auch von vielen Seiten genau das kritisch gesehen, was die US-Notenbank unter Alan Greenspan betrieben hatte: Abschwünge durch frühzeitige und massive Geldmengenausweitungen abzufedern. Das führte zwar zu einem lange anhaltenden Boom in den USA, von dem natürlich auch unsere Exportwirtschaft profitiert hatte (was gerade auch gerne vergessen wird), aber es nährte auch immer wieder neue Blasen und unterdrückte das, wozu eigentlich Krise in der Marktwirtschaft gut sind: den Markt von ineffizienten Strukturen zu reinigen, nicht krisenfeste Betriebe pleite gehen zu lassen, damit gesunde Betriebe mehr Raum erhalten. Das erinnert an die Maßnahmen in der Forstwirtschaft, Waldbrände in Gebieten zu unterdrücken, wo sie von Natur aus gelegentlich vorkommen. Irgendwann hat sich soviel altes und totes Holz angesammelt, daß der unvermeidlich doch einmal auftretende Waldbrand so viel Material hat, daß er nun nicht nur den Wald aufräumt, wie der natürliche kleine Waldbrand, sondern ihn richtiggehend vernichtet und zum ökologischen Problem wird. Das Problem jetzt sind nicht untergehende Zocker, die es übertrieben haben, sondern daß an sich gesunde Unternehmen in einer extremen Krise mitgezogen werden. Auch das, was jetzt Greenspan als Fehler angelastet wird, war aus der damaligen Sicht nicht unbedingt so vorherzusehen. Man kann hoffen, daß die Lehre für die Zukunft verstanden wird, daß man in der Marktwirtschaft kleine Krisen auch mal zulassen muß, damit unter den Teppich gekehrte Probleme nicht irgendwann so groß werden, daß gleich der ganze Teppich fliegen geht.

Es gibt noch mehr, was ich verzeihen möchte, auch wenn vielleicht sachkundigere Personen das anders sehen. Island hat vor Jahren darauf gesetzt, daß es sich als internationaler Finanzplatz etabliert. Darauf hin sind agressiv kreditgetriebene Banken gewachsen, deren Bilanzsumme mehr als eine Größenordnung über dem Bruttoinlandsprodukt des Staates liegt. Die Strategie schien mal sinnvoll, um Island neben dem Fischfang ein zukunftssicheres Standbein zu verschaffen als eine Art Liechtenstein des Nordens. Im Nachhinein ist man dann schlauer und versteht, daß hier der Staat seinen eigenen Bankrott ermöglichte, denn Island kann natürlich jetzt die Schulden seiner, inzwischen verstaatlichten, Banken nicht mehr abdecken. Dumm wurde dieser Fehler vielleicht bereits, als man bei den ersten Krisenzeichen nicht mal abschätzte, was eine Bankenpleite für das Land eigentlich bedeuten könnte. Noch dümmer wirkt es allerdings, wenn man nun erfährt, wie massiv gerade deutsche Banken an die isländischen Banken geliehen hatten. Ca. 16 Milliarden Euro deutscher Kredite könnten eventuell abzuschreiben sein (unter anderem war das der Grund, daß die Bayerische Landesbank nun um staatliche Hilfe nachsuchte). Das an zweiter Stelle betroffene Land ist das Vereinigte Königreich mit ca. 4 Milliarden Euro. Wie konnten deutsche Banken sich nur so massiv in Island engagieren, wenn die ausgereichten Kredite doch noch nicht mal von der Realwirtschaft des gesamten Landes Island abgedeckt wurden? Versuchen Sie mal, von Ihrer Bank einen Kredit für den Kauf von Aktien für ein Vielfaches Ihres Vermögens und Ihres Jahreseinkommens zu erhalten. Da wäre es völlig egal, ob in Ihrer Kalkulation der erwartete Kursanstieg der Aktien den Kreditzins locker bezahlen würde. Aber die isländischen Banken durften das. Und nun drohen diese faulen Kredite deutsche Institute genauso mitzureißen, wie vorher die faulen Hypothekenkredite in den USA, die aus irgendeinem Grund deutsche Landesbanken, aber auch andere Institute mit besonderer Vorliebe gekauft hatten. Wenn Island fällt, reißt das im Dominoprinzip ausländische Banken mit.

Und es geht nicht nur um Island. Deutschland war auch der größte Kreditgeber in anderen Ländern, in denen sich Blasen aufgebaut hatten, nämlich Großbritannien, Irland und Spanien. Und es gibt weitere Länder, die schon vor dem IWF Schlange stehen, um Unterstützung zu erhalten. Ungarn ist das nächste Krisenland. Derzeit wertet die ungarische Währung massiv ab. Der Grund: Ungarn hat sein Wachstum vorwiegend auf Pump finanziert. Der Staat ist hoch verschuldet und zwar im Ausland, weil die eigene Wirtschaft zu schwach ist. Hier stehen erhebliche Abwertungen vor, die die ausländischen Investoren in Ungarn massiv treffen werden. Und wer investierte besonders gern in Ungarn?

Ein weiterer kippender Dominostein könnte Russland sein, dem gerade gleichzeitig die ausländischen Investitionen ausgehen, dessen Oligarchen sich teilweise verzockt haben und wo der Hauptdevisenbringer, das Erdöl, durch die weltweite Rezession einen Preisverfall erlebt. Was ist, wenn hier die, zugegeben noch großen, Devisenreserven aufgebraucht sind? Erst recht die Ukraine sieht sich vor Probleme gestellt, denn hier fehlen zusätzlich die hohen Devisenreserven, die die Verluste abfedern könnten. Wie sieht es überhaupt mit den Schwellenländern aus, die unserer Exportwirtschaft eigentlich zu Wachstum verhelfen sollten, die in der globalen Rezession aber den Preisverfall ihrer Rohstoffe erleben und gleichzeitig den Abzug des Auslandskapitals durchmachen müssen? Die Schwellenländer sind am weitesten von der Ursache der Krise, der Häusermarktblase in den USA entfernt. Trotzdem wird die globale Rezession hier die härtesten Opfer verlangen. Und über unsere Exportwirtschaft kommt auch das am Ende wieder bei uns an.

Jedes Unternehmen, das seine Insolvenz anmeldet, jede Bank die untergeht, jedes Land, das seine Kredite nicht mehr bedienen kann, reißt andere, die es vielleicht noch geschafft hätten, doch noch mit in den Untergang. Das ist die eigentliche Brisanz der Finanzkrise. Es ist ein Dominoeffekt, der nur aufgehalten werden kann, wenn schnell an möglichst vielen Stellen Dominosteine fixiert werden. Deshalb muß staatliches Geld notfalls sogar an schlimme Zocker ausgereicht werden, damit diese nicht in ihrem Fall auch gesunde Unternehmen mitreißen, auch wenn einem das gegen das innere Gerechtigkeitsgefühl geht. Und je später reagiert wird, desto teurer wird es. Jetzt ist die Zeit für staatliche Konjunkturprogramme, die der Realwirtschaft signalisieren, daß die Kreditklemme nicht auch noch von einer lange anhaltenden Rezession begleitet werden wird. Und damit kommen wir zu den dümmsten Fehlern, die man machen kann. Der dümmste Fehler ist, abzuwarten, weil man erst noch besser verstehen will, was passiert. In der Zeit läuft einem die Krise davon. Ein weiterer dummer Fehler ist es, in der Krise zu konsolidieren. Wenn die Hütte brennt, fängt man nicht an, sie feuersicher umzubauen, sondern man löscht erst mal. Jetzt also weitet man Schulden aus, gibt billiges Geld, investiert mit Staatsgeldern in der Wirtschaft, macht also alles das, was in normalen Zeiten falsch ist und gar die Blase vorher produziert hatte, die jetzt platzt. Weil nämlich die Alternative noch schlimmer ist, nämlich die Depression, wie es sie nach 1929 schon einmal gab.

Was hat das alles jetzt mit dem Klimawandel zu tun?

Ich hatte schon vorher auf das Problem hingewiesen, daß auch der Klimawandel einen Dominoeffekt nach sich ziehen kann, sogar auf mehreren Ebenen. Wenn Australien aufgrund anhaltender Dürren sich nicht mehr mit Nahrung versorgen kann, kann eigentlich der Rest der Welt als Nahrungslieferant einspringen. Wenn China aufgrund einer Wüstenausbreitung und des Verlustes großer Teile seiner Böden zunehmend auf Nahrungsmittellieferungen angewiesen ist, kann die Welt das auch auffangen. Wenn aber durch den Klimawandel an vielen Orten gleichzeitig Nahrungsmittel knapp werden, dann fangen die Dominosteine an, umzukippen. Es ist nämlich davon auszugehen, daß dann, wenn die Auswirkungen in China dramatisch spürbar werden, sie aller Wahrscheinlichkeit nach zugleich auch z.B. Indien und Südostasien treffen werden. Das heimtückische an einer Welternährungskrise ist, daß sie zu einem nicht vorhersagbaren Zeitpunkt und sehr plötzlich kommen wird. Obwohl wir also jetzt wissen, daß eine Ernährungskrise möglich ist, sind wir nicht in der Lage zu sagen, wann es sein wird. Dadurch sind wir aber auch nicht in der Lage, die Krise durch die vorsorgende Anlage von Vorräten abzufedern. Von einem Jahr auf das andere könnte plötzlich eine zuvor ausreichend versorgte Bevölkerung von Milliarden eine Nahrungsmittelknappheit erleben und darauf panisch reagieren.

Was danach passieren könnte, dürfte einfach unsere Vorstellungskraft sprengen. Gibt es Kriege um Nahrung oder Wasser? Keine Ahnung. Gibt es eine Massenflucht aus den Krisengebieten? Keine Ahnung. Werden die Weltmärkte so leer gekauft werden, daß hierzulande eine Hyperinflation einsetzt? Ich weiß es nicht. Das Szenario ist einfach unvorhersagbar, niemand will es vorhersagen, aber deshalb wird es auch nicht möglich sein, sich darauf vorzubereiten. Sicher ist aber, daß Europa sich hier nicht abkoppeln kann. Über die Weltmärkte oder Kriege oder den massenhaften Ansturm von Hungerflüchtlingen wird Europa auch dann betroffen sein, wenn die Auswirkungen des Klimawandels hierzulande moderat sind.

Wenn wir etwas aus der Finanzkrise lernen wollen, dann sollte es folgendes sein:

  • Man muß den schlimmsten Fall, der denkbar ist, in der Planung berücksichtigen, weil denkbare Fälle solche sind, die auch irgendwann eintreffen, weil wir in einer Welt leben, die nach und nach alle Situationen durchspielt, bis mal die kommt, bei der der schlimmste Fall eintreten kann. In diesem Fall heißt das, wir müssen eine Entwicklung berücksichtigen, bei der die Klimaänderung den dramatischsten Modellvorhersagen entspricht und die Folgewirkungen den schlimmsten Verlauf nehmen. Nicht, weil dies auch entfernt wahrscheinlich wäre, sondern deshalb, weil man es nicht absolut sicher ausschließen kann.
  • Ein gewisses Wissen darüber, was passieren könnte, kann zu einem falschen Eindruck führen, daß man die Situation beherrscht. Bei den riskanten Papieren wusste man, daß sie riskant waren, aber weil man dieses Risiko bewertet hatte, glaubte man, es sei beherrschbar. Den Dominoeffekt eines Fälligwerdens aller Risiken zugleich hatte man aber als zu unwahrscheinlich nicht berücksichtigt. Alle Klimaprognosen, Klimaschutzprogramme und Bewertungen der Klimafolgen dürfen die Entscheidungsträger, die Politiker, nicht dazu verführen zu glauben, das Problem sei damit schon beherrscht.
  • Man muß sich für zukünftige Risiken immer Risikopuffer schaffen. Die ersten Banken, die untergingen, waren die, die am stärksten auf hohen Profit getrimmt waren und mit der höchsten Kreditquote arbeiteten. Je mehr an Eigenkapital da ist, je mehr auch margenschwächeres Geschäft mit größerer Sicherheit zur Bank gehörte, desto sicherer standen die Banken da. Daß Deutschland trotz aller Fehler noch relativ stark dasteht, verdankt es der Tatsache, daß bei uns die Sparneigung groß ist, auch wenn dies immer zu Lasten unseres Wirtschaftswachstums ging. In der Klimapolitik heißt es, Vorsorgemaßnahmen für eine stärkere globale Temperaturerhöhung zu treffen, auch wenn dies erstmal hohe Kosten verursacht.
  • Die Schwellen- und Entwicklungsländer wird es weit härter treffen als uns, aber das heißt nicht, daß es Deutschland gar nicht trifft. Indirekt wird die Klimakrise doch wieder über eine globale Depression, über Flüchtlinge und politische Krisen auf uns zurückkommen. Wir müssen also aus eigenem Interesse Klimaschutz in den Schwellen- und Entwicklungsländern betreiben.
  • Man muß handeln, bevor die Krise eintritt und sogar, bevor jemand eine Krise für wahrscheinlich hält. Wir müssen jetzt die Emission von Treibhausgasen verhindern, nicht erst dann, wenn wir die Auswirkungen spüren. Dann ist es zu spät und wir würden der Krise hinterherlaufen. Je früher Maßnahmen getroffen werden, desto billiger sind sie, weil wir jetzt noch die Abläufe selbst steuern können. Wenn der Klimawandel voranschreitet und negative Klimafolgen eintreten, müssen wir Notmaßnahmen treffen und haben nicht mehr die Wahl, die besten Mittel auszuwählen. Bei einer solchen Krise sähe ich sogar unsere Verfassung in Gefahr, weil Politiker dann argumentieren würden, daß es um das nackte Überleben geht.

Die heutige Finanzkrise hat ihren Ursprung in einer politischen Entscheidung in der Carter-Ära vor 3 Jahrzehnten. In der Folgezeit sind viele Entscheidungen an verschiedenen Stellen erfolgt, die alle für sich genommen durchaus in ihrer jeweiligen Zeit sinnvoll erschienen. Im Zusammenwirken haben diese aber zusammen einen Ablauf aufgebaut, der innerhalb von einigen Monaten in eine Finanzkrise mit anschließender globaler Rezession führte bzw. noch führt, und nur dramatische Eingriffe aller Staaten, die vor wenigen Monaten noch als undenkbar galten, werden eine globale Depression abwenden, und auch das ist noch nicht völlig sicher. Wenn die Klimapolitik auf ihrem jetzigen Pfad weiterläuft, werden in 50, vielleicht auch schon 30 Jahren auch unaufschiebbar Notmaßnahmen eingeführt werden müssen, die uns jetzt noch undenkbar erscheinen. Daher müssen wir jetzt die nötigen Maßnahmen einführen, um den weiteren Anstieg der Treibhausgasemissionen in weniger als 10 Jahren zu beenden und dann rasch so weit zu senken, daß die Treibhausgaskonzentrationen nach 2030 nicht mehr steigen. Vielleicht ist es schon zu spät dafür, aber wir sollten es zumindest versucht haben.

Montag, 20. Oktober 2008

Neues zu CO2 und Temperaturentwicklung in den letzten 1000 Jahren

Den Treibhauseffekt hatte ich auf diesen Seiten bereits erklärt, gleichwohl es dafür ausführlichere und bessere Quellen gibt. Wir wissen, aufgrund der Spurengasbilanz (wenn man einen großen Teil der verfügbaren Kohle-, Öl- und Gasreserven verbrennt, kann man berechnen, wie groß die damit ausgestoßene CO2-Menge ist) und aufgrund von Messungen von Gaseinschlüssen im ewigen Eis, daß der Anstieg der CO2-Menge in der Atmosphäre in den letzten über 100 Jahren ausschließlich auf menschliche Ursachen zurückzuführen ist. Aus diesem Grund definiert man auch gerne den für ca. 1750 bestimmten Wert des CO2-Mischungsverhältnisses von 280 ppm als den natürlichen Hintergrund. Tatsächlich wissen wir aber nur sehr ungefähr, wie normal der Wert gerade in jener Zeit war. Die Messungen aus den Gaseinschlüssen sind messtechnisch anspruchsvoll und haben eine geringe zeitliche Auflösung. Daher ist es von besonderem Interesse, wenn man weitere Quellen zur Verfügung hat, um historische CO2-Werte zu bestimmen, gerade für die Zeit, in der man einigermaßen vernünftige Aussagen zur Temperaturentwicklung treffen kann. Eine alternative Möglichkeit ist die Bestimmung der Zahl der Stomata an Blattunterseiten. Blätter aus der Vergangenheit kann man z.B. aus Mooren gewinnen und mit der C-14-Methode datieren. Je mehr CO2 in der Atmosphäre war, desto weniger Stomata braucht eine Pflanze, um das Gas „einzuatmen“. Beide Größen sind daher antikorreliert. Unter dem folgenden Link kommt man zu einem Artikel von Van Hoof et al. in den Proceedings der National Academy of Sciences, 2008: A role for atmospheric CO2 in preindustrial climate forcing. Hier wird die Entwicklung des CO2-Mischungsverhältnisses für die letzten Jahrhunderte gezeigt (zwischen ca. 1000 und 1500). Man sieht dabei Fluktuationen mit einer Spanne von über 30 ppm, die man nicht auf menschliche Einflüsse zurückführen kann. Anscheinend ist die natürliche Variabilität des CO2 auch auf einer so kurzen Zeitskala größer, als es sich mit den Eisbohrkernanalysen zeigen lässt. Die daraus abgeleitete Spanne der globalen Temperaturänderungen könnte je nach Sensitivität für CO2-Änderungen bis zu fast 0,3 Grad betragen. Im Rahmen der Unsicherheiten ist das alles nicht wirklich unvereinbar mit der Darstellung in den IPCC-Berichten. Es stellt sich daher die Frage, warum die Autoren meinen herausstellen zu müssen, daß ihre Ergebnisse den IPCC-Berichten in einigen Punkten widersprechen würden. Im Kern bleibt, daß der natürliche Hintergrund des CO2-Mischungsverhältnisses vielleicht unschärfer definiert ist, als ursprünglich angenommen. Voraussetzung dafür ist, daß der Einwand von Grumbine in seinem Blog nicht zum Tragen kommt, daß die CO2-Fluktuationen von lokalen Ereignissen geprägt sein können – immerhin könnte so ein Sumpf oder Moor, aus dem man die Blätter zur Analyse gewinnt, je nach Temperatur eine stärkere lokale CO2-Quelle sein. Haben die Autoren recht, dann könnten die Meere in der Vergangenheit recht dynamisch CO2 ausgegast oder aufgenommen haben, in Wechselwirkung mit globalen oder regionalen Temperaturschwankungen. Das würde auf einen stärkeren Rückkopplungseffekt der beiden Größen hinweisen. Die globale Temperatur wäre also etwas stärker sensitiv zu der CO2-Konzentration und schwächer zu Vulkane und Sonneneinstrahlung als derzeit im Mittel angenommen wird. Aber bevor man so weitreichende Schlüsse zieht, sollte doch lieber diese Analyse noch mal untersucht werden, es sollten Blätter aus anderen Quellen herangezogen werden und alternative Erklärungen für die beobachteten Abweichungen zwischen Eisbohrkerndaten und Stomatadaten für CO2 untersucht werden.

Sonntag, 19. Oktober 2008

Rezession für den Umweltschutz?

Die Finanzkrise der Banken hat Auswirkungen auf die Realwirtschaft, die möglicherweise in der nächsten Zeit zu einem Stagnieren oder Schrumpfen der Bruttoinlandsprodukte in vielen Staaten führen. Die Finanzkrise stammt letztlich aus einer Besonderheit der amerikanischen Gesetzgebung. Wenn in den USA für den Kauf eines Hauses eine Hypothek aufgenommen wird, ist das Risiko für den Schuldner klar begrenzt. Fällt der Wert des Hauses unter den Wert des Kredits, kann der Hausbesitzer statt der weiteren Kreditrückzahlung das Haus an die Bank geben und sich eine bescheidenere Bewohnung zu einem maßvolleren Kredit suchen. Das Risiko trägt die Bank, die nun das Haus weiterverkaufen muß und den Rest zwischen Kredit und Verkaufserlös abschreiben muß. Wenn, wie jetzt, die Hauspreise fallen, und viele Banken gleichzeitig Häuser auf den Markt werfen, daß die Nachfrage nicht nachkommt, summieren sich die Abschreibungen. Hat man die Kredite zu Paketen gebündelt und diese als Schuldpapiere weitergereicht, verteilen sich die nun heftigen Abschreibungen auf jeden, der diese faulen Kredite gekauft hatte. Unter Umständen gehen davon Banken mit besonders gierigen oder naiven Aufkäufern der Schuldtitel pleite. Wenn aber erst mal Banken pleite gegangen sind, möchte keine Bank mehr Geld an möglicherweise faule Schuldner weiterverleihen. Die Banken hocken auf ihrem Geld und alle, die kurzlaufende Kredite ersetzen müssen, bekommen plötzlich kein Geld mehr. Sie mögen noch nach wie vor Werte haben, die ihren Krediten entsprechen und sie mögen langfristig mit Gewinn arbeiten, aber kurzfristig können sie ihre Verpflichtungen nicht mehr decken und sind daher illiquide. Die Folge ist, daß wie ein Dominostein den anderen ein Unternehmen, das insolvent wird, seine Gläubiger, die damit abschreiben müssen und kein frisches Geld mehr erhalten, mitreißen. Als erstes fallen die Banken, dann die hochverschuldeten Industrieunternehmen und Dienstleister, dann ihre Zulieferer, Ausrüster und Geschäftspartner, schließlich bricht der Konsum weg, weil die Menschen Angst bekommen, demnächst ohne Arbeit dazustehen.

Weil also in den USA für das Eigenheim Schuldenmachen ohne Reue möglich ist (oder war – im Moment bekommt man nicht mehr so leicht einen Kredit), müssen nun weltweit Volkswirtschaften mit einer Rezession rechnen, bis die Banken wieder wissen, wem sie trauen und neu Geld leihen können. Das ist, sehr grob vereinfacht, unsere gegenwärtige Lage, und der Grund, warum die Staaten im Moment 100-Milliardenbürgschaften anbieten, damit diese selbstmörderische „Wer-kippt-als-Nächster“-Haltung verschwindet. Bürgschaften anzubieten, ist im übrigen recht billig, denn sie erzeugen den bekannten Gläubiger-Reflex: „Gib mir sofort das geliehene Geld zurück! Was, du kannst es sofort zurückzahlen? Dann behalte es ruhig weiter und zahl Zinsen. Aber wenn du es nicht sofort zurückzahlen kannst, dann will ich es sofort haben.“ Bürgschaften sorgen oft dafür, daß ihre pure Existenz bereits verhindert, daß sie fällig werden. Und die wenigen Prozent davon, die vielleicht doch getogen werden müssen, sind immer noch billiger, als die anhaltende Depression kosten würde, wenn es die Bürgschaften nicht gäbe. Wobei natürlich eine echte Rezession Folgeschäden hat. Zum Beispiel explodieren dann auch die faulen Kreditkartenschulden und Autokredite, wenn die Schuldner ihre Jobs verlieren oder auf Pump gekaufte Aktien an Wert verlieren.

Was aber ist die Folge einer solchen Rezession? Zunächst mal geht der Ölpreis zurück. Vom Hoch bei gut 140 Dollar je Barrel sind wir inzwischen unter 70 Dollar je Barrel Rohöl gefallen (je nach Sorte). Dahinter stecken die Erwartungen für den kommenden Ölverbrauch, denn die fallende Produktion in einer Rezession bedeutet eine Reduzierung des Energieverbrauchs. Aus Sicht des Umweltschutzes ist das vordergründig ein positives Ereignis. Weniger Energieverbauch und weniger Beton bedeutet immer auch weniger CO2 in der Atmosphäre. Aber langfristig wird die Rechnung komplizierter. Teilweise bedeutet eine Rezession nämlich nur, daß so oder so fällige Investitionen und Anschaffungen verschoben werden. Der Umwelt ist damit nicht wirklich geholfen. Noch schlimmer ist dabei aber, daß der Ersatz öl- oder stromschluckender Altgeräte durch sparsamere neue Geräte aufgeschoben wird. Und da schlägt das Energiesparen durch Rezession in ein Energieverschwenden um. Schließlich fehlt durch die Rezession das Geld für den Aufbau einer neuen CO2-armen Infrastruktur. Hybridautos, Windräder und Solaranlagen brauchen für ihren Bau zunächst mal Kapital. Und das wird in Phasen des Wirtschaftswachstums und des lockeren Geldes aufgebaut, nicht in der Rezession, wenn die Banken das Geld festhalten, weil sie Angst vor platzenden Krediten haben.

Hier zeigt sich wieder, daß die Rechnungen mit den Staaten, die bis zum Datum x mindestens y% CO2-Emissionen einsparen sollen, das Problem nicht richtig beschreiben. Besser wäre es, es würde vorgegeben, wieviel g CO2 der Euro Bruttoinlandsprodukt erzeugen darf, denn dann würde es auch einen Unterschied machen, ob die Einheit Wirtschaftswachstum im energieoptimierten Europa oder mit viel CO2 erzeugender Braunkohle im energieverschwendenden China entsteht. Auf den kleinen Einbruch beim Energieverbrauch wird schnell ein längere Phase kommen, bei der der Energieverbrauch stärker wächst als es ohne Rezession der Fall gewesen wäre. Einziger Hoffnungsschimmer ist bislang, daß die EU an ihrem Ziel einer CO2-Emissionsminderung um 8% für die 15 alten EU-Staaten bis 2012 festhalten möchte – das ist wenig genug, aber ein positives Zeichen in einem Umfeld, in dem manche Staaten (z.B. Polen) mit Hinweis auf die Verluste durch die Finanzkrise gerne Maßnahmen zum Klimaschutz verschieben würden.

Donnerstag, 16. Oktober 2008

Der Sinn von Umfragen zum Klimawandel

Es besteht ein großes Interesse daran, zu wissen, was Menschen meinen, um zu wissen, wie man sie beeinflussen kann oder wie man sich verhalten soll, wenn man von der Meinung der Menschen abhängig ist (vor allem, wenn man Produkte auf den Markt werfen will, inklusive Waschmittel, Parteiprogramme und Politiker). Niemand käme auf die Idee, aus der Tatsache, daß viele Menschen eine bestimmte Meinung haben abzuleiten, daß diese Meinung wahr wäre. Wir trauen der Mehrheit durchaus zu, daß sie sich für den dümmsten, gleichwohl aber charismatischsten Kandidaten und das Waschmittel mit dem schönsten Namen aber nicht der besten Wirkung entscheiden. Demokratie und Wäsche müssen mit diesem Makel auskommen, da die bisher getesteten Alternativen wie Diktatur und Planwirtschaft den Praxistest nicht bestanden haben.

Recht problematisch wird es daher, wenn man eine Meinungsumfrage unter den Menschen durchführt, „die es wissen müßten“. Dann nämlich neigt man dazu, die so erforschte Meinung mit dem vorhandenen Wissen zu verwechseln. Solche Umfragen werden dann auch gerne von Menschen mißbraucht, die mit dem etablierten Wissen nicht einverstanden sind. Im einfachsten Fall wird eine nicht repräsentative Umfrage auf einer falsch deklarierten Referenzgruppe gestartet, z.B. indem man unkontrolliert Menschen mit vage akademischen Hintergrund teilnehmen lässt, die mitteilen sollen, ob sie ein bestimmtes Pamphlet unterzeichen, und diese als Wissenschaftler ausgibt, deren Meinung dann bei einem speziellen Fachthema relevant sein soll. Tatsächlich ist so etwas ohnehin keine Umfrage, sondern nur eine Unterschriftenliste, bei der sich natürlich die Anhänger einer bestimmten Meinung ansammeln. Wenn man nicht weiß, wie groß die hypothetische Unterschriftenliste der Gegenseite ist, kann man daraus gar nichts schließen.

Der entscheidende Einwand ist aber, daß in der Wissenschaft der Erkenntnisstand das ist, was in relevanten Fachzeitschriften publiziert wird, die darauf folgende Kritik übersteht und im folgenden von anderen als nützliche, relevante und gesicherte Erkenntnis zitiert und weiter verwendet wird. Was das ist, wissen nur die Menschen, die auf dem Gebiet arbeiten, und das kann manchmal ein sehr kleiner Haufen sein, wenn es um recht spezielle Erkenntnisse geht.

Bray und von Storch haben 1996, 2003 und nunmehr auch 2008 eine Umfrage unter Menschen durchgeführt, die sie in einer Vorauswahl als Wissenschaftler auf dem Gebiet der Klimaforschung identifiziert hatten, und bei der sie einen umfangreichen Satz von Fragen stellten, von dem man nicht erwarten konnte, daß alle Befragten in gleicher Weise kompetent sind. Bei einer Rücklaufquote von unter 20% der Befragten habe ich zwar meine Probleme damit, daß man hier annehmen möchte, zu repräsentativen Ergebnissen zu kommen. Zudem sind erhebliche Zweifel angemeldet worden, ob die Formulierung und Auswahl der Fragen zu belastbaren Aussagen führen kann (hier eine deutsche Übersetzung eines Beitrags von Gavin Schmidt auf RealClimate). Aber mir ist dabei zusätzlich in einer Antwort von Bray auf die Kritik aufgefallen, daß er im Grunde unfreiwillig selbst ein gewichtiges Argument anführt, warum seine Umfragen problematisch sind. Es geht um folgende Frage in den verschiedenen Formulierungen von 2003 und 2008:

2008: How convinced are you that most of the recent or near future climate change is, or will be, a result of anthropogenic causes? (response range: 1 = not at all, 7 = very much)
(Wie stark sind Sie davon überzeugt, daß der Klimawandel zum größten Teil in der letzten Zeit oder nahen Zukunft eine Folge menschlicher Ursachen ist?)
7-5: 83,5% (mehr oder weniger davon überzeugt)
1-3: 11,1% (mehr oder weniger nicht dieser Meinung)

2003: Climate change is mostly the result of anthropogenic causes
(Klimawandel ist zum größten Teil Folge menschlicher Ursachen)
1-3: 56% (mehr oder weniger davon überzeugt)
5-7: 30% (mehr oder weniger nicht dieser Meinung)

Bray meinte, die ganze Kritik an der Umfrage von 2003 sei doch übertrieben, wenn man 2008 fast das gleiche Ergebnis bekommt. Doch gerade bei dieser Kernfrage ist das Ergebnis sehr unterschiedlich. 2003 schienen die Wissenschaftler demnach uneinig darüber zu sein, ob der Klimawandel vorwiegend von Menschen verursacht wird. Die Fraktion der Verfechter menschlicher Ursachen ist noch nicht mal doppelt so groß wie die der „Skeptiker“. 2008 plötzlich findet man eine überwältigende Mehrheit für den Menschen als Verursacher des Klimawandels. Die „Skeptiker“ sind eine unbedeutende Minderheit. Hat es zwischen 2003 und 2008 einen gewaltigen Wissensfortschritt gegeben, einen Paradigmenwechsel in der Klimaforschung oder überwältigende neue Beweise? Nein. Nur die Fragestellung hat sich in einem unbedeutend scheinenden Punkt geändert. Plötzlich wird ein Zeitraum angegeben, in dem der Klimawandel menschenverursacht sein sollte, nämlich „kürzlich und in naher Zukunft“. Damit hat man auf einen Schlag alle Wissenschaftler ins Boot bekommen, die vorher pedantisch die Frage so interpretierten, ob man auch über die Erwärmung vor 1950 oder über geologische Zeiträume den Menschen als Verursacher annehmen kann – natürlich nicht. Wenn die Ergebnisse so empfindlich davon abhängen, wie die Frage gestellt wird, ist wohl klar, daß die Umfrage von Bray und von Storch hoch problematisch ist. Schon als eine Soziologie der Klimaforscher, aber noch mehr, weil viele Menschen den oben genannten Fehler machen, Meinung mit anerkanntem Wissen zu verwechseln und weil die Aussagen der Klimaforschung nun einmal eine hochpolitische Sache geworden sind. Die Umfrage 2003, die suggerierte, daß die Wissenschaftler sich nicht ganz einig seien, war ja eine durchaus nützliche Argumentationsgrundlage für Menschen, die grundsätzlich Maßnahmen zur Minderung der weiteren Erwärmung aus politischen Gründen ablehnen. Die Umfrage von 2008 wird sicher auch ihre Liebhaber finden, die sich ihre Fragen herauspicken, immer in der falschen Annahme, Meinungen unter einer Gruppe von Wissenschaftlern hätten etwas damit zu tun, was der anerkannte Wissensstand auf einem Fachgebiet ist.

Sonntag, 12. Oktober 2008

Kann Australien überleben?

Vor ca. 60.000 bis 70.000 Jahren besiedelten die ersten Menschen Australien. Sie kamen auf einen Kontinent, der fremdartiger war als alle Länder, die sie zuvor besiedelt hatten oder zu denen ihre Artgenossen hernach noch kommen könnten. Der isolierte Kontinent hatte eine ganz andere Tierwelt, beherrscht von Beuteltieren, deren größte Vertreter die Größe eines Nashorns hatten (Diprotodon), von einem Riesenvogel Genyornis newtoni, der doppelt so schwer war wie der Vogel Strauß und von einer Riesenechse Megalania prisca (verwandt mit dem Großwaran), die gut 5,5 Meter lang werden konnte. Doch vor über 20.000 Jahren starben die größten Arten auf Australien, darunter die genannten aus. Man weiß nicht sicher, was passiert ist, damit Australien sein großes Artensterben erleben konnte, aber es gibt Hypothesen, die plausibel klingen. Nimmt man sie zusammen, dann klingt die Geschichte so:
Gegen Ende der letzten Eiszeit wurde es auf Australien noch trockener als ohnehin schon. Weniger trockenheitsbeständige Bäume starben ab. Beschleunigt wurde dies durch Buschfeuer, an die nur besonders resistente Arten wie die ölhaltigen Eucalyptusbäume angepaßt waren. Durch ihre ätherischen Öle beschleunigten sie Feuer so sehr, daß das Feuer bereits leichtendzündliche Nahrung mehr fand, bevor das Kernholz geschädigt werden konnte. Trocken aber war es durch das Zusammentreffen einer geringeren Niederschlagsrate durch global niedrige Temperaturen und eine Phase gesteigerter El-Nino-Aktivität, die zu wiederholten Häufungen von Dürrejahren führten. Möglicherweise setzten die Menschen auf diesen Effekt noch einen drauf, indem sie häufige Buschfeuer anzündeten. Die Buschfeuer sollten dafür sorgen, daß offene Landschaften entstanden, in denen leichter Nahrung gefunden wrden konnte und Feinde früher gesehen wurden. Im Zusammenwirken mit Dürren und El-Nino-Phasen veränderten sich dadurch Landschaften in ganz Australien und veränderten sich zu dem Bild, das wir heute vom wüstenreichsten und trockensten Kontinent haben. Die großen Pflanzenfresser starben aus, weil sie nicht mehr täglich etwas zu trinken fanden und ihre bevorzugte Nahrung vernichtet wurde. Und die großen Fleischfresser wie Megalania verloren ihre wichtigste Beute.

Seit jener Zeit war es in Australien wieder etwas feuchter geworden – zu spät für die ausgestorbenen Arten. Die größten überlebenden Arten sind das rote Riesenkänguruh, das sein Wasser schon aus seiner Nahrung gewinnen kann und das Leistenkrokodil in Rückzugsgebieten am Rande des Kontinents. Aber auch diese Entwicklung war nicht von Dauer. Bis vor kurzem galt Australien auch als großer Agrarproduzent. So war Australien lange Zeit der zweitgrößte Produzent von Weizen. Auch diese Ära nähert sich dem Ende.

Ob das Feuchteangebot in einem Gebiet für die Landwirtschaft ausreicht, hängt empfindlich von Niederschlag und Temperatur ab. Steigt die Temperatur, wächst die Verdunstung exponentiell an. Durch die wachsende Löslichkeit von Wasser in Luft bei steigenden Temperaturen kann zwar auch der Niederschlag anwachsen, aber die Niederschläge können durchaus auch in ganz anderen Gebieten niedergehen. Möglicherweise hat Australien gerade ein Optimum beim Feuchteangebot durchlaufen. Schon seit 7 Jahren spricht man in Australien von einer andauernden Dürre, die nur von unzureichenden Niederschlägen unterbrochen wurde. Die Nothilfen der australischen Regierung für Farmer gehen in die Milliarden Euro pro Jahr. Trotzdem sind schon über 10.000 landwirtschaftliche Betriebe in die Liquidation gegangen. Es geht nicht nur darum, daß durch die Dürre Höfe ihre Kosten nicht mehr hereinholen und daher in die Insolvenz gehen. Noch schlimmer ist, daß von den trockenen Böden der Mutterboden durch Wind aufs Meer hinausgetragen wird. Wenn dann wieder der Regen kommt, trifft er stellenweise nur noch unfruchtbaren Boden, der teilweise zudem durch Bewässerungsversuche versalzen ist.

Im Buch Kollaps zitiert Jared Diamond Quellen, nach denen die Tragfähigkeit Australiens über lange Zeiträume nur für 8 Millionen Menschen ausreicht, nicht die gut 21 Millionen Australier, die derzeit auf dem Kontinent leben wollen. In Wahrheit kann man aber nicht berechnen, wie viele Menschen Australien wirklich ernähren könnte, weil es ja nicht nur darum geht, wie trocken der Kontinent werden kann, sondern auch, wie viel Boden zerstört wird, bevor man lernt, ihn nachhaltig zu bewirtschaften.

Die dramatischen Auswirkungen der aktuellen Dürre beschreibt ein Artikel des Hamburger Abendblattes vom 19. Juni 2008. Demnach hofft man mit großen Bewässerungsprojekten und Wasser aus Tasmanien die Situation in den Griff zu bekommen. In der Rechnung taucht aber der Klimawandel als große Unbekannte auf. Jeder Grad Temperaturerhöhung schlägt sich als eine Verminderung des Wasserabflusses im Südosten (im wichtigsten Gebiet für Landwirtschaft) von 15% nieder, ein deutliches Zeichen für das verringerte Wasserangebot. Und Wissenschaftler sind sich sicher, daß die erhöhte Trockenheit kein vorübergehendes Ereignis ist, sondern wohl als Folge des Klimawandels von Dauer sein wird.

Es mag seltsam klingen, daß sowohl die letzte Eiszeit als auch die globale Erwärmung für Australien zu verstärkten Dürren führen, aber das Wasserangebot in Australien ist keine einfache lineare Funktion der globalen Temperatur. Niedrige globale Temperaturen führen zu generell weniger Niederschlägen, hohe globale Temperaturen können dazu führen, daß die Niederschläge an anderen Orten niedergehen und außerdem die Verdunstung erhöht ist. Für Australien zumindest scheint es ganz klar ein Klimaoptimum zu geben, und das ist vorüber.
Für die Welt stellt sich die Frage, was eigentlich passiert, wenn der zweitgrößte Weizenproduzent der Welt durch Bodenerosion, -versalzung und immer häufigere Dürren als Exporteur wegfällt, während die Weltbevölkerung weiter steigt? Die Frage im Titel ist daher falsch gestellt. Ist Australien vielleicht so ein Dominostein, der das Fallen einer ganzen Kette anstößt, in der China und Indien als nächstes kommen, dann die Nachbarstaaten und schließlich Europa?

Sonntag, 5. Oktober 2008

12% weniger Sonnenschein - Sommer wie vor 30 Jahren?

In den letzten Wochen war ich wieder intensiver in Sachen Qualitätsmanagement unterwegs, und deshalb hatte ich einige Zeit lang nichts posten können, obwohl sich mal wieder viel in Sachen Klimaänderungen getan hatte. Unter anderem ging es in Audits auch darum, dem Deutschen Wetterdienst den Weg zu ebnen, weitere Kalibrierungsverfahren für Meßsensoren zu akkreditieren. Im europäischen Vergleich steht der DWD sicher vorbildlich bei der Qualität seiner Meßinstrumente da, ohne daß ich jetzt hier ins Detail gehen möchte oder sollte. Bei der Gelegenheit erinnerte ich mich auch wieder einer Schriftenreihe, die über das DWD-Webportal frei zugänglich ist.

Der DWD betreibt im Rahmen des Global Atmosphere Watch am Meteorologischen Observatorium Hohenpeißenberg (auf einem Berg im Alpenvorland) die Messung von Spurengasen mit dem Ziel, mehr über die globale Hintergrundatmosphäre abseits menschlicher Quellen zu erfahren. Aus der Auswertung der so gemessenen Daten entstehen die GAW-Briefe. Im aktuellen GAW-Brief wurde der Zusammenhang zwischen der gesamten Sonnenscheindauer und der mittleren Temperatur im Hochsommer untersucht. Dabei stieß man auf eine schöne Verdeutlichung des Klimawandels.

Das Ergebnis ist, daß inzwischen die gleiche mittlere Temperatur im Hochsommer mit erheblich weniger Sonnenschein erreicht wird bzw. die gleiche Sonnenscheindauer nun zu deutlich höheren mittleren Temperaturen führt. Das war zu erwarten, da ja durch den Treibhauseffekt zum einen der globale Hintergrundwert der Temperatur ansteigt (die Meere sind wärmer geworden), aber auch die Abkühlung in den Nächten durch Abstrahlung in den Weltraum behindert wird. Aber hier wird auf originelle Weise gezeigt, daß im Zuge der Klimaänderung sich etwas fundamental geändert hat.

Im GAW-Brief wird auch das Verhältnis von Sonnenscheindauer zur Temperatur für über 70 Jahre als Zeitreihe gezeigt. Das Ergebnis ist, daß durch den Treibhauseffekt innerhalb von 3 Jahrzehnten eine um 12% verminderte Sonneneinstrahlung ausreicht, um die gleiche Temperatur im deutschen Hochsommer zu erzeugen. Das ist mal recht anschaulich.

Donnerstag, 11. September 2008

Ein bißchen Geschichte

Ich habe einen toten Link zum Nierenberg-Report (Zusammenfassung für Entschiedungsträger) aktualisiert. 21.7.2009

Es ist schwierig, die Zeit für einen Blog zu finden, wenn man den zwischen Arbeit und Familie betreibt und dabei auch für seine Beiträge Hintergrundinformationen und Links besorgen möchte. Der Effekt ist, daß immer wieder angefangene Beiträge liegen bleiben. Am Ende frage ich mich dann, ob es überhaupt einen Sinn hat, noch etwas zu posten, was dann doch schon weitgehend anderswo abgehandelt wurde. So drängt es mich, etwas zu der neuen Veröffentlichung des MPI Hamburg über die Klimaentwicklung in Deutschland zu schreiben. Die Ergebnisse der Simulationen mit einem hochauflösenden Modell (REMO), die wegen eines zwar geringfügigen, aber ärgerlichen Fehlers einmal revidiert werden mußten und dabei viel Häme provozierten, kann man sich hier anschauen: (Link zur pdf-Datei - 16,18 MB)
Aber das muß warten. Stattdessen ein kurzer Blick auf eine interessante Diskussion, die gerade in amerikanischen Blogs läuft. Ende der siebziger Jahre war die amerikanische Regierung bereits über die Möglichkeit einer globalen Erwärmung besorgt, und hatte eine wissenschaftliche Arbeitsgruppe eingesetzt, um dazu Bericht zu erstatten. Präzise gesagt, eine Art geheime Denkfabrik exzellenter Wissenschaftler, die wissenschaftliche Ideen für die Verteidigung oder von nationaler Bedeutung entwickelten, genannt Jason, erhielt 1977 den Auftrag, über das Problem der Klimaentwicklung nachzudenken und legte 1979 einen Bericht vor: JSR-78-07: The Long Term Impact of Atmospheric Carbon Dioxide on Climate. Interessant ist, daß die Ergebnisse dieses Berichtes in den Kernaussagen vorwegnehmen, was danach immer wieder mit größerer Präzision und Sicherheit bestätigt wurde:

Der Effekt einer Verdopplung der CO2-Mischungsverhältnisse, hier bis 2035 erwartet (inzwischen für ca. 2050 vorhergesehen) liegt bei 2-3 Grad Celsius Temperaturerhöhung. In der Arktis sollte die Temperaturerhöhung mit 10-12 Grad deutlich stärker sein.

Heute prognostiziert das IPCC 2-4,5 Grad je Verdopplung der CO2-Konzentration mit über 10 Grad Temperaturerhöhung in der Arktis.

Zur gleichen Zeit, als der Jason-Bericht herauskam, gab es auch eine Arbeit für den National Research Council, die man hier findet. Dieser Bericht mit dem Titel Carbon Dioxide and Climate: A Scientific Assessment, auch bekannt als der Charney-Report, hatte als wesentliche Ergebnisse, daß die CO2-Mischungsverhältnisse bis zur Mitte des 21. Jahrhunderts sich verdoppeln würden und daß dieses zu einer Klimaerwärmung von ca. 2 bis 3,5 Grad Celsius führen würde. In der Arktis wäre die Erwärmung noch deutlich stärker.

So hatten schon 1979 zwei Studien mit unterschiedlichen Auftraggebern basierend auf frühen Modellrechnungen im Kern die gleiche Warnung vor einer globalen Erwärmung durch anthropogenes CO2 gegeben. Doch es gab noch einen dritten Bericht, den sogenannten Nierenberg-Report, der eine Trendwende markierte und eine Phase der Verzögerung von Maßnahmen gegen den Klimawandel einleitete. Die Hintergründe werden hier in Rabett Run erläutert, der sich dabei wiederum auf einen Artikel von Oreskes stützt. Der Bericht an das National Research Council kam 1983 heraus, und Nierenberg als Leiter der Arbeitsgruppe wird dabei die Rolle zugeschrieben, nun im Auftrag der Reagan-Administration dafür gesorgt zu haben, daß die Gefahr einer globalen Erwärmung verharmlost wurde. Die Zusammenfassung des Berichtes hat der Sohn des damaligen Leiters, Nicolas Nierenberg, hier gepostet. Und das erstaunliche ist: fast durchweg sind die Schlußfolgerungen die gleichen, wie in den anderen Berichten: die CO2-Mischungsverhältnisse werden sich im 21. Jahrhundert verdoppeln, der Effekt ist eine Erhöhung der Temperatur von 1,5-4,5 Grad Celsius (wobei die exakte Formulierung hier trickreich ist, da von der Temperaturerhöhung die Rede ist, die folgt, wenn CO2 sehr lange auf verdoppeltem Niveau bleibt). Die Unterschiede zu den anderen Berichten liegen woanders. Der Nierenberg-Report betont, anders als die anderen Berichte, daß es auch positive Auswirkungen (CO2-Düngung) gebe. Und er empfiehlt, zunächst mal das Problem weiter zu erforschen, aber noch nichts zu unternehmen, um massiv CO2-Emissionen zu reduzieren. Es sei kostengünstiger mit anderen Treibhausgasen zu beginnen. Daß die Schlußfolgerungen dieses Berichts bei gleicher wissenschaftlicher Grundlage ganz anders ausfielen und nun der Reagan-Administration erlaubten, das Problem auf die lange Bank zu schieben, bis 1988 Hansen erneut mit Modellergebnissen deutlich machte, daß es nun klare Hinweise auf einen laufenden Klimawandel gebe, liegt wohl an der Zusammensetzung dieser Arbeitsgruppe, bei der zum einen Nierenberg seinen Einfluß nutzte, die Resultate zu entschärfen und andererseits zwei Wirtschaftswissenschaftler beteiligt waren, die das gleiche Ziel hatten.

Wenn man mehr darüber erfahren will, lohnt sich der Blick in den Blog von Atmoz.

Sonntag, 7. September 2008

Wann uns das Wasser bis zum Hals steht…

Globale Erwärmung hat viele Auswirkungen: auf das Wetter, auf die Verbreitung von Tieren und Pflanzen oder die Verfügbarkeit von Wasser. Aber das erste, woran man beim Klimawandel denkt, ist der Anstieg des Meeresspiegels. Gerade diese Folgewirkung gilt aber als besonders schwer vorherzusagen. Eine lineare Beziehung zwischen Temperatur und Meeresspiegelanstieg herzustellen ist illusorisch, wie in einem Artikel von von Storch auf Basis von Modellrechnungen dargelegt wird (Link zur Zusammenfassung und zum (kostenpflichtigen) Artikel), weil die verfügbaren Datenreihen dazu zu kurz sind und aus Zeitreihen von maximal 120 Jahren Beziehungen hergeleitet werden können, aus denen sowohl eine Meeresspiegelanstieg als auch Abfall bei einem Temperaturanstieg resultiert.

Zwar nicht deswegen, aber doch mit Wissen um die vielen Probleme ist der jüngste IPCC Bericht gerade beim Thema Meeresspiegelanstieg besonders zurückhaltend. Man kann zwar recht gut berechnen, wie der Meeresspiegel aufgrund der thermischen Ausdehnung des Meerwassers durch seine Erwärmung ansteigt. Auch für den Zufluß von den Kontinenten aus Gletschern und Niederschlagsabfluß sind Vorhersagen möglich. Der relative Verlust oder Gewinn durch Verdunstung und Niederschlag auf den Ozeanen und durch Sublimation und Abtauen sowie Niederschlag in der Antarktis und auf Grönland kann auch abgeschätzt werden. Diese Größen zusammen führen zu den Schätzungen im Bereich von 18 bis 59 cm bis ca. 2095 über den Wert von ca. 1990 (entsprechend 20 bis 65 cm Anstieg bis 2100) und einen weiteren Anstieg danach (gerundet aus dem IPCC Bericht von 2007). Doch die eigentlich wichtige Größe wollte man 2007 gar nicht erst in die Schätzung mit aufnehmen, nämlich den Meeresspiegelanstieg durch das Abrutschen des polaren Festlandeises in Grönland und der Antarktis in die Ozeane bzw. das Aufschwimmen des westantarktischen Festlandeises auf dem Meerwasser (weil hier das Festland überwiegend unter dem Meeresniveau liegt). Zwar findet man im 4. Assessment Report der Arbeitsgruppe 1 im Kapitel 10 Erläuterungen, nach denen im Laufe des 21. Jahrhunderts ein Temperaturniveau erreicht würde, bei dem das Grönlandeis nicht mehr auf Dauer bestehen bleiben würde, was allein bereits zu einem Meeresspiegelanstieg von 7 Metern führt. Die Zeitskala für dieses Abschmelzen sah man in dem Bericht aber bei Jahrhunderten – immerhin eine Größenordnung von 1 Meter Anstieg des Meeresspiegels pro Jahrhundert, natürlich nicht mit konstanter Geschwindigkeit in diesem Zeitraum. Seitdem aber lassen das weitere Beobachtungen und Schätzungen als zu konservativ erscheinen. Zudem stecken erkennbar Unsicherheiten in den Abschätzungen, weil die Summe aller Schätzterme im IPCC-Bericht immer noch einen geringeren Meeresspiegelanstieg ergeben, als er bisher beobachtet wurde.

Der Meeresspiegelanstieg durch das polare Festlandeis ist so schwierig zu erfassen, weil man dabei die Dynamik großer Eiskörper abschätzen muß. Die entscheidende Größe ist nicht etwa, wie viel Eis abschmilzt bzw. durch Niederschläge wieder gewonnen wird, sondern langfristig, ob und wie schnell der Eiskörper sich ins Meer bewegt. Wenn ein Gletscher auf einer geneigten Fläche aufliegt, gleitet er mit einer gewissen Geschwindigkeit talwärts bzw. ins Meer. Diese Bewegung wird durch Reibung gebremst. Schmilzt etwas Wasser auf dem Eiskörper und sickert zum Boden durch, wirkt das wie ein Schmiermittel. Außerdem kann solches Sickerwasser auch dafür sorgen, daß die Gletschermasse in Teile bricht. Die Teile haben relativ weniger Auflagefläche und somit Reibung und bewegen sich schneller. Meereisgebiete vor dem Gletscherausgang am Meer können auch die Bewegung des Eises bremsen. Bricht diese Meereisfläche auf, kann der Gletscher schneller rutschen. Diese ganzen Vorgänge sind so kompliziert vorherzusagen, daß sich die damit befaßten Glaziologen ungern mit Prognosen aus dem Fenster lehnen.

Trotzdem hatten sich einige an das Thema herangewagt. Rahmstorf etwa hatte sich auf der Basis einer Korrelation zwischen Meeresspiegelanstieg und Temperatur an die Prognose gewagt, daß ein Meeresspiegelanstieg um 0,5 bis 1,4 Meter bis 2100 möglich sei. Dieser Beitrag wurde mit dem Papier von von Storch und Mitarbeitern oben zurückgewiesen. (Die begleitende Pressemitteilung dabei war im Tonfall unnötigerweise wenig kollegial und geriet dadurch manchen Leuten in den falschen Hals, die das Papier dahingehend mißverstanden, daß von Storch et al. Arbeit insgesamt widerlege, daß ein Temperaturanstieg automatisch zu einem Meeresspiegelanstieg führe. Das war aber gar nicht gemeint in dem Beitrag, der sich nur darauf bezog, ob man angesichts des Gedächtnisses des arktischen Eises für frühere Temperaturen mit nur 120 Jahren an Daten bereits zu brauchbaren Korrelationen komme.)

Einiges Rauschen im Blätterwald der Medien verursachte eine Arbeit von Pfeffer, Harper und O'Neel. In dieser Arbeit untersuchte man, wie stark eigentlich die Bewegung von Gletschern auf Grönland und in der Westantarktis innerhalb physikalisch sinnvoller Grenzen anwachsen könnte, um so eine obere Grenze des dadurch verursachten Meeresspiegelanstieges zu finden. Der schnellste Gletscher ist der von Jakobshaven in Grönland mit fast 9 km pro Jahr, und man bräuchte eine Verdreifachung der Gletschergeschwindigkeiten ab dem Jahr 2010, um zu mehr als 2 Meter Meeresspiegelanstieg bis 2100 zu kommen. Das Ergebnis liegt also bei etwa 2 Metern maximal bis 2100, aber 80 cm sei nach Meinung der Autoren der plausibelste Wert. Das liegt im Bereich der Schätzungen von Rahmstorf und natürlich deutlich über den Werten aus den IPCC-Szenarios, selbst noch über dem ungünstigsten Szenario.

Eine weitere aktuelle Schätzung findet man in einem Bericht der (neuen) Deltakommission in den Niederlanden, die abschätzen muß, wie hoch zukünftig die Deiche in Holland zu bauen sind. Hier findet man den Link zu dem Bericht (auf niederländisch), der im übrigen Gesamtkosten von 90 bis 135 Milliarden Euro für das (nicht nur durch den Klimawandel) erforderliche Deichprogramm ansetzt. Auf Seite 111 findet man die Schätzungen für den weltweiten Anstieg des Meeresspiegels, der mit 55 cm bis 1,10 Meter angesetzt wird. Bis zur Hälfte des Anstiegs kommt aus Grönland und der Antarktis. Aufgrund der hohen Investitionen in das Deichbauprogramm besteht hier ein deutliches Interesse, realistische Abschätzungen zu bekommen.


Was aber bedeutet nun eigentlich ein Anstieg des Meeresspiegels um z.B. 80 cm innerhalb von 90 Jahren? Es bedeutet nicht, daß man um den entsprechenden Betrag die Küstenlinien verschieben muß. Es ist eine reine Kostenfrage, ob man mit Deichen die alte Küstenlinie erhält oder nicht. Für die Niederlande ist es z.B. keine Frage, daß man die Deiche entsprechend erhöhen wird, auch wenn dieses um die 100 Milliarden Euro kostet. Damit läßt sich das Abtauchen der Niederlande noch 200 oder 300 Jahre aufhalten, bis die Deichhöhe irgendwann einfach an technische Grenzen stößt. Ganz anders sieht es für ein Land wie Bangladesh aus, wo ein entsprechendes Deichbauprogramm bis zu 10% des Bruttoinlandprodukts verschlingen würde. Das ist einfach nicht finanzierbar. Doch es noch komplizierter. Der Verlust an nutzbarem Land bemißt sich nicht danach, was im Meer versinkt. Es hängt vielmehr daran, wo das Meerwasser das vorhandene Grundwasser hochdrückt. Diese Auswirkungen können sehr viel weiter landeinwärts zu einer unerwarteten Versalzung von Böden führen, die dann für den Ackerbau ausfallen. Die zweite Frage ist, wie viel Land bei Hurricans oder Orkanen und Springfluten dem Risiko einer Überschwemmung ausgesetzt ist, weil man Deiche zumeist nicht darauf auslegt, eine „Jahrtausendflut“ abzuhalten. Diese Überflutungshöhe bei Extremereignissen steigt nicht linear mit dem Anstieg des Meeresspiegels, sondern hängt davon ab, wie steil die Küste vor dem Deich ist. Wenn nicht noch Marschland, sondern nur direkt der Deich zu bewältigen ist, stürmt die Sturmflut ungedämpfter auf das Land. Zugleich nimmt die Zahl der extremen Sturmereignisse bei einer globalen Erwärmung vermutlich zu. Und je mehr Land einzudeichen ist, desto größer ist die Schadenssumme, wenn bei Extremereignissen der Deich dann doch nicht hält. Man muß auch berücksichtigen, wie viel natürlicher Lebensraum verloren geht, etwa Wattland, Marschen und Mangrovenwälder, die nach und nach im Meer versinken, während andererseits Eindeichungen verhindern, daß Ersatz dafür weiter im Inland entstehen kann. Dadurch gehen z.B. die Kinderstuben mancher Fischarten zugrunde, die dann auf den Tellern vieler Menschen fehlen. Nicht zuletzt verschwinden damit auch viele natürliche Strände, was z.B. für einige Urlaubsländer zum Problem werden kann.