Montag, 29. Dezember 2008
Die Strategien der Chiropraktiker
Diese ganze Wissenschaftsfeindschaft einer Berufsgruppe erinnert einen an etwas. Nämlich an den auch nicht ganz uneigennützigen Widerstand, den manche Geologen der anerkannten Theorie zum Klimawandel entgegenbringen. Auch hier pflegen Kreise innerhalb einer Berufsgruppe, von der man erwarten sollte, daß sie besser informiert ist, einen uninformierten Widerstand gegenüber bekannten Tatsachen, wie etwa, daß sich das Klima erwärmt, daß dies durch den Anstieg der CO2-Konzentration verursacht wird und daß dieser CO2-Anstieg durch die Verbrennung von Kohle, Öl und Gas verursacht wird, deren Auffindung für viele Geologen nun einmal leider der Broterwerb ist, was anscheinend die Wahrnehmung genauso trübt, wie die Tatsache, daß Chiropraktiker durch Wirbelsäuleneinrenken keine Infektionskrankheiten heilen können.
Welche 6 Argumente oder Strategien wendeten die Chiropraktiker laut Carroll an?
1. Zweifle an der Wissenschaft: Chiropraktiker suchten für den Rückgang mancher Krankheiten nach alternativen Erklärungen, die nichts mit Impfstoffen zu tun hatten. Dabei spielten klinische Untersuchungen keine Rolle.
Ähnlich bei den Klimawandelleugnern: hier wird teilweise der Klimawandel insgesamt angezweifelt oder es wird behauptet, es gebe nur natürliche Ursache (die Sonne oder kosmische Strahlen oder natürliche Zyklen). Daß die Fachliteratur das alles nicht stützt, wird ignoriert.
2. Stelle die Motive oder die Aufrichtigkeit der Wissenschaftler in Frage.
Zum einen wurde von Impfgegnern behauptet, die Daten zur Wirksamkeit der Impfungen würden manipuliert, zum anderen wurde eine Verschwörung zwischen Wissenschaftlern und Pharmaindustrie behauptet. Genau solche Vorwürfe findet man gegen Klimaforscher erhoben. Den IPCC-Berichten wird vorgeworfen, parteiisch zu sein und Klimaforschern wird unterstellt, von Katastrophenprognosen zu profitieren (in eklatanter Unkenntnis darüber, wie die Forschungsfinanzierung funktioniert).
3. Übertreibe die Meinungsverschiedenheiten zwischen Wissenschaftlern und nenne Außenseiter als Autoritäten.
Es gibt neben den zentralen Bereichen, in denen Einigkeit herrscht, immer auch Randbereiche, in denen es Kontroversen gibt. Sowohl die Impfgegner als auch die Leugner des Klimawandels haben solche Kontroversen benutzt, um zu behaupten, die zentralen Punkte seien noch nicht Teil eines wissenschaftlichen Konsenses und in beiden Fällen wurden Außenseiterstimmen, die es nun einmal immer gibt, genutzt, um zu behaupten, die Wissenschaftler seien sich nicht einig.
4. Übertreibe mögliche Schäden.
Gemeint sind damit in der Kampagne gegen Impfungen die Impfschäden, die man aber nun einmal ins Verhältnis zu den viel größeren Schäden der Infektionskrankheit setzen muß, zum anderen im Fall des Klimawandels die Kosten von Maßnahmen zur Senkung von Emissionen von Treibhausgasen, die man ins Verhältnis zu den viel größeren Kosten der Schäden durch den Klimawandel setzen muß.
5. Appelliere an die persönliche Freiheit
Impfungen funktionieren am besten dann, wenn ein bestimmter Durchimpfungsgrad der Bevölkerung erreicht wird, sonst werden Kranheitsüberträger die Infektion weiter am Leben erhalten. Daher gab es immer wieder auch Impfzwang oder eine starke Propagierung von Impfungen, wie etwa bei der weltweiten Ausrottung der Pocken durch einen weltweiten Impfzwang. Dagegen wurde allen Ernstes die persönliche Freiheit gesetzt, entscheiden zu dürfen, wie hirnlos man sich benehmen möchte (oder wie verantwortungslos Eltern mit dem Leben ihrer Kinder umgehen dürfen). Eine solche Berufung auf die persönliche Entscheidung, die Welt zu verschmutzen, wird gelegentlich als Argument gegen Klimaschutzmaßnahmen eingesetzt. Man findet das allerdings in einer besonders üblen Verschwörungstheorie wieder, wie sie zum Beispiel Vaclav Klaus, der tschechische Staatspräsident propagiert. Danach gebe es eine kommunistisch-grüne Weltverschwörung, die Weltwirtschaft zu sozialisieren unter dem Deckmantel des Klimaschutzes, und so alle privaten Freiheiten durch eine Weltdiktatur zu ersticken. Das ist zwar unglaublich schwachsinnig, wird von dem paranoiden Tschechen und vielen Parteigängern aber im Brustton der Überzeugung, man müsse die Welt retten, penetrant abgesondert.
6. Die Anerkennung der Theorie widerspricht einfach zentralen Überzeugungen.
Im Falle der Impftheorie wurde zum Schluß nach dem Scheitern aller anderen Argumente erklärt, die Impfung widerspreche der sogenannten Grundvoraussetzung der Chiropraktik. Letztlich zog man sich also auf reine Glaubenssätze zurück und über Glauben läßt sich nicht argumentieren, nur streiten. Dieser Punkt droht uns im Fall der Auseinandersetzung um die Klimaforschung, wenn die Faktenlage zu überwältigend wird, weil die Temperaturdaten bald wieder gegen alle Behauptungen der Klimawandelleugner nach oben gehen werden, weil der Meeresspiegelanstieg sich weiter beschleunigt und weil die arktische Verstärkung wohl bald unübersehbare Wirkungen zeigen wird. Schon jetzt erlebt man das Vorbringen geradezu religiöser Punkte: es könne keinen menschenverursachten Klimawandel geben, weil die Sonne den dominanten Einfluß auf das Erdklima haben müsse und weil es nur natürliche Zyklen gebe.
Es ist interessant, daß man ähnliche Strategien bei der Bekämpfung wissenschaftlicher Erkenntnisse immer wieder findet. Das gilt für den Widerstand der Chiropraktiker gegen die Theorie der Impfung, das gilt für die Leugner der Evolution, das gilt für die Leugner der Gefahren des Rauchens, das gilt für die Leugner des menschengemachten Klimawandels. Die Strategien ähneln sich und es entwickeln sich sogar Bündnisse oder Überschneidungen in Personen, wie etwa zwischen Evolutions- und Impfgegnern oder zwischen Klimawandelleugnern und Leugnern der Gefahren des Rauchens oder Evolutionsgegnern und Klimawandelleugnern.
Dagegen hilft nur, diese Strategien transparent zu machen.
Freitag, 19. Dezember 2008
Die Arroganz des Journalisten
Weil aber nun dieses Jahr vergleichsweise wenig warm ist (kühl ist das falsche Wort für ein Jahr, dessen Temperatur zu keiner Zeit vor 1997 übertroffen wurde, seit es Wetteraufzeichnungen gibt), gibt es naturgemäß denen Auftrieb, die von der wissenschaftlichen Arbeit zum Klima wenig halten und ihre Verschwörungstheorie von der angeblich erfundenen anthropogenen Klimaerwärmung pflegen. Einige inzwischen von diesen Verschwörungstheorien lang genug geplagte Wissenschaftler sehen dieses voraus, und geben den Journalisten eingedenk aller schlechten Erfahrungen Sprachregelungen auf den Weg. Das ist ein hoffnungsloses Unetrfangen und davon handelt dieser Beitrag.
Mein Beispiel ist dieser Kommentar in der FAZ vom Ressortleiter für den Wissenschaftsteil Joachim Müller-Jung, den er zu allem Unglück auch in seinem Blog weiter erläutert hatte, damit man jede Unschuldsvermutung verliert. Es gibt so einiges in dem Artikel, das einem den Magen umdrehen kann. Und das frappierende ist, daß der Artikel von korrekten Fakten ausgeht, daß der Autor, ein Biologe, durchaus sich auch Quellen angesehen hatte, deren Inhalte ihn von falschen Schlüssen hätten abhalten können, doch hatte es nichts genutzt. Vielleicht gab Müller-Jung die Tatsache, daß Gavin Schmidt einen alten Fehler gemacht hatte, das Jahrtausend mit dem Jahr 2000 anfangen zu lassen, ein falsches Gefühl der Sicherheit, auf Augenhöhe kritisieren zu können. Genau da aber stellt sich der Biologe, der selbst keine Erfahrung als Wissenschaftler hat, selbst ein Bein. Im wesentlichen sind es folgende Fehler, auf die der Autor aufläuft.
Da ist zunächst mal der Satz aus seinem Blog: „Allerdings muss sich der Potsdamer Klimadeuter auch den Hinweis gefallen lassen, dass die - bei aller Variation - erkennbare Stagnation in den vergangenen acht Jahren dem in langen statistischen Reihen vom IPCC ermittelten Erwärmungstrend von 0,2 Grad pro Jahrzehnt nicht mehr folgt.“ Hier stecken gleich zwei grundsätzliche Fehler drin. Zum einen haben die Modelle, die für den letzten IPCC-Bericht verwendet wurden, niemals einen aktuellen Erwärmungstrend von 0,2 Grad pro Jahrzehnt berechnet. Vielmehr sagen die Modelle abhängig von den verschiedenen Szenarien verschiedene Temperaturverläufe vorher, die am Ende des Jahrhunderts zu einer bestimmten Temperaturspanne führen. Auf dem Weg dahin machen die Modelle Temperaturschwankungen um den langfristigen Trend mit. Diese Schwankungen sind nur im statistischen Sinne korrekt. Man kann also am Ende des Jahrhunderts sagen, daß dann im Mittel die Temperatur um 0,15 bis 0,4 Grad je Jahrzehnt gestiegen ist. Dazwischen können aber einzelne Jahrzehnte liegen, in denen die Temepratur gar nicht oder viel schneller gestiegen ist. Dies ist schon hier erläutert worden. Der zweite Fehler ist der Schluß, wenn in einer Reihe von 8 Jahren das letzte Jahr eine niedrigere Temperatur als das erste Jahr zeigt, daß dann die Temperatur stagniert sei oder sogar gefallen. Da aber die Jahre um einen Trend herum variieren, kann man erst nach einer statistisch signifikanten Stichprobe von Jahren Aussagen zum Trend machen. Wir wissen, daß man dazu mehr als 8 Jahr braucht. Ab 15 Jahre kann man es versuchen, aber eigentlich sinnvoll wird es erst bei mindestens 20 Jahren und bei 30 Jahren ist der Trend sicher statistisch signifikant.
Der dritte Fehler steckt in der Darstellung einer Klimawette von Rahmstorf, die man sowohl im Kommentar als auch im Blog findet. Das wird erschöpfend bei Georg Hoffmann in seinem Primaklima-Blog erläutert, daher schreibe ich nichts weiter dazu. Hintergrund des ganzen ist die Temperaturprognose aus einem Modell des Forschungszentrums Geomar in Kiel, zu dem ich hier etwas geschrieben hatte.
Ein weiterer Fehler steckt aber darin, daß Müller-Jung die Natur der Modelle, die er vergleicht, verkennt. Dahinter steckt das grundsätzliche Unverständnis über den Unterschied zwischen Klima und Wetter. Klima ist die statistische Zusammenfassung der vielen möglichen Wetterereignisse. Man findet dies durch die Mittelung von Wetter über lange Zeiträume. Bei den Modellen findet man diesen Unterschied ebenfalls. Die Modelle, die für die IPCC-Projektionen verwendet werden, sind Klimamodelle. Sie sollen etwas dazu sagen, wie sich das Klima ändert in Abhängigkeit von gewählten Randbedingungen. Das sind Aussagen, die man auch für ein Jahrhundert sinnvoll treffen kann. Das Wetter ist eine einzelne Realisierung des statistischen Mittels, das vom Klima dargestellt wird. Wetter kann man vorhersagen, indem man einen möglichst genau ermittelten Anfangszustand weiterentwickelt, bis er irgendwann durch die chaotischen Anteile in unvorhersagbare Zustände hineinläuft. Das Modell des Geomar-Forschungszentrums in Kiel versucht im Gegensatz zu den IPCC-Modellen eine langfristige Wettervorhersage. Die Abweichungen zwischen dem IPCC und diesem Modell rühren also nur daher, daß das IPCC Mittelwerte für sehr verschiedene Einzelrealisierungen der verwendeten Modelle angibt. Man kann also nicht etwa behaupten, daß das Geomar-Modell besser wäre. Es hat sogar, wenn man sich die Originalpublikation anschaut, eine eher schwache Prognosegüte. Kein Wunder, daß Rahmstorf eine Wette gegen die Interpretation der Modellergebnisse durch Latif und seine Kollegen anbietet. Eine Wettervorhersage über 30 Jahre ist einfach noch verfrüht. Dies grundsätzliche Unterschied zwischen Klimaprojektion und Wettervorhersage ist dem Biologen Müller-Jung nicht klar, obwohl er bei Real Climate durchaus die Erläuterungen zu den unterschiedlichen Realisierung der einzelnen Klimamodelle gesehen hatte.
Wenn man tiefer schürft, kommt man auf das Grundproblem, die typische Arroganz des Journalisten, die durchaus Verwandtschaft hat mit der Arroganz des Richters und der Arroganz des Arztes – sie alle sind dabei Opfer ihres Berufes. Der Journalist hat den Beruf, eine Vielzahl von Informationen und Pressemitteilungen zu verwerten, um zusammengefaßte Information unterhaltsam an seine Leser zu vermitteln. Damit verdient er sein Geld. Dies geschieht normalerweise unter großem Zeitdruck, der dazu zwingt, sich genau zu überlegen, ob man eine Pressemitteilung so nimmt, wie sie kommt, oder die Zeit investiert, sich noch weitere Expertenmeinungen einzuholen und sich mehr Wissen dazu anzulesen.
So hat der Journalist zwar viele Informationen, aber nicht den Hintergrund, um diese zu interpretieren und richtig zu werten. Er hat die Illusion breiten Wissens, obwohl es zu oberflächlich ist, um angewendet werden zu können. Und diese Illusion läßt den Journalisten unter Umständen glauben, er sei mit den Experten auf Augenhöhe. Das führt dann dazu, daß der Journalist eben nicht mehr nur der Bote ist, der die Nachricht dem Leser bringt, sondern gleich auch diese Nachricht selbst interpretieren will. Und kein Gefühl dafür hat, wie wenig ihn dazu befähigt. Kein Wunder, daß Wissenschaftler, die schon ihre Erfahrung mit den Medien gemacht haben, Journalisten gerne vor Fehlinterpretationen bewahren möchten, und gleich versuchen, Sprachregelungen mitzuliefern. Leider fühlen sich Journalisten dadurch gegängelt, umso mehr, je erfahrener sie sind und je stärker sich die Illusion der Kompetenz aus der Vielzahl unverdauter und oberflächlicher Informationen entwickelt hat.
Und diesen Trotz gegen die gefühlte Gängelung und die entwickelte Arroganz, schon selbst die Informationen interpretieren zu können, merkt man Müller-Jung in dem ersten Satz seines Blogbeitrags deutlich an, wenn er schreibt:
„Mit der aktuellen Klimabilanz des Jahres 2008, (...) steigt offenbar wieder die Sorge bei den Klimatologen, die Journaille könnte das Ergebnis (wieder einmal) fehlinterpretieren.“ Genau diese Sorge hat er erfüllt.
Dienstag, 16. Dezember 2008
Beschleunigt sich der Klimawandel?
Worüber man disputieren kann, sind andere Fragen. Sind wir bereits über bestimmte Instabilitätspunkte hinweg (tipping points), an denen unumkehrbare Veränderungen geschehen? Offensichtlich ist bei der Meereisbedeckung in der Arktis so ein Punkt überschritten worden, bei dem es nun eine Verstärkung der Klimaerwärmung in polaren Breiten gibt, weil nun im Sommer Teile des arktischen Meeres eisfrei sind. Das jedenfalls erklären Wissenschaftler des National Snow and Ice Data Center (NSIDC) in den USA nach einer Meldung im "Independent". Es gibt weitere solche Instabilitätspunkte, wie etwa Instabilität der Eisschilde, Veränderungen von Klimazonen usw. Man kann auch diskutieren über das Ausmaß, in dem bisherige Modellprojektionen bestätigt wurden. Vergangene Modellerfolge sagen nur begrenzt etwas aus über die zukünftige Übereinstimmung von Projektionen und Ergebnissen, ein weiterer Diskussionspunkt. Oder man kann darüber reden, ob wir bereits aus den Daten ablesen können, daß sich der Klimawandel beschleunigt.
Das ist kein einfacher Punkt, denn man braucht eine gewisse Menge an Daten, um überhaupt einen klimatologischen Trend zu erkennen und viel, viel mehr Daten, um eine Serie von Trends zu haben, bei denen man dann nach einer Veränderung schauen kann, sozusagen einen Trend der Trends. Das einfachste ist das, was man im IPCC-FAQ sehen kann: es zeigt den Temperaturtrend über 150, 100, 50 und 25 Jahre und findet, wenig überraschend, daß diese Trends um so steiler sind, je näher der Startpunkt zur Gegenwart liegt. Das ist ein primitives Maß für eine Beschleunigung der Klimaänderung, aber unbefriedigend, denn wir mischen den Zeitraum, in dem menschliche Einflüsse überwiegen (geschätzt so ab Ende der 60er Jahre) mehr oder weniger mit Zeiträumen, von denen wir denken, daß sie von natürlicher Variabilität geprägt waren (aufgrund von Vulkanausbrüchen und Änderungen der Sonneneinstrahlung vor allem). Wenn man mehr oder weniger Zeitanteile ohne Trend zumischt, variiert natürlich der insgesamt bestimmte Trend, aber man erfährt nicht wirklich etwas darüber, ob der Trend jetzt sich verändert.
Geübte Statistiker (ich bin keiner) haben verschiedene Möglichkeiten, zu berechnen, ob ein vorliegender Trend im Rahmen des Fehlers wirklich linear ist oder ein anderes Modell (z.B. ein exponentieller Anstieg) besser passt. Ich könnte zwar eine entsprechende Anpassung an die Daten vornehmen, aber die Gefahr ist groß, daß ich dabei Fehler mache, denn ich müsste berücksichtigen, daß die Daten ein Gedächtnis haben (die Meerestemperaturen ändern sich träge), also autokorreliert sind, und die Fehler auf den Daten wären zu berücksichtigen. Man kann sich das Leben erleichtern, indem man von vornherein robuste Statistiken wählt, die weniger empfindlich für Fehler in den Daten sind, die dann aber auch nur grobe Aussagen erlauben.
Zunächst mal habe ich mir die Mittelwerte für Dekaden angeschaut, wobei die letzte Dekade noch nicht vollständig ist. Der Mittelwert der Temperaturanomalien für die 70er, 80er, 90er und 2000er Jahre (beginnend 1971-1980 usw.) aufgrund der HadCruT3-Jahresmittel der globalen Temperatur ist -0,06; 0,10; 0,23; 0,44. Daraus lässt sich nur ablesen, daß wir einen robusten Anstieg der Temperatur haben, wobei der Schritt von den 90er zu den 2000er Jahren der größte ist mit 0,21 Grad. (Wenn die Jahre 2008 und 2009 hinzukommen, kann sich das noch ändern- das relativ kalte Jahr 2008 könnte den letzten Mittelwert bis ca. 0,42 herunterziehen, womit der letzte Schritt immer noch bei 0,19 Grad über den anderen liegt. 2009 wird aber ohne einen La Nina-Einfluß wohl eher wieder wärmer werden.)
Da die Zeit, in der wir Temperaturänderungen vor allem durch den gesteigerten Treibhauseffekt annehmen, nur seit Ende der 60er Jahre reicht und vorher eine Dominanz natürlicher Einflüsse nicht ausschließen können, haben wir kaum mehr als 40 Jahre zur Verfügung. Wir brauchen aber mindestens 20, besser 30 Jahre, um sinnvoll eine lineare Regression zu rechnen und eine Steigung, also einen Trend zu bestimmen, der statistisch signifikant ist. Also müssen wir überlappende Zeiträume berechnen. Z.B. die Trends für 1969-1988; 1979-1998 und 1988-2007. Dabei erhalte ich als Steigungen 0,0125; 0,0141 und 0,0198. (Nehme ich 2008 hinzu und lasse die letzte Regression bei 1989 anfangen, komme ich bei mindestens 0,0180 an – ein Maß für den relativ großen Fehler in der Steigung, aber keine Änderung des Trends in den drei Werten.) Diese Trends sind statistisch signifikant. Und man erkennt, daß diese Steigungen selbst einen Trend haben – sie werden steiler. In dem betrachteten Zeitraum wuchsen die Temperaturänderungen je Jahrzehnt von 0,125 über 0,141 auf 0,198 Grad an. Extrapoliere ich auf 1999-2018, erwarte ich einen Wert bei oder über 0,2. Die Frage ist aber, ob ich extrapolieren darf. Die Steigerung des Trends ist offensichtlich nicht linear, und für die Zukunft bleiben daher alle Möglichkeiten offen – daß 1988-2007 ein Ausreißer nach oben war (nehme ich 2008 mit, erhalte ich ja eine flachere Steigung), daß der Trend nicht nur steigt, sondern beschleunigt steigt oder daß er sich auf einem höheren Niveau stabilisiert. Daher keine weiteren Spekulationen – robust ist nur die Feststellung, daß sich die globale Erwärmung, seit wir sie als einen signifikanten Trend wahrnehmen, beschleunigt hat, von 0,125 Grad je Dekade auf fast 0,2 Grad je Jahrzehnt (und über 0,18 Grad, wenn wir das relativ kühle Jahr 2008 berücksichtigen). Das allein ist bereits eine schlechte Nachricht.
Sonntag, 14. Dezember 2008
Extremwertstatistik, Klimawandel und Versicherungen
Gleich im Eingangsartikel geht es zur Sache, wenn G.Berz von der Münchener Rückersicherung Zahlen nennt. Danach waren von 17000 Naturkatastrophen von 1980 bis 2007 85% in irgendeiner Form meteorologisch bedingt. Das ist genau die Kategorie, die im Falle eines Klimawandels weitere Veränderungen zeigen sollte. Nun ist es sicher spekulativ, ob und in welcher Weise in der Zukunft mit mehr Sturmereignissen zu rechnen ist, weil dies von der Art, Stärke und Region der Stürme abhängt, und es hier eine offene Diskussion der Experten gibt. Unstrittig ist aber, daß die Lufttemperatur steigen wird und davon andere Faktoren betroffen sein werden, etwa das Wasserangebot und die Feuchte oder die Verbreitung wärmeliebender Krankheitserreger. Ein Beispiel war dabei der Jahrhundertsommer 2003, in dessen Folge Lehmböden in England austrockneten, was zu Bodensenkungen und dadurch zu Gebäudeschäden führte. Ein teurer Spaß für die Betroffenen und die Versicherer, und für mich eine überraschende Folge eines solchen Sommers. Von Berz nicht erwähnt, aber für mich eher bekannt ist, daß im aktuellen bayrischen Waldschadensbericht hervorgehoben wird, daß es immer noch kranke Bäume als Folge der Trockenheit im Jahrhundertsommer 2003 gibt.
Was aber nun als Jahrhundertsommer gilt, ist eine Frage der Statistik, und die ändert sich. Steigt die mittlere Temperatur, verschiebt sich auch die Verteilung der Temperaturen mit, die es in einem bestimmten Zeitraum geben kann. Und dabei sind die Veränderungen an den Rändern viel stärker als im Zentrum der Verteilung (das Thema der Extremwertstatistik hatte ich hier schon mit erwähnt). Steigt die Mitteltemperatur um harmlos klingende 1,6 Grad, so steigt die Wahrscheinlichkeit eines Sommers wie 2003 von 1,3% auf 33,3%, wie im Rahmen der Studie Climate Change Impacts 2004 für England bestimmt wurde. Auch wenn die Zahlen für Deutschland etwas andere sind, das Prinzip ist das gleiche. Aus einem Jahrhundertsommer wird ein Ereignis, das alle 3 Jahre auftritt. Und da nach Extremereignissen Lebewesen den Hitze- oder Trockenheitsstreß eine Weile im Gedächtnis behalten, kann eine kürzere Folge von Extremereignissen eine aufschaukelnde Wirkung haben. Ein „Jahrhundertsommer“ alle 3 Jahre ist zu kurz, damit sich hitzegeplagte Bäume wieder erholen können. Das Ende der Fichte ist daher zum Beispiel in den meisten Regionen Deutschlands vorgezeichnet.
Versicherungen bewerten nicht nur, daß mit dem Anstieg des Mittelwertes der obere Rand der Verteilung überproportional stark anwächst, sie bewerten auch, daß sich Verteilungen von Ereignissen in der Form ändern können. Wird die Verteilung breiter, gibt es in besonders starkem Maße auch mehr Extremereignisse, wie Dürren, Hitzewellen oder Überschwemmungen. Die Frage ist, werden Verteilungen für Wetterereignisse durch den Klimawandel breiter? Das ist nicht sicher, aber möglich. Das liegt daran, daß einerseits die Temperatur der Luft und an Land durch den Treibhauseffekt ein starken Erwärmungstrend zeigt. Diese Erwärmung muß in die Ozeane hineinwandern, was eine gewisse Zeit braucht. Damit steigt der Temperaturgradient, der Temperaturanstieg zwischen tiefen und flachen Meeresschichten. Dies kann dazu führen, daß die Temperaturvariabilität zwischen Phasen stärkeren und schwächeren Wärmetransports in die Meere größer wird. Und so die Verteilung der Temperaturen und der daran gekoppelten Wetterereignisse breiter wird.
Im gleichen Heft beschäftigt sich auch Prof. Schönwiese von der Uni Frankfurt mit dem Thema der Extremwertstatistik. Am Beispiel der Temperaturen in Frankfurt zeigt er, daß zumindest diese Verteilung nur ihren Mittelwert im Rahmen des Klimawandels bisher verschoben hat. Beim Niederschlag hingegen sieht es komplizierter aus. Starke Veränderungen konnten an der Station Eppenrod bei Limburg nur in bestimmten Monaten festgestellt werden. Dann aber vor allem hin zu einer breiteren Verteilung. Sowohl Tage mit geringen als mit sehr hohen Niederschlägen treten im Laufe der letzten 100 Jahre in den Wintermonaten immer stärker auf, während sich am Sommerniederschlag wenig geändert hatte. Das verdeutlicht, daß der Niederschlag eine Größe ist, bei der man sehr stark differenzieren muß, wenn man Aussagen zu den Folgen des Klimawandels machen will.
Die Extremwertstatistik ist ein Schlüssel, um zu verstehen, welche Folgen der Klimawandel mit sich bringt.
Freitag, 21. November 2008
Der Boden als CO2-Quelle - neue Ergebnisse zu schwarzem Kohlenstoff
Es gibt weitere wichtige CO2-Quellen und –Senken im Boden. Pflanzen und Tiere, die sterben, werden verwertet oder verrotten am Boden. Ein Teil dieses organischen Materials geht in den Boden und bildet dort zum Beispiel Humus. Die organischen Bestandteile in diesem Mutterboden werden von Kleinstorganismen zersetzt und geben dabei wieder CO2 ab. In Sumpfgebieten und Mooren kann diese Zersetzung unter Luftabschluß erfolgen und es wird statt CO2 eher Methan (CH4) freigesetzt. Methan hat je nach betrachteter Zeitskala einen ca. 21mal stärkeren Treibhauseffekt als CO2 (bei einer Zeitskala von 100 Jahren).
Eine weitere Kohlenstoffquelle sind Waldbrände. Sie hinterlassen vor allem Holzkohle. Das ist im wesentlichen Ruß, gering verunreinigter Kohlenstoff, im englischen black carbon genannt. Dieser Kohlenstoff ist für Kleinstlebewesen schwerer zu verwerten. Statt innerhalb von wenigen Jahren wird hier der Kohlenstoff innerhalb von ein oder zwei Jahrtausenden wieder als CO2 freigesetzt bzw. in den biologischen Zyklus eingebracht. Man kann sich vorstellen, daß es einen großen Unterschied für die Kohlenstoffbilanz macht, wie viel organisches Material zu humusartigen Bestandteilen umgesetzt wird und wie viel zu schwarzem Kohlenstoff. Leider weiß man es nicht.
Steigende Temperaturen führen zu einer positiven Rückkopplung, weil der mikrobiologische Abbau von organischen Substanzen deutlich beschleunigt wird. Außerdem tauen Permafrostböden in der Tundra Sibiriens und Kanadas auf, die zu sumpfigem Gelände werden, das in starkem Maße Methan freisetzt. Die Prozesse, die jeweils dahinter stehen, sind stark abhängig von der sehr unterschiedlichen Zusammensetzung der Böden und hochgradig nicht-linear. Eine Horrorvision für Modellierer, die die Rückkopplung der globalen Temperaturänderungen mit ihren Bodenmodellen berücksichtigen wollen. In der Vergangenheit erzeugten voll gekoppelte Modelle, bei denen Kohlenstoffemissionen aus sich erwärmenden Böden berücksichtigt wurden und selbst zu weiterer Erwärmung beitragen konnten, für CO2-Mischungsverhältnisse um 2100 von gut 600 ppm oder weit über 1000 ppm im Standardlauf je nach Modell und Annahmen. Der potentielle Effekt ist gewaltig, aber der tatsächliche Effekt unbekannt. Seitdem wurden nach Meinung der Forscher die Unsicherheiten eingegrenzt. In den IPCC-Modellen wird diese Rückkopplung erst in der neuesten Generation voll berücksichtigt und ist damit in dem neuesten IPCC-Berichten von 2007 integriert.
In einer neuen Publikation haben Johannes Lehmann und seine Mitarbeiter dargelegt, daß sie den Anteil von schwarzem Kohlenstoff in den Böden für unterschätzt halten. Nach ihren Modellrechnungen müssten die Projektionen von CO2-Abgaben aus den Böden bei einer Temperatursteigerung um 3 Grad um ca. 20 Prozent gesenkt werden, wenn Messungen aus Australien zum Gehalt an schwarzem Kohlenstoff global übertragen werden könnten. Nun ist gerade in Australien aufgrund der dort vorkommenden Busch- und Waldbrände ein relativ hoher Gehalt an schwarzem Kohlenstoff zu erwarten. Deshalb verdeutlicht die Arbeit Lehmanns eigentlich nur den hohen Forschungsbedarf. Er selbst weist darauf hin, daß der Vergleich von Messungen und Modellrechnungen derzeit eher andeutet, daß wir nach Quellen für weitere Kohlenstoffemissionen suchen müssten und seine Rechnungen, die die Kohlenstoffquellen in die Atmosphäre verringern, den vorhandenen Fehler noch vergrößern.
Interessanterweise ist schwarzer Kohlenstoff auch eine der Möglichkeiten, Kohlenstoff im Boden zu binden und eine Möglichkeit des Geoengineerings. Man würde hier Pflanzen unter verminderter Luftzufuhr teilweise verbrennen und verkohlen und als Biochar in die Böden geben. In einigen Jahren könnte dies eine ökonomisch sinnvolle Maßnahme sein, CO2-Bilanzen zu verbessern. Lehmann gehört zu den Forschern, die an solchen Lösungen arbeiten.
Sonntag, 16. November 2008
Klimasensitivität - die Wasser-Temperatur-Rückkopplung
Von ganz besonderer Bedeutung ist dabei die Temperatur-Wasser-Rückkopplung. Ihre Größe und ihr Vorzeichen macht letztlich den Unterschied aus zwischen Szenarien, bei denen der der Anstieg der Treibhausgasemissionen zu einer deutlichen globalen Erwärmung mit allen diskutierten Folgen führt und solchen, bei denen die Klimaänderung sich in kontrollierbaren Grenzen hält. Die Möglichkeit, daß eine steigende Temperatur auf geheimnisvolle Weise dazu führt, daß letztlich weniger Wasser in der Atmosphäre ist oder die Wolken sich so ändern, daß sie mehr Sonnenlicht reflektieren war seit langem die einzige wissenschaftlich begründbare Position, den Grundaussagen des IPCC skeptisch gegenüber zu stehen.
Diese Position hatte ich bereits als die Iris-Hypothese von Lindzen erwähnt. Kurz zusammengefaßt behaupten Lindzen und einige wenige andere Wissenschaftler dabei, daß über warmen Meeresflächen die hohen Cirruswolken ausgedünnt werden und dadurch mehr Wärme in das Weltall abgestrahlt werden kann, wodurch die Erde gekühlt wird. Das wäre eine negative Rückkopplung.
Diese Behauptung wurde bereits wiederlegt – sie stimmt mit Messungen nicht überein. Darüber hinaus wurde bereits in anderen Arbeiten und Modellrechnung wiederholt bestätigt, daß eine Erwärmung der Erde dazu führt, daß die Luft eher mehr Wasser halten kann und dadurch Wasser als zusätzliches Treibhausgas den Treibhauseffekt anderer Treibhausgase verstärkt – entsprechende Literaturstellen findet man in den IPCC-Berichten an gegebener Stelle.
Wem alle diese Nachweise und Diskussionen noch zu abstrakt waren, für den sollte eine Veröffentlichung alles klar machen, die letzten Monat herauskam. Hier wurde eine starke Temperatur-Wasser-Rückkopplung auf der Basis einer Auswertung von Satellitenmessungen nachgewiesen, die im Einklang mit Untersuchungen vergangener Klimaänderungen und mit den Modellergebnissen steht. Dessler, Zhang und Yang haben in einer sehr knapp und präzise formulierten Arbeit, die kürzlich in den Geophysical Research Letters publiziert wurde, aus Satellitendaten abgeleitet, wie stark die Temperatur-Wasser-Rückkopplung ist (über den Link ist leider nur die Zusammenfassung des Artikels frei verfügbar - den Artikel selbst erhält man hier). Gemessen wurden dabei verschiedene Größen, wie Temperatur und Feuchtegehalt der Atmosphäre. Sie fanden einen relativ hohen Wert von 2,04 W/m2/K heraus. Das heißt, je 1 Grad Klimaerwärmung steigt der Wassergehalt der Atmosphäre derart, daß der Treibhauseffekt einen zusätzlichen Antrieb von 2,04 W/m2 erhält, entsprechend einer weiteren Verdopplung der CO2-Konzentration. Damit ist aufgrund von Messungen bestätigt, daß zusammen mit anderen bereits bekannten positiven Rückkopplungen dafür eine Verdopplung von CO2 zu einer Temperaturerhöhung von nunmehr mindestens 3 Grad führt, möglicherweise auch mehr. Zusammen mit der höher als erwarteten Emissionsentwicklung heißt das, daß von den IPCC-Szenarien derzeit eher die pessimistischen zutreffen werden oder diese sogar noch übertroffen werden. Es gibt derzeit in der Fachliteratur einen Trend, und der deutet darauf hin, daß die Aussagen des IPCC eine wirkliche konservative Abschätzung der anstehenden Probleme darstellen - konservativ in dem Sinne, daß eher eine untere Grenze der Klimaänderungen und Klimafolgen dargestellt wird. Eine weitere Diskussion zu diesem Thema findet man auch hier.
Todeszonen in den Ozeanen als Folge des Klimawandels
Es lag bisher schon der Verdacht nahe, daß der Klimawandel zu einer Ausdehnung der Todeszonen führen könnte - warmes Wasser neigt dazu, weniger Sauerstoff zu enthalten und das wird verstärkt durch eine höhere biologische Aktivität, die den Sauerstoff aufzehrt. Die Versauerung der Meere durch immer mehr gelöstes Kohlendioxid kann dazu führen, daß manche Arten, etwa Schalentiere, absterben und dadurch die Belastung der Ozeane mit totem, Sauerstoff verbrauchendem Material erhöhen. CO2 hat aber auch einen Düngeeffekt. Düngeeffekte sind anders als landläufig angenommen, nicht per se günstig. Überdüngung ist genau eine der Ursachen für ein Umkippen von Gewässern, in denen nach einer Blüte von Algen und anderen Lebewesen absterbendes Material den vorhandenen Sauerstoff aufbraucht. Genau eine solche Überdüngung durch das verfrachtete organische Material und mitgeschleppte Waschmittel und Dünger aus den einmündenden Flüssen, wie dem Mississippi, ist zum Beispiel die Ursache für die Todeszone im Golf von Mexiko. Hier kommen aber auch besondere Strömungsverhältnisse dazu. Würde diese Todeszone sich soweit ausdehnen, daß sie den Golfstrom beeinflussen könnte, hätte das sicher gravierende Folgen.
CO2 hat selbst aber auch einen Düngeeffekt, denn auch ein Zunahem des CO2-Gehalts im Wasser kann das Algenwachstum anregen. Absterbende Algen verbrauchen dann in den tieferen Meeresschichten (einige 100 Meter Tiefe) den Sauerstoff. Eine neue Studie unter der Federführung von Kieler Forschern des Leibniz-Instituts für Meereswissenschaften (IFM-GEOMAR) belegt mit Hilfe eines Modells, das atmosphärische, marine und biologische Abläufe verknüpft, wie zum Beispiel Nahrungsangebot, Algenblüte und Sauerstoffverbrauch, daß durch die erhöhte CO2-Menge in den Ozeanen die Todeszonen sich in den nächsten Jahrzehnten erheblich ausdehnen werden. Eine Gruppe um Prof. Andreas Oschlies bezifferte die Ausbreitung tropischer Todeszonen bis zum Ende des Jahrhunderts um 50%. Angesichts vieler Unsicherheiten ist eine solche Zahl eher als eine Hausnummer zu verstehen, die uns die Größenordnung angibt. Die Entwicklung solcher Todeszonen kann sich durch Rückkopplungseffekte verstärken und vielleicht schwächer, vielleicht auch stärker ausfallen, und letzteres in Kombination mit Veränderungen an Land könnte zu einer massiven Nahrungsmittelknappheit im Lauf des Jahrhunderts beitragen.
ERGÄNZUNG: Diese Sicht auf sich ausdehnende Todeszonen wirkt allerdings noch konservativ gegenüber Ansichten, die der Ozeanograph Jeremy Jackson vom SCRIPPS Institut für Ozeanographie vertritt. In einer eigenen Veröffentlichung sieht er die Möglichkeit eines durch solche Todeszonen in naher Zukunft verursachten Massenaussterbens von Arten in den Ozeanen.
Eine weitere Gefahr liegt darin, daß die Düngung von Meeresgebieten mit Eisen als eine der Maßnahmen gehandelt wird, die vielleicht zur Verringerung der CO2-Menge in der Atmosphäre beitragen könnte. Die Düngung nährstoffarmer Meeresgebiete und die dadurch verursachte Algenblüte trägt auch nach Versuchen zunächst dazu bei, daß CO2 in den Algen gebunden wird. Sinken die abgestorbenen Algen in die Tiefsee ab, ist damit der Luft erst mal CO2 entzogen. Gleichzeitig ist aber die Gefahr gegeben, daß auch das zur Ausbreitung von Todeszonen in den Meeren beiträgt. Wie alle Maßnahmen des Geoengineerings kann auch diese dazu führt, daß es am Ende heißt: "Operation gelungen, Patient tot."
Sonntag, 26. Oktober 2008
Was können wir aus der Finanzkrise für den Klimawandel lernen?
Als in den 70er Jahren in den USA die Regelungen gesetzt wurden, daß Schuldenmachen fürs Eigenheim ohne Reue möglich wurde (d.h. man hat das Recht, wenn der Wert des Hauses unter den Kredit fällt, das Haus der Bank zur Verwertung zu geben und damit den Kredit abzulösen), konnte man wohl nicht ahnen, daß dieses eines Tages die USA in eine Kreditblase treiben wurde. Aber wenn in den letzten Jahren zunehmend davor gewarnt wurde, daß die Situation auf den Kreditmärkten und die Abhängigkeit von unendlich steigenden Hauspreisen nicht mehr gesund ist (übrigens nicht nur in den USA, auch z.B. in Spanien und im Vereinigten Königreich gab es Immobilienblasen), hätten die Profis zumindest ihre Abhängigkeit von solchen heißgelaufenen Märkten schrittweise reduzieren müssen. Wie quälend langsam solche Abhängigkeiten über weitergereichte Kredite an Instituten auch in Deutschland zugegeben wurden, zu Abschreibungen führten, bis dann das Vertrauen an den Märkten gründlich ruiniert war, war sicher ein zusätzlicher Antrieb für den Abschwung. Es wird jetzt auch von vielen Seiten genau das kritisch gesehen, was die US-Notenbank unter Alan Greenspan betrieben hatte: Abschwünge durch frühzeitige und massive Geldmengenausweitungen abzufedern. Das führte zwar zu einem lange anhaltenden Boom in den USA, von dem natürlich auch unsere Exportwirtschaft profitiert hatte (was gerade auch gerne vergessen wird), aber es nährte auch immer wieder neue Blasen und unterdrückte das, wozu eigentlich Krise in der Marktwirtschaft gut sind: den Markt von ineffizienten Strukturen zu reinigen, nicht krisenfeste Betriebe pleite gehen zu lassen, damit gesunde Betriebe mehr Raum erhalten. Das erinnert an die Maßnahmen in der Forstwirtschaft, Waldbrände in Gebieten zu unterdrücken, wo sie von Natur aus gelegentlich vorkommen. Irgendwann hat sich soviel altes und totes Holz angesammelt, daß der unvermeidlich doch einmal auftretende Waldbrand so viel Material hat, daß er nun nicht nur den Wald aufräumt, wie der natürliche kleine Waldbrand, sondern ihn richtiggehend vernichtet und zum ökologischen Problem wird. Das Problem jetzt sind nicht untergehende Zocker, die es übertrieben haben, sondern daß an sich gesunde Unternehmen in einer extremen Krise mitgezogen werden. Auch das, was jetzt Greenspan als Fehler angelastet wird, war aus der damaligen Sicht nicht unbedingt so vorherzusehen. Man kann hoffen, daß die Lehre für die Zukunft verstanden wird, daß man in der Marktwirtschaft kleine Krisen auch mal zulassen muß, damit unter den Teppich gekehrte Probleme nicht irgendwann so groß werden, daß gleich der ganze Teppich fliegen geht.
Es gibt noch mehr, was ich verzeihen möchte, auch wenn vielleicht sachkundigere Personen das anders sehen. Island hat vor Jahren darauf gesetzt, daß es sich als internationaler Finanzplatz etabliert. Darauf hin sind agressiv kreditgetriebene Banken gewachsen, deren Bilanzsumme mehr als eine Größenordnung über dem Bruttoinlandsprodukt des Staates liegt. Die Strategie schien mal sinnvoll, um Island neben dem Fischfang ein zukunftssicheres Standbein zu verschaffen als eine Art Liechtenstein des Nordens. Im Nachhinein ist man dann schlauer und versteht, daß hier der Staat seinen eigenen Bankrott ermöglichte, denn Island kann natürlich jetzt die Schulden seiner, inzwischen verstaatlichten, Banken nicht mehr abdecken. Dumm wurde dieser Fehler vielleicht bereits, als man bei den ersten Krisenzeichen nicht mal abschätzte, was eine Bankenpleite für das Land eigentlich bedeuten könnte. Noch dümmer wirkt es allerdings, wenn man nun erfährt, wie massiv gerade deutsche Banken an die isländischen Banken geliehen hatten. Ca. 16 Milliarden Euro deutscher Kredite könnten eventuell abzuschreiben sein (unter anderem war das der Grund, daß die Bayerische Landesbank nun um staatliche Hilfe nachsuchte). Das an zweiter Stelle betroffene Land ist das Vereinigte Königreich mit ca. 4 Milliarden Euro. Wie konnten deutsche Banken sich nur so massiv in Island engagieren, wenn die ausgereichten Kredite doch noch nicht mal von der Realwirtschaft des gesamten Landes Island abgedeckt wurden? Versuchen Sie mal, von Ihrer Bank einen Kredit für den Kauf von Aktien für ein Vielfaches Ihres Vermögens und Ihres Jahreseinkommens zu erhalten. Da wäre es völlig egal, ob in Ihrer Kalkulation der erwartete Kursanstieg der Aktien den Kreditzins locker bezahlen würde. Aber die isländischen Banken durften das. Und nun drohen diese faulen Kredite deutsche Institute genauso mitzureißen, wie vorher die faulen Hypothekenkredite in den USA, die aus irgendeinem Grund deutsche Landesbanken, aber auch andere Institute mit besonderer Vorliebe gekauft hatten. Wenn Island fällt, reißt das im Dominoprinzip ausländische Banken mit.
Und es geht nicht nur um Island. Deutschland war auch der größte Kreditgeber in anderen Ländern, in denen sich Blasen aufgebaut hatten, nämlich Großbritannien, Irland und Spanien. Und es gibt weitere Länder, die schon vor dem IWF Schlange stehen, um Unterstützung zu erhalten. Ungarn ist das nächste Krisenland. Derzeit wertet die ungarische Währung massiv ab. Der Grund: Ungarn hat sein Wachstum vorwiegend auf Pump finanziert. Der Staat ist hoch verschuldet und zwar im Ausland, weil die eigene Wirtschaft zu schwach ist. Hier stehen erhebliche Abwertungen vor, die die ausländischen Investoren in Ungarn massiv treffen werden. Und wer investierte besonders gern in Ungarn?
Ein weiterer kippender Dominostein könnte Russland sein, dem gerade gleichzeitig die ausländischen Investitionen ausgehen, dessen Oligarchen sich teilweise verzockt haben und wo der Hauptdevisenbringer, das Erdöl, durch die weltweite Rezession einen Preisverfall erlebt. Was ist, wenn hier die, zugegeben noch großen, Devisenreserven aufgebraucht sind? Erst recht die Ukraine sieht sich vor Probleme gestellt, denn hier fehlen zusätzlich die hohen Devisenreserven, die die Verluste abfedern könnten. Wie sieht es überhaupt mit den Schwellenländern aus, die unserer Exportwirtschaft eigentlich zu Wachstum verhelfen sollten, die in der globalen Rezession aber den Preisverfall ihrer Rohstoffe erleben und gleichzeitig den Abzug des Auslandskapitals durchmachen müssen? Die Schwellenländer sind am weitesten von der Ursache der Krise, der Häusermarktblase in den USA entfernt. Trotzdem wird die globale Rezession hier die härtesten Opfer verlangen. Und über unsere Exportwirtschaft kommt auch das am Ende wieder bei uns an.
Jedes Unternehmen, das seine Insolvenz anmeldet, jede Bank die untergeht, jedes Land, das seine Kredite nicht mehr bedienen kann, reißt andere, die es vielleicht noch geschafft hätten, doch noch mit in den Untergang. Das ist die eigentliche Brisanz der Finanzkrise. Es ist ein Dominoeffekt, der nur aufgehalten werden kann, wenn schnell an möglichst vielen Stellen Dominosteine fixiert werden. Deshalb muß staatliches Geld notfalls sogar an schlimme Zocker ausgereicht werden, damit diese nicht in ihrem Fall auch gesunde Unternehmen mitreißen, auch wenn einem das gegen das innere Gerechtigkeitsgefühl geht. Und je später reagiert wird, desto teurer wird es. Jetzt ist die Zeit für staatliche Konjunkturprogramme, die der Realwirtschaft signalisieren, daß die Kreditklemme nicht auch noch von einer lange anhaltenden Rezession begleitet werden wird. Und damit kommen wir zu den dümmsten Fehlern, die man machen kann. Der dümmste Fehler ist, abzuwarten, weil man erst noch besser verstehen will, was passiert. In der Zeit läuft einem die Krise davon. Ein weiterer dummer Fehler ist es, in der Krise zu konsolidieren. Wenn die Hütte brennt, fängt man nicht an, sie feuersicher umzubauen, sondern man löscht erst mal. Jetzt also weitet man Schulden aus, gibt billiges Geld, investiert mit Staatsgeldern in der Wirtschaft, macht also alles das, was in normalen Zeiten falsch ist und gar die Blase vorher produziert hatte, die jetzt platzt. Weil nämlich die Alternative noch schlimmer ist, nämlich die Depression, wie es sie nach 1929 schon einmal gab.
Was hat das alles jetzt mit dem Klimawandel zu tun?
Ich hatte schon vorher auf das Problem hingewiesen, daß auch der Klimawandel einen Dominoeffekt nach sich ziehen kann, sogar auf mehreren Ebenen. Wenn Australien aufgrund anhaltender Dürren sich nicht mehr mit Nahrung versorgen kann, kann eigentlich der Rest der Welt als Nahrungslieferant einspringen. Wenn China aufgrund einer Wüstenausbreitung und des Verlustes großer Teile seiner Böden zunehmend auf Nahrungsmittellieferungen angewiesen ist, kann die Welt das auch auffangen. Wenn aber durch den Klimawandel an vielen Orten gleichzeitig Nahrungsmittel knapp werden, dann fangen die Dominosteine an, umzukippen. Es ist nämlich davon auszugehen, daß dann, wenn die Auswirkungen in China dramatisch spürbar werden, sie aller Wahrscheinlichkeit nach zugleich auch z.B. Indien und Südostasien treffen werden. Das heimtückische an einer Welternährungskrise ist, daß sie zu einem nicht vorhersagbaren Zeitpunkt und sehr plötzlich kommen wird. Obwohl wir also jetzt wissen, daß eine Ernährungskrise möglich ist, sind wir nicht in der Lage zu sagen, wann es sein wird. Dadurch sind wir aber auch nicht in der Lage, die Krise durch die vorsorgende Anlage von Vorräten abzufedern. Von einem Jahr auf das andere könnte plötzlich eine zuvor ausreichend versorgte Bevölkerung von Milliarden eine Nahrungsmittelknappheit erleben und darauf panisch reagieren.
Was danach passieren könnte, dürfte einfach unsere Vorstellungskraft sprengen. Gibt es Kriege um Nahrung oder Wasser? Keine Ahnung. Gibt es eine Massenflucht aus den Krisengebieten? Keine Ahnung. Werden die Weltmärkte so leer gekauft werden, daß hierzulande eine Hyperinflation einsetzt? Ich weiß es nicht. Das Szenario ist einfach unvorhersagbar, niemand will es vorhersagen, aber deshalb wird es auch nicht möglich sein, sich darauf vorzubereiten. Sicher ist aber, daß Europa sich hier nicht abkoppeln kann. Über die Weltmärkte oder Kriege oder den massenhaften Ansturm von Hungerflüchtlingen wird Europa auch dann betroffen sein, wenn die Auswirkungen des Klimawandels hierzulande moderat sind.
Wenn wir etwas aus der Finanzkrise lernen wollen, dann sollte es folgendes sein:
- Man muß den schlimmsten Fall, der denkbar ist, in der Planung berücksichtigen, weil denkbare Fälle solche sind, die auch irgendwann eintreffen, weil wir in einer Welt leben, die nach und nach alle Situationen durchspielt, bis mal die kommt, bei der der schlimmste Fall eintreten kann. In diesem Fall heißt das, wir müssen eine Entwicklung berücksichtigen, bei der die Klimaänderung den dramatischsten Modellvorhersagen entspricht und die Folgewirkungen den schlimmsten Verlauf nehmen. Nicht, weil dies auch entfernt wahrscheinlich wäre, sondern deshalb, weil man es nicht absolut sicher ausschließen kann.
- Ein gewisses Wissen darüber, was passieren könnte, kann zu einem falschen Eindruck führen, daß man die Situation beherrscht. Bei den riskanten Papieren wusste man, daß sie riskant waren, aber weil man dieses Risiko bewertet hatte, glaubte man, es sei beherrschbar. Den Dominoeffekt eines Fälligwerdens aller Risiken zugleich hatte man aber als zu unwahrscheinlich nicht berücksichtigt. Alle Klimaprognosen, Klimaschutzprogramme und Bewertungen der Klimafolgen dürfen die Entscheidungsträger, die Politiker, nicht dazu verführen zu glauben, das Problem sei damit schon beherrscht.
- Man muß sich für zukünftige Risiken immer Risikopuffer schaffen. Die ersten Banken, die untergingen, waren die, die am stärksten auf hohen Profit getrimmt waren und mit der höchsten Kreditquote arbeiteten. Je mehr an Eigenkapital da ist, je mehr auch margenschwächeres Geschäft mit größerer Sicherheit zur Bank gehörte, desto sicherer standen die Banken da. Daß Deutschland trotz aller Fehler noch relativ stark dasteht, verdankt es der Tatsache, daß bei uns die Sparneigung groß ist, auch wenn dies immer zu Lasten unseres Wirtschaftswachstums ging. In der Klimapolitik heißt es, Vorsorgemaßnahmen für eine stärkere globale Temperaturerhöhung zu treffen, auch wenn dies erstmal hohe Kosten verursacht.
- Die Schwellen- und Entwicklungsländer wird es weit härter treffen als uns, aber das heißt nicht, daß es Deutschland gar nicht trifft. Indirekt wird die Klimakrise doch wieder über eine globale Depression, über Flüchtlinge und politische Krisen auf uns zurückkommen. Wir müssen also aus eigenem Interesse Klimaschutz in den Schwellen- und Entwicklungsländern betreiben.
- Man muß handeln, bevor die Krise eintritt und sogar, bevor jemand eine Krise für wahrscheinlich hält. Wir müssen jetzt die Emission von Treibhausgasen verhindern, nicht erst dann, wenn wir die Auswirkungen spüren. Dann ist es zu spät und wir würden der Krise hinterherlaufen. Je früher Maßnahmen getroffen werden, desto billiger sind sie, weil wir jetzt noch die Abläufe selbst steuern können. Wenn der Klimawandel voranschreitet und negative Klimafolgen eintreten, müssen wir Notmaßnahmen treffen und haben nicht mehr die Wahl, die besten Mittel auszuwählen. Bei einer solchen Krise sähe ich sogar unsere Verfassung in Gefahr, weil Politiker dann argumentieren würden, daß es um das nackte Überleben geht.
Die heutige Finanzkrise hat ihren Ursprung in einer politischen Entscheidung in der Carter-Ära vor 3 Jahrzehnten. In der Folgezeit sind viele Entscheidungen an verschiedenen Stellen erfolgt, die alle für sich genommen durchaus in ihrer jeweiligen Zeit sinnvoll erschienen. Im Zusammenwirken haben diese aber zusammen einen Ablauf aufgebaut, der innerhalb von einigen Monaten in eine Finanzkrise mit anschließender globaler Rezession führte bzw. noch führt, und nur dramatische Eingriffe aller Staaten, die vor wenigen Monaten noch als undenkbar galten, werden eine globale Depression abwenden, und auch das ist noch nicht völlig sicher. Wenn die Klimapolitik auf ihrem jetzigen Pfad weiterläuft, werden in 50, vielleicht auch schon 30 Jahren auch unaufschiebbar Notmaßnahmen eingeführt werden müssen, die uns jetzt noch undenkbar erscheinen. Daher müssen wir jetzt die nötigen Maßnahmen einführen, um den weiteren Anstieg der Treibhausgasemissionen in weniger als 10 Jahren zu beenden und dann rasch so weit zu senken, daß die Treibhausgaskonzentrationen nach 2030 nicht mehr steigen. Vielleicht ist es schon zu spät dafür, aber wir sollten es zumindest versucht haben.
Montag, 20. Oktober 2008
Neues zu CO2 und Temperaturentwicklung in den letzten 1000 Jahren
Sonntag, 19. Oktober 2008
Rezession für den Umweltschutz?
Weil also in den USA für das Eigenheim Schuldenmachen ohne Reue möglich ist (oder war – im Moment bekommt man nicht mehr so leicht einen Kredit), müssen nun weltweit Volkswirtschaften mit einer Rezession rechnen, bis die Banken wieder wissen, wem sie trauen und neu Geld leihen können. Das ist, sehr grob vereinfacht, unsere gegenwärtige Lage, und der Grund, warum die Staaten im Moment 100-Milliardenbürgschaften anbieten, damit diese selbstmörderische „Wer-kippt-als-Nächster“-Haltung verschwindet. Bürgschaften anzubieten, ist im übrigen recht billig, denn sie erzeugen den bekannten Gläubiger-Reflex: „Gib mir sofort das geliehene Geld zurück! Was, du kannst es sofort zurückzahlen? Dann behalte es ruhig weiter und zahl Zinsen. Aber wenn du es nicht sofort zurückzahlen kannst, dann will ich es sofort haben.“ Bürgschaften sorgen oft dafür, daß ihre pure Existenz bereits verhindert, daß sie fällig werden. Und die wenigen Prozent davon, die vielleicht doch getogen werden müssen, sind immer noch billiger, als die anhaltende Depression kosten würde, wenn es die Bürgschaften nicht gäbe. Wobei natürlich eine echte Rezession Folgeschäden hat. Zum Beispiel explodieren dann auch die faulen Kreditkartenschulden und Autokredite, wenn die Schuldner ihre Jobs verlieren oder auf Pump gekaufte Aktien an Wert verlieren.
Was aber ist die Folge einer solchen Rezession? Zunächst mal geht der Ölpreis zurück. Vom Hoch bei gut 140 Dollar je Barrel sind wir inzwischen unter 70 Dollar je Barrel Rohöl gefallen (je nach Sorte). Dahinter stecken die Erwartungen für den kommenden Ölverbrauch, denn die fallende Produktion in einer Rezession bedeutet eine Reduzierung des Energieverbrauchs. Aus Sicht des Umweltschutzes ist das vordergründig ein positives Ereignis. Weniger Energieverbauch und weniger Beton bedeutet immer auch weniger CO2 in der Atmosphäre. Aber langfristig wird die Rechnung komplizierter. Teilweise bedeutet eine Rezession nämlich nur, daß so oder so fällige Investitionen und Anschaffungen verschoben werden. Der Umwelt ist damit nicht wirklich geholfen. Noch schlimmer ist dabei aber, daß der Ersatz öl- oder stromschluckender Altgeräte durch sparsamere neue Geräte aufgeschoben wird. Und da schlägt das Energiesparen durch Rezession in ein Energieverschwenden um. Schließlich fehlt durch die Rezession das Geld für den Aufbau einer neuen CO2-armen Infrastruktur. Hybridautos, Windräder und Solaranlagen brauchen für ihren Bau zunächst mal Kapital. Und das wird in Phasen des Wirtschaftswachstums und des lockeren Geldes aufgebaut, nicht in der Rezession, wenn die Banken das Geld festhalten, weil sie Angst vor platzenden Krediten haben.
Hier zeigt sich wieder, daß die Rechnungen mit den Staaten, die bis zum Datum x mindestens y% CO2-Emissionen einsparen sollen, das Problem nicht richtig beschreiben. Besser wäre es, es würde vorgegeben, wieviel g CO2 der Euro Bruttoinlandsprodukt erzeugen darf, denn dann würde es auch einen Unterschied machen, ob die Einheit Wirtschaftswachstum im energieoptimierten Europa oder mit viel CO2 erzeugender Braunkohle im energieverschwendenden China entsteht. Auf den kleinen Einbruch beim Energieverbrauch wird schnell ein längere Phase kommen, bei der der Energieverbrauch stärker wächst als es ohne Rezession der Fall gewesen wäre. Einziger Hoffnungsschimmer ist bislang, daß die EU an ihrem Ziel einer CO2-Emissionsminderung um 8% für die 15 alten EU-Staaten bis 2012 festhalten möchte – das ist wenig genug, aber ein positives Zeichen in einem Umfeld, in dem manche Staaten (z.B. Polen) mit Hinweis auf die Verluste durch die Finanzkrise gerne Maßnahmen zum Klimaschutz verschieben würden.
Donnerstag, 16. Oktober 2008
Der Sinn von Umfragen zum Klimawandel
Recht problematisch wird es daher, wenn man eine Meinungsumfrage unter den Menschen durchführt, „die es wissen müßten“. Dann nämlich neigt man dazu, die so erforschte Meinung mit dem vorhandenen Wissen zu verwechseln. Solche Umfragen werden dann auch gerne von Menschen mißbraucht, die mit dem etablierten Wissen nicht einverstanden sind. Im einfachsten Fall wird eine nicht repräsentative Umfrage auf einer falsch deklarierten Referenzgruppe gestartet, z.B. indem man unkontrolliert Menschen mit vage akademischen Hintergrund teilnehmen lässt, die mitteilen sollen, ob sie ein bestimmtes Pamphlet unterzeichen, und diese als Wissenschaftler ausgibt, deren Meinung dann bei einem speziellen Fachthema relevant sein soll. Tatsächlich ist so etwas ohnehin keine Umfrage, sondern nur eine Unterschriftenliste, bei der sich natürlich die Anhänger einer bestimmten Meinung ansammeln. Wenn man nicht weiß, wie groß die hypothetische Unterschriftenliste der Gegenseite ist, kann man daraus gar nichts schließen.
Der entscheidende Einwand ist aber, daß in der Wissenschaft der Erkenntnisstand das ist, was in relevanten Fachzeitschriften publiziert wird, die darauf folgende Kritik übersteht und im folgenden von anderen als nützliche, relevante und gesicherte Erkenntnis zitiert und weiter verwendet wird. Was das ist, wissen nur die Menschen, die auf dem Gebiet arbeiten, und das kann manchmal ein sehr kleiner Haufen sein, wenn es um recht spezielle Erkenntnisse geht.
Bray und von Storch haben 1996, 2003 und nunmehr auch 2008 eine Umfrage unter Menschen durchgeführt, die sie in einer Vorauswahl als Wissenschaftler auf dem Gebiet der Klimaforschung identifiziert hatten, und bei der sie einen umfangreichen Satz von Fragen stellten, von dem man nicht erwarten konnte, daß alle Befragten in gleicher Weise kompetent sind. Bei einer Rücklaufquote von unter 20% der Befragten habe ich zwar meine Probleme damit, daß man hier annehmen möchte, zu repräsentativen Ergebnissen zu kommen. Zudem sind erhebliche Zweifel angemeldet worden, ob die Formulierung und Auswahl der Fragen zu belastbaren Aussagen führen kann (hier eine deutsche Übersetzung eines Beitrags von Gavin Schmidt auf RealClimate). Aber mir ist dabei zusätzlich in einer Antwort von Bray auf die Kritik aufgefallen, daß er im Grunde unfreiwillig selbst ein gewichtiges Argument anführt, warum seine Umfragen problematisch sind. Es geht um folgende Frage in den verschiedenen Formulierungen von 2003 und 2008:
2008: How convinced are you that most of the recent or near future climate change is, or will be, a result of anthropogenic causes? (response range: 1 = not at all, 7 = very much)
(Wie stark sind Sie davon überzeugt, daß der Klimawandel zum größten Teil in der letzten Zeit oder nahen Zukunft eine Folge menschlicher Ursachen ist?)
7-5: 83,5% (mehr oder weniger davon überzeugt)
1-3: 11,1% (mehr oder weniger nicht dieser Meinung)
2003: Climate change is mostly the result of anthropogenic causes
(Klimawandel ist zum größten Teil Folge menschlicher Ursachen)
1-3: 56% (mehr oder weniger davon überzeugt)
5-7: 30% (mehr oder weniger nicht dieser Meinung)
Bray meinte, die ganze Kritik an der Umfrage von 2003 sei doch übertrieben, wenn man 2008 fast das gleiche Ergebnis bekommt. Doch gerade bei dieser Kernfrage ist das Ergebnis sehr unterschiedlich. 2003 schienen die Wissenschaftler demnach uneinig darüber zu sein, ob der Klimawandel vorwiegend von Menschen verursacht wird. Die Fraktion der Verfechter menschlicher Ursachen ist noch nicht mal doppelt so groß wie die der „Skeptiker“. 2008 plötzlich findet man eine überwältigende Mehrheit für den Menschen als Verursacher des Klimawandels. Die „Skeptiker“ sind eine unbedeutende Minderheit. Hat es zwischen 2003 und 2008 einen gewaltigen Wissensfortschritt gegeben, einen Paradigmenwechsel in der Klimaforschung oder überwältigende neue Beweise? Nein. Nur die Fragestellung hat sich in einem unbedeutend scheinenden Punkt geändert. Plötzlich wird ein Zeitraum angegeben, in dem der Klimawandel menschenverursacht sein sollte, nämlich „kürzlich und in naher Zukunft“. Damit hat man auf einen Schlag alle Wissenschaftler ins Boot bekommen, die vorher pedantisch die Frage so interpretierten, ob man auch über die Erwärmung vor 1950 oder über geologische Zeiträume den Menschen als Verursacher annehmen kann – natürlich nicht. Wenn die Ergebnisse so empfindlich davon abhängen, wie die Frage gestellt wird, ist wohl klar, daß die Umfrage von Bray und von Storch hoch problematisch ist. Schon als eine Soziologie der Klimaforscher, aber noch mehr, weil viele Menschen den oben genannten Fehler machen, Meinung mit anerkanntem Wissen zu verwechseln und weil die Aussagen der Klimaforschung nun einmal eine hochpolitische Sache geworden sind. Die Umfrage 2003, die suggerierte, daß die Wissenschaftler sich nicht ganz einig seien, war ja eine durchaus nützliche Argumentationsgrundlage für Menschen, die grundsätzlich Maßnahmen zur Minderung der weiteren Erwärmung aus politischen Gründen ablehnen. Die Umfrage von 2008 wird sicher auch ihre Liebhaber finden, die sich ihre Fragen herauspicken, immer in der falschen Annahme, Meinungen unter einer Gruppe von Wissenschaftlern hätten etwas damit zu tun, was der anerkannte Wissensstand auf einem Fachgebiet ist.
Sonntag, 12. Oktober 2008
Kann Australien überleben?
Gegen Ende der letzten Eiszeit wurde es auf Australien noch trockener als ohnehin schon. Weniger trockenheitsbeständige Bäume starben ab. Beschleunigt wurde dies durch Buschfeuer, an die nur besonders resistente Arten wie die ölhaltigen Eucalyptusbäume angepaßt waren. Durch ihre ätherischen Öle beschleunigten sie Feuer so sehr, daß das Feuer bereits leichtendzündliche Nahrung mehr fand, bevor das Kernholz geschädigt werden konnte. Trocken aber war es durch das Zusammentreffen einer geringeren Niederschlagsrate durch global niedrige Temperaturen und eine Phase gesteigerter El-Nino-Aktivität, die zu wiederholten Häufungen von Dürrejahren führten. Möglicherweise setzten die Menschen auf diesen Effekt noch einen drauf, indem sie häufige Buschfeuer anzündeten. Die Buschfeuer sollten dafür sorgen, daß offene Landschaften entstanden, in denen leichter Nahrung gefunden wrden konnte und Feinde früher gesehen wurden. Im Zusammenwirken mit Dürren und El-Nino-Phasen veränderten sich dadurch Landschaften in ganz Australien und veränderten sich zu dem Bild, das wir heute vom wüstenreichsten und trockensten Kontinent haben. Die großen Pflanzenfresser starben aus, weil sie nicht mehr täglich etwas zu trinken fanden und ihre bevorzugte Nahrung vernichtet wurde. Und die großen Fleischfresser wie Megalania verloren ihre wichtigste Beute.
Seit jener Zeit war es in Australien wieder etwas feuchter geworden – zu spät für die ausgestorbenen Arten. Die größten überlebenden Arten sind das rote Riesenkänguruh, das sein Wasser schon aus seiner Nahrung gewinnen kann und das Leistenkrokodil in Rückzugsgebieten am Rande des Kontinents. Aber auch diese Entwicklung war nicht von Dauer. Bis vor kurzem galt Australien auch als großer Agrarproduzent. So war Australien lange Zeit der zweitgrößte Produzent von Weizen. Auch diese Ära nähert sich dem Ende.
Ob das Feuchteangebot in einem Gebiet für die Landwirtschaft ausreicht, hängt empfindlich von Niederschlag und Temperatur ab. Steigt die Temperatur, wächst die Verdunstung exponentiell an. Durch die wachsende Löslichkeit von Wasser in Luft bei steigenden Temperaturen kann zwar auch der Niederschlag anwachsen, aber die Niederschläge können durchaus auch in ganz anderen Gebieten niedergehen. Möglicherweise hat Australien gerade ein Optimum beim Feuchteangebot durchlaufen. Schon seit 7 Jahren spricht man in Australien von einer andauernden Dürre, die nur von unzureichenden Niederschlägen unterbrochen wurde. Die Nothilfen der australischen Regierung für Farmer gehen in die Milliarden Euro pro Jahr. Trotzdem sind schon über 10.000 landwirtschaftliche Betriebe in die Liquidation gegangen. Es geht nicht nur darum, daß durch die Dürre Höfe ihre Kosten nicht mehr hereinholen und daher in die Insolvenz gehen. Noch schlimmer ist, daß von den trockenen Böden der Mutterboden durch Wind aufs Meer hinausgetragen wird. Wenn dann wieder der Regen kommt, trifft er stellenweise nur noch unfruchtbaren Boden, der teilweise zudem durch Bewässerungsversuche versalzen ist.
Im Buch Kollaps zitiert Jared Diamond Quellen, nach denen die Tragfähigkeit Australiens über lange Zeiträume nur für 8 Millionen Menschen ausreicht, nicht die gut 21 Millionen Australier, die derzeit auf dem Kontinent leben wollen. In Wahrheit kann man aber nicht berechnen, wie viele Menschen Australien wirklich ernähren könnte, weil es ja nicht nur darum geht, wie trocken der Kontinent werden kann, sondern auch, wie viel Boden zerstört wird, bevor man lernt, ihn nachhaltig zu bewirtschaften.
Die dramatischen Auswirkungen der aktuellen Dürre beschreibt ein Artikel des Hamburger Abendblattes vom 19. Juni 2008. Demnach hofft man mit großen Bewässerungsprojekten und Wasser aus Tasmanien die Situation in den Griff zu bekommen. In der Rechnung taucht aber der Klimawandel als große Unbekannte auf. Jeder Grad Temperaturerhöhung schlägt sich als eine Verminderung des Wasserabflusses im Südosten (im wichtigsten Gebiet für Landwirtschaft) von 15% nieder, ein deutliches Zeichen für das verringerte Wasserangebot. Und Wissenschaftler sind sich sicher, daß die erhöhte Trockenheit kein vorübergehendes Ereignis ist, sondern wohl als Folge des Klimawandels von Dauer sein wird.
Es mag seltsam klingen, daß sowohl die letzte Eiszeit als auch die globale Erwärmung für Australien zu verstärkten Dürren führen, aber das Wasserangebot in Australien ist keine einfache lineare Funktion der globalen Temperatur. Niedrige globale Temperaturen führen zu generell weniger Niederschlägen, hohe globale Temperaturen können dazu führen, daß die Niederschläge an anderen Orten niedergehen und außerdem die Verdunstung erhöht ist. Für Australien zumindest scheint es ganz klar ein Klimaoptimum zu geben, und das ist vorüber.
Für die Welt stellt sich die Frage, was eigentlich passiert, wenn der zweitgrößte Weizenproduzent der Welt durch Bodenerosion, -versalzung und immer häufigere Dürren als Exporteur wegfällt, während die Weltbevölkerung weiter steigt? Die Frage im Titel ist daher falsch gestellt. Ist Australien vielleicht so ein Dominostein, der das Fallen einer ganzen Kette anstößt, in der China und Indien als nächstes kommen, dann die Nachbarstaaten und schließlich Europa?
Sonntag, 5. Oktober 2008
12% weniger Sonnenschein - Sommer wie vor 30 Jahren?
Der DWD betreibt im Rahmen des Global Atmosphere Watch am Meteorologischen Observatorium Hohenpeißenberg (auf einem Berg im Alpenvorland) die Messung von Spurengasen mit dem Ziel, mehr über die globale Hintergrundatmosphäre abseits menschlicher Quellen zu erfahren. Aus der Auswertung der so gemessenen Daten entstehen die GAW-Briefe. Im aktuellen GAW-Brief wurde der Zusammenhang zwischen der gesamten Sonnenscheindauer und der mittleren Temperatur im Hochsommer untersucht. Dabei stieß man auf eine schöne Verdeutlichung des Klimawandels.
Im GAW-Brief wird auch das Verhältnis von Sonnenscheindauer zur Temperatur für über 70 Jahre als Zeitreihe gezeigt. Das Ergebnis ist, daß durch den Treibhauseffekt innerhalb von 3 Jahrzehnten eine um 12% verminderte Sonneneinstrahlung ausreicht, um die gleiche Temperatur im deutschen Hochsommer zu erzeugen. Das ist mal recht anschaulich.
Donnerstag, 11. September 2008
Ein bißchen Geschichte
Es ist schwierig, die Zeit für einen Blog zu finden, wenn man den zwischen Arbeit und Familie betreibt und dabei auch für seine Beiträge Hintergrundinformationen und Links besorgen möchte. Der Effekt ist, daß immer wieder angefangene Beiträge liegen bleiben. Am Ende frage ich mich dann, ob es überhaupt einen Sinn hat, noch etwas zu posten, was dann doch schon weitgehend anderswo abgehandelt wurde. So drängt es mich, etwas zu der neuen Veröffentlichung des MPI Hamburg über die Klimaentwicklung in Deutschland zu schreiben. Die Ergebnisse der Simulationen mit einem hochauflösenden Modell (REMO), die wegen eines zwar geringfügigen, aber ärgerlichen Fehlers einmal revidiert werden mußten und dabei viel Häme provozierten, kann man sich hier anschauen: (Link zur pdf-Datei - 16,18 MB)
Aber das muß warten. Stattdessen ein kurzer Blick auf eine interessante Diskussion, die gerade in amerikanischen Blogs läuft. Ende der siebziger Jahre war die amerikanische Regierung bereits über die Möglichkeit einer globalen Erwärmung besorgt, und hatte eine wissenschaftliche Arbeitsgruppe eingesetzt, um dazu Bericht zu erstatten. Präzise gesagt, eine Art geheime Denkfabrik exzellenter Wissenschaftler, die wissenschaftliche Ideen für die Verteidigung oder von nationaler Bedeutung entwickelten, genannt Jason, erhielt 1977 den Auftrag, über das Problem der Klimaentwicklung nachzudenken und legte 1979 einen Bericht vor: JSR-78-07: The Long Term Impact of Atmospheric Carbon Dioxide on Climate. Interessant ist, daß die Ergebnisse dieses Berichtes in den Kernaussagen vorwegnehmen, was danach immer wieder mit größerer Präzision und Sicherheit bestätigt wurde:
Der Effekt einer Verdopplung der CO2-Mischungsverhältnisse, hier bis 2035 erwartet (inzwischen für ca. 2050 vorhergesehen) liegt bei 2-3 Grad Celsius Temperaturerhöhung. In der Arktis sollte die Temperaturerhöhung mit 10-12 Grad deutlich stärker sein.
Heute prognostiziert das IPCC 2-4,5 Grad je Verdopplung der CO2-Konzentration mit über 10 Grad Temperaturerhöhung in der Arktis.
Zur gleichen Zeit, als der Jason-Bericht herauskam, gab es auch eine Arbeit für den National Research Council, die man hier findet. Dieser Bericht mit dem Titel Carbon Dioxide and Climate: A Scientific Assessment, auch bekannt als der Charney-Report, hatte als wesentliche Ergebnisse, daß die CO2-Mischungsverhältnisse bis zur Mitte des 21. Jahrhunderts sich verdoppeln würden und daß dieses zu einer Klimaerwärmung von ca. 2 bis 3,5 Grad Celsius führen würde. In der Arktis wäre die Erwärmung noch deutlich stärker.
So hatten schon 1979 zwei Studien mit unterschiedlichen Auftraggebern basierend auf frühen Modellrechnungen im Kern die gleiche Warnung vor einer globalen Erwärmung durch anthropogenes CO2 gegeben. Doch es gab noch einen dritten Bericht, den sogenannten Nierenberg-Report, der eine Trendwende markierte und eine Phase der Verzögerung von Maßnahmen gegen den Klimawandel einleitete. Die Hintergründe werden hier in Rabett Run erläutert, der sich dabei wiederum auf einen Artikel von Oreskes stützt. Der Bericht an das National Research Council kam 1983 heraus, und Nierenberg als Leiter der Arbeitsgruppe wird dabei die Rolle zugeschrieben, nun im Auftrag der Reagan-Administration dafür gesorgt zu haben, daß die Gefahr einer globalen Erwärmung verharmlost wurde. Die Zusammenfassung des Berichtes hat der Sohn des damaligen Leiters, Nicolas Nierenberg, hier gepostet. Und das erstaunliche ist: fast durchweg sind die Schlußfolgerungen die gleichen, wie in den anderen Berichten: die CO2-Mischungsverhältnisse werden sich im 21. Jahrhundert verdoppeln, der Effekt ist eine Erhöhung der Temperatur von 1,5-4,5 Grad Celsius (wobei die exakte Formulierung hier trickreich ist, da von der Temperaturerhöhung die Rede ist, die folgt, wenn CO2 sehr lange auf verdoppeltem Niveau bleibt). Die Unterschiede zu den anderen Berichten liegen woanders. Der Nierenberg-Report betont, anders als die anderen Berichte, daß es auch positive Auswirkungen (CO2-Düngung) gebe. Und er empfiehlt, zunächst mal das Problem weiter zu erforschen, aber noch nichts zu unternehmen, um massiv CO2-Emissionen zu reduzieren. Es sei kostengünstiger mit anderen Treibhausgasen zu beginnen. Daß die Schlußfolgerungen dieses Berichts bei gleicher wissenschaftlicher Grundlage ganz anders ausfielen und nun der Reagan-Administration erlaubten, das Problem auf die lange Bank zu schieben, bis 1988 Hansen erneut mit Modellergebnissen deutlich machte, daß es nun klare Hinweise auf einen laufenden Klimawandel gebe, liegt wohl an der Zusammensetzung dieser Arbeitsgruppe, bei der zum einen Nierenberg seinen Einfluß nutzte, die Resultate zu entschärfen und andererseits zwei Wirtschaftswissenschaftler beteiligt waren, die das gleiche Ziel hatten.
Wenn man mehr darüber erfahren will, lohnt sich der Blick in den Blog von Atmoz.
Sonntag, 7. September 2008
Wann uns das Wasser bis zum Hals steht…
Zwar nicht deswegen, aber doch mit Wissen um die vielen Probleme ist der jüngste IPCC Bericht gerade beim Thema Meeresspiegelanstieg besonders zurückhaltend. Man kann zwar recht gut berechnen, wie der Meeresspiegel aufgrund der thermischen Ausdehnung des Meerwassers durch seine Erwärmung ansteigt. Auch für den Zufluß von den Kontinenten aus Gletschern und Niederschlagsabfluß sind Vorhersagen möglich. Der relative Verlust oder Gewinn durch Verdunstung und Niederschlag auf den Ozeanen und durch Sublimation und Abtauen sowie Niederschlag in der Antarktis und auf Grönland kann auch abgeschätzt werden. Diese Größen zusammen führen zu den Schätzungen im Bereich von 18 bis 59 cm bis ca. 2095 über den Wert von ca. 1990 (entsprechend 20 bis 65 cm Anstieg bis 2100) und einen weiteren Anstieg danach (gerundet aus dem IPCC Bericht von 2007). Doch die eigentlich wichtige Größe wollte man 2007 gar nicht erst in die Schätzung mit aufnehmen, nämlich den Meeresspiegelanstieg durch das Abrutschen des polaren Festlandeises in Grönland und der Antarktis in die Ozeane bzw. das Aufschwimmen des westantarktischen Festlandeises auf dem Meerwasser (weil hier das Festland überwiegend unter dem Meeresniveau liegt). Zwar findet man im 4. Assessment Report der Arbeitsgruppe 1 im Kapitel 10 Erläuterungen, nach denen im Laufe des 21. Jahrhunderts ein Temperaturniveau erreicht würde, bei dem das Grönlandeis nicht mehr auf Dauer bestehen bleiben würde, was allein bereits zu einem Meeresspiegelanstieg von 7 Metern führt. Die Zeitskala für dieses Abschmelzen sah man in dem Bericht aber bei Jahrhunderten – immerhin eine Größenordnung von 1 Meter Anstieg des Meeresspiegels pro Jahrhundert, natürlich nicht mit konstanter Geschwindigkeit in diesem Zeitraum. Seitdem aber lassen das weitere Beobachtungen und Schätzungen als zu konservativ erscheinen. Zudem stecken erkennbar Unsicherheiten in den Abschätzungen, weil die Summe aller Schätzterme im IPCC-Bericht immer noch einen geringeren Meeresspiegelanstieg ergeben, als er bisher beobachtet wurde.
Der Meeresspiegelanstieg durch das polare Festlandeis ist so schwierig zu erfassen, weil man dabei die Dynamik großer Eiskörper abschätzen muß. Die entscheidende Größe ist nicht etwa, wie viel Eis abschmilzt bzw. durch Niederschläge wieder gewonnen wird, sondern langfristig, ob und wie schnell der Eiskörper sich ins Meer bewegt. Wenn ein Gletscher auf einer geneigten Fläche aufliegt, gleitet er mit einer gewissen Geschwindigkeit talwärts bzw. ins Meer. Diese Bewegung wird durch Reibung gebremst. Schmilzt etwas Wasser auf dem Eiskörper und sickert zum Boden durch, wirkt das wie ein Schmiermittel. Außerdem kann solches Sickerwasser auch dafür sorgen, daß die Gletschermasse in Teile bricht. Die Teile haben relativ weniger Auflagefläche und somit Reibung und bewegen sich schneller. Meereisgebiete vor dem Gletscherausgang am Meer können auch die Bewegung des Eises bremsen. Bricht diese Meereisfläche auf, kann der Gletscher schneller rutschen. Diese ganzen Vorgänge sind so kompliziert vorherzusagen, daß sich die damit befaßten Glaziologen ungern mit Prognosen aus dem Fenster lehnen.
Trotzdem hatten sich einige an das Thema herangewagt. Rahmstorf etwa hatte sich auf der Basis einer Korrelation zwischen Meeresspiegelanstieg und Temperatur an die Prognose gewagt, daß ein Meeresspiegelanstieg um 0,5 bis 1,4 Meter bis 2100 möglich sei. Dieser Beitrag wurde mit dem Papier von von Storch und Mitarbeitern oben zurückgewiesen. (Die begleitende Pressemitteilung dabei war im Tonfall unnötigerweise wenig kollegial und geriet dadurch manchen Leuten in den falschen Hals, die das Papier dahingehend mißverstanden, daß von Storch et al. Arbeit insgesamt widerlege, daß ein Temperaturanstieg automatisch zu einem Meeresspiegelanstieg führe. Das war aber gar nicht gemeint in dem Beitrag, der sich nur darauf bezog, ob man angesichts des Gedächtnisses des arktischen Eises für frühere Temperaturen mit nur 120 Jahren an Daten bereits zu brauchbaren Korrelationen komme.)
Einiges Rauschen im Blätterwald der Medien verursachte eine Arbeit von Pfeffer, Harper und O'Neel. In dieser Arbeit untersuchte man, wie stark eigentlich die Bewegung von Gletschern auf Grönland und in der Westantarktis innerhalb physikalisch sinnvoller Grenzen anwachsen könnte, um so eine obere Grenze des dadurch verursachten Meeresspiegelanstieges zu finden. Der schnellste Gletscher ist der von Jakobshaven in Grönland mit fast 9 km pro Jahr, und man bräuchte eine Verdreifachung der Gletschergeschwindigkeiten ab dem Jahr 2010, um zu mehr als 2 Meter Meeresspiegelanstieg bis 2100 zu kommen. Das Ergebnis liegt also bei etwa 2 Metern maximal bis 2100, aber 80 cm sei nach Meinung der Autoren der plausibelste Wert. Das liegt im Bereich der Schätzungen von Rahmstorf und natürlich deutlich über den Werten aus den IPCC-Szenarios, selbst noch über dem ungünstigsten Szenario.
Eine weitere aktuelle Schätzung findet man in einem Bericht der (neuen) Deltakommission in den Niederlanden, die abschätzen muß, wie hoch zukünftig die Deiche in Holland zu bauen sind. Hier findet man den Link zu dem Bericht (auf niederländisch), der im übrigen Gesamtkosten von 90 bis 135 Milliarden Euro für das (nicht nur durch den Klimawandel) erforderliche Deichprogramm ansetzt. Auf Seite 111 findet man die Schätzungen für den weltweiten Anstieg des Meeresspiegels, der mit 55 cm bis 1,10 Meter angesetzt wird. Bis zur Hälfte des Anstiegs kommt aus Grönland und der Antarktis. Aufgrund der hohen Investitionen in das Deichbauprogramm besteht hier ein deutliches Interesse, realistische Abschätzungen zu bekommen.
Was aber bedeutet nun eigentlich ein Anstieg des Meeresspiegels um z.B. 80 cm innerhalb von 90 Jahren? Es bedeutet nicht, daß man um den entsprechenden Betrag die Küstenlinien verschieben muß. Es ist eine reine Kostenfrage, ob man mit Deichen die alte Küstenlinie erhält oder nicht. Für die Niederlande ist es z.B. keine Frage, daß man die Deiche entsprechend erhöhen wird, auch wenn dieses um die 100 Milliarden Euro kostet. Damit läßt sich das Abtauchen der Niederlande noch 200 oder 300 Jahre aufhalten, bis die Deichhöhe irgendwann einfach an technische Grenzen stößt. Ganz anders sieht es für ein Land wie Bangladesh aus, wo ein entsprechendes Deichbauprogramm bis zu 10% des Bruttoinlandprodukts verschlingen würde. Das ist einfach nicht finanzierbar. Doch es noch komplizierter. Der Verlust an nutzbarem Land bemißt sich nicht danach, was im Meer versinkt. Es hängt vielmehr daran, wo das Meerwasser das vorhandene Grundwasser hochdrückt. Diese Auswirkungen können sehr viel weiter landeinwärts zu einer unerwarteten Versalzung von Böden führen, die dann für den Ackerbau ausfallen. Die zweite Frage ist, wie viel Land bei Hurricans oder Orkanen und Springfluten dem Risiko einer Überschwemmung ausgesetzt ist, weil man Deiche zumeist nicht darauf auslegt, eine „Jahrtausendflut“ abzuhalten. Diese Überflutungshöhe bei Extremereignissen steigt nicht linear mit dem Anstieg des Meeresspiegels, sondern hängt davon ab, wie steil die Küste vor dem Deich ist. Wenn nicht noch Marschland, sondern nur direkt der Deich zu bewältigen ist, stürmt die Sturmflut ungedämpfter auf das Land. Zugleich nimmt die Zahl der extremen Sturmereignisse bei einer globalen Erwärmung vermutlich zu. Und je mehr Land einzudeichen ist, desto größer ist die Schadenssumme, wenn bei Extremereignissen der Deich dann doch nicht hält. Man muß auch berücksichtigen, wie viel natürlicher Lebensraum verloren geht, etwa Wattland, Marschen und Mangrovenwälder, die nach und nach im Meer versinken, während andererseits Eindeichungen verhindern, daß Ersatz dafür weiter im Inland entstehen kann. Dadurch gehen z.B. die Kinderstuben mancher Fischarten zugrunde, die dann auf den Tellern vieler Menschen fehlen. Nicht zuletzt verschwinden damit auch viele natürliche Strände, was z.B. für einige Urlaubsländer zum Problem werden kann.