Dienstag, 31. März 2009

Ist Holzkohle die Lösung oder ein neues Problem?

Planetenkontrolle oder Geoengineering bezeichnen Maßnahmen, bei denen Menschen absichtlich die Eigenschaften unseres Planeten ändern, um zum Beispiel die Zusammensetzung der Atmosphäre und darüber das Klima zu verändern. In verschiedenen Artikeln hatte ich schon angesprochen, daß die Planetenkontrolle eine problematische Sache ist. Unsere Lebensweise als solche könnte bereits als Planetenkontrolle gelten, nur fehlt hier die Absicht dabei. Nun geht es darum, mit Absicht etwas entgegenzuwirken, was wir ohne Absicht aus dem Lot gebracht haben, eventuell sogar als Ersatz dafür, unsere planetenverändernde Lebensweise aufzugeben. Das entspricht etwa einem Menschen, der durch zuviel Essen und zu wenig Bewegung fett wird und sich nun regelmäßig in ein Eisbad legt, damit der Körper mehr vom überflüssigen Essen verbrennt. Es ist zwar schon möglich, daß der Körper mehr Fett verbrennt, um die Körpertemperatur zu halten, aber es ist fraglich ob dies ausreicht und noch mehr fraglich, ob wiederholte dauernde Unterkühlung der Gesundheit zuträglich ist. Die Frage ist doch, warum dieser Mensch nicht einfach weniger ißt und sich mehr bewegt?

Alle Maßnahmen zur Planetenkontrolle leiden darunter, daß bei ihnen Wirkungen von Nebenwirkungen begleitet sind. Und wenn man doppelt Pech hat, ist sogar nur die Nebenwirkung erheblich, die Wirkung hingegen geringfügig. Das Einbringen von Sulfataerosolen in die Atmosphäre hat z.B. eine nur kurzfristig kühlende Wirkung – es bilden sich niedrige Wolken, die die Albedo der Erde erhöhen, also mehr Sonnenstrahlung direkt ins Weltall reflektieren – gleichzeitig aber auch eine Vielzahl andere Nebenwirkungen, wie z.B. Versauerung von Böden und Gewässern, Beeinträchtigung der Gesundheit von Menschen, Tieren und Pflanzen und Veränderungen im Wasserhaushalt.

Die Meeresdüngung hat vermutlich nur einen geringen Effekt und könnte den Stoffhaushalt der Meere durcheinander bringen (möglicherweise Verarmung der Oberflächenschichten an Silikat).

Biosprit habe ich in diesem Blog noch nicht diskutiert. Hier gab es vor allem vergangenes Jahr eine intensive Diskussion darüber, ob die Verteuerung der Nahrungsmittelpreise bis 2007/2008 aus dem steigenden Wettbewerb des Nahrungsmittelanbaus und des Biospritanbaus um Ackerflächen resultierte. Das kann eine Rolle gespielt haben, aber um das Ausmaß gab es eine Debatte ohne offensichtlichen Sieger. Denn gleichzeitig gab es auch einen Anstieg des Verbrauchs von Fleisch in China und anderen Schwellenländern, und dadurch auch einen höheren Bedarf an Futterpflanzen. Und es gab auch Spekulationen an den Warenterminbörsen, die die Preise auch ohne echte Warenverknappung steigen lassen konnte. Zugleich setzte auch eine Diskussion um Palmöl als Treibstoffzusatz ein. Der Anbau von Ölpalmen in der tropischen Klimazone geht oft mit dem Abholzen von Regenwaldflächen einher. Das macht aber aus einem eigentlich CO2-neutralen Biosprit eine sehr starke CO2-Quelle. Nicht nur, daß der in den Regenwaldbäumen gebundene Kohlenstoff freigesetzt wird, auch die Böden, die nun bearbeitet werden und teilweise frei liegen, geben nun einen erheblichen Anteil des in ihnen gebunden Kohlenstoffs ab. Biosprit ist nur sinnvoll, wenn die dafür benötigten Pflanzen entweder auf Böden angebaut werden, die sonst brach lägen oder wenn dafür Pflanzenabfälle genutzt werden. Darauf weist das IPCC im Bericht der 3. Arbeitsgruppe auch indirekt hin, aber meines Erachtens nach viel zu vage (Kapitel 5 ab Seite 341 und Kapitel 8).

In diesem Blog hatte ich auch schon auf eine weitere Möglichkeit hingewiesen: Biochar bzw. Holzkohle. Holzkohle wird im Boden anscheinend sehr langsam abgebaut, im Gegensatz zu normal verrottenden oder verfaulenden Pflanzenabfällen und speichert daher Kohlenstoff. Wenn man Pflanzenabfälle in geeigneter Weise stark erhitzt, kann man flüchtige Bestandteile als Biogas oder Biotreibstoff abtrennen und die verbleibende Holzkohle in den Boden einmischen. Dies kann zusätzlich den Boden düngen. Nimmt man all dieses zusammen, könnte Biochar bei Ölpreisen über 50 oder 60 Dollar pro Barrel eine profitable Möglichkeit sein, Kohlenstoff zu binden. Doch auch hier gibt es Nebenwirkungen. Es sind die gleichen, wie beim Biosprit. Niemand kann sicherstellen, daß nur Pflanzenabfälle genutzt würden, vielmehr könnten Anbauflächen für Pflanzen, die zu Holzkohle verarbeitet werden, in Konkurrenz zu Flächen für den Anbau von Nahrungspflanzen und Biospritpflanzen treten. Ganz zu schweigen davon, daß auch hier wieder weitere Flächen unter den Pflug genommen werden könnten, auf denen eigentlich die letzten Reste natürlicher Wälder und Savannen Rückzugsgebiete für die schwindende Artenvielfalt sein sollten. Auch hier könnten Flächen genutzt werden, die dafür nicht geeignet sind, weil der bearbeitete Boden von Wind und Wasser abgetragen wird oder erforderliche Bewässerung auf Dauer den Boden versalzt und zerstört. Dabei ist noch nicht mal sicher, daß die so hergestellte Holzkohle wirklich dauerhaft im Boden verbleibt. Niemand kann ausschließen, daß sich Bakterien ausbreiten, die sehr wohl die Holzkohle umsetzen können.

Diese Punkte und noch andere diskutiert George Monbiot in seinem Blog und kommt zu dem Fazit, daß man mit Biochar genauso wie mit dem Biosprit einer Selbsttäuschung aufsitzt. Die Täuschung ist, daß man einfach so auf gewaltigen Landflächen Kohlenstoff auffangen kann, ohne daß die Nahrungsmittelproduktion oder die Restflächen für die Natur darunter leiden. Und beides wird in Zukunft knapp. Die Vorschläge zum Geoengineering offenbaren eigentlich nur, wie ernst die Lage bereits ist, wenn immer mehr Wissenschaftler daran zweifeln, daß wir überhaupt noch rechtzeitig die Emissionen der Treibhausgase weit genug senken, um den Klimawandel noch bewältigen zu können.

Aktualisierung: Es gab einige Reaktionen auf Monbiots Beitrag, auf die er in einem Folgebeitrag verlinkt. Unter anderem führt Chris Goodall auf, daß Holzkohle nicht nur den Kohlenstoffkreislauf unterbricht, sondern über die Düngewirkung Pflanzenmaterial schneller wachsen läßt (was Kohlenstoff bindet) und den Austritt anderer Treibhausgase (Lachgas, Methan) aus Böden verringert - z.B. weil man zusammen mit Holzkohle weniger anderen Dünger braucht. Es sei aber noch Forschung nötig, um diese Effekte wirklich zu verstehen. Generell wird in Antworten betont, daß Biochar nur sinnvoll auf Bioabfälle anzuwenden sei. Das wiederum setzt natürlich Grenzen dafür, wie groß der Effekt überhaupt sein kann.

Donnerstag, 26. März 2009

Im Meer und an Land – CO2 ist schwer einzufangen

Ich hatte im Blog das LOHAFEX-Experiment erwähnt und das Geschrei vorgeblicher Umweltschützer darüber. In den Wochenberichten der "Polarstern" konnte man den Fortgang des Experiments verfolgen und erhielt bereits einen Eindruck davon, daß es diesmal anders ablief als erwartet. Eisensulfatgaben in das Meer hatten zunächst durch die Düngung eine Algenblüte ausgelöst. Die Algenblüte kam schon bald zum Stehen, weil Ruderfußkrebse die Algen abweideten. Dadurch konnten die Algen diesmal nicht nennenswert CO2 ablagern, indem sie selbst abstarben und zum Meeresgrund fielen. Vielmehr blieb das kurzzeitig in den Algen gebundene CO2 in der oberflächennahen Biosphäre und ging über die Atmung der Kleinstkrebse (Ruderfußkrebse) und ihrer Freßfeinde und den Zerfall ihrer Körper wieder zurück in die Atmosphäre. Am 17. März kehrte die „Polarstern“ nach Südamerika zurück und ist nun auf dem Heimweg nach Deutschland. Doch schon eine Woche später erläuterten Expeditionsteilnehmer die Ergebnisse in einem Bericht an die Presse. Die Ursache für das frühe Ende der Algenblüte und dem schnellen Fraß durch die Meeresfauna war ein Mangel an Silikat im Wasser. Die Kieselsäure ist genauso wie das Eisen ein Mangelelement im Meer. Ist sie vorhanden, können sich Kieselalgen vermehren, die sich vor Freßfeinden mit einem Silikatgerüst schützen. Fehlt es Kieselsäure oder Silikaten im Wasser, vermehren sich andere Algen, die schnell tierisches Plankton anlocken. Hier kommen nun die Eisberge ins Spiel. Sie sind eine Eisenquelle, insbesondere im südlichen Atlantik, wo auch das Experiment durchgeführt wurde. Weil aber Eisen zwar ein Mangelelement ist, aber eben ab und zu durch einen wandernden Eisberg doch eingebracht wird, gibt es immer wieder auch Algenblüten, die wiederum das vorhandene Silikat verbrauchen. Und genau deshalb fehlte das Silikat nun für eine Blüte von Kieselalgen im Experiment.

Das Fazit aus dem Experiment ist, daß wir uns nicht darauf verlassen können, daß wir mit Eisensulfatgaben im Meer über Algenblüten zuverlässig CO2 aus der Atmosphäre entziehen können. Je nach Menge anderer Spurenstoffe werden die Algenblüten nur den Umsatz im Meer erhöhen. Eventuell würden solche Düngungen eher noch dem Meer Sauerstoff entziehen und Todeszonen entstehen lassen. Jede Düngung würde diese Probleme noch verschärfen, weil so andere Spurenstoffe, wie Silikat, entzogen würden. Also selbst Gebiete, in denen derzeit eine Eisensulfatdüngung über eine Algenblüte große Mengen CO2 binden könnte, würden danach bei einer weiteren Düngung nicht mehr weiter als CO2-Senke dienen. Könnte man diesen Effekt ausgleichen, indem man gleichzeitig auch mit Kieselsäure oder mit löslichen Silikaten düngt? Zum einen könnte das zur Verarmung an anderen Spurenstoffen führen, und damit das Problem nur ein Stück verschoben sein. Zum anderen läßt sich Eisensulfat als technisches Abfallprodukt billig einsetzen. Geeignete Silikate dürften ein Vielfaches teurer sein. Damit wird es aber billiger, sich nach anderen Verfahren umzuschauen, mit denen CO2 gebunden oder eingespart werden kann.

Doch an Land sieht es kaum besser aus. Hier geht es vor allem darum, CO2 bei der Verbrennung von Kohle in Kraftwerken aufzufangen. Dazu braucht man einen geeigneten Träger. Sagen wir mal, Calciumoxid, das CO2 nach CaO + CO2 -> CaCO3 als Calciumcarbonat auffängt. Oder als Calciumhydrogencarbonat: CaCO3 + H2O + CO2 -> Ca(HCO3)2. Das sind reversible Reaktionen, bei denen z.B. Erhitzen die Träger rezykliert. Das Problem ist, daß z.B. Calciumcarbonat (Kalk) auch in anderen Prozessen gebraucht wird (z.B. Rauchgasentschwefelung) und nicht beliebig zur Verfügung steht. Das Verfahren hat Kosten. Zudem hat man dann zwar CO2 abgeschieden, aber zur Rückgewinnung des Trägers muß es ja wieder abgegeben werden. Dann muß es komprimiert und in eine Lagerstätte gepumpt werden, z.B. in alte Kohleminen. Das alles verbraucht Energie. Dadurch entsteht noch mehr CO2. Die Effizienz im technischen Verfahren ist derzeit gering. Forschung, das Verfahren technisch anwendbar zu machen, läuft gerade an. Vielleicht stehen in 10 Jahren, vielleicht auch später oder nie, sinnvoll anwendbare Verfahren zur Abtrennung und Speicherung von CO2 (Carbon Capture and Sequestration, kurz CCS) zur Verfügung. Dann stellt sich immer noch die Frage, wie sicher eigentlich die Lagerstätten gegen einen Gasaustritt sind.

Für Deutschland wird die Frage gerade aktuell, weil bis zum 1. April ein neues Gesetz zur Kohlendioxideinlagerung verabschiedet werden soll, das 3 Versuchsanlagen zuordnet. Europaweit sollen es 12 werden. Das Gesetz sorgt für Streit. Unter anderem wird von Umweltschutzverbänden kritisiert, daß CO2 als Wirtschaftsgut eingestuft wird, damit die Ablagerung nicht unter das Abfallgesetz fällt und weniger strenge Regelungen anzuwenden sind. Außerdem sollen die ablagernden Energieversorger nur 20 oder 30 Jahre für die Kosten des Verfahrens aufkommen, danach muß der Steuerzahler die Lagerung und eventuell auftretende Probleme (Bergschäden, Leckagen) bezahlen. Wenn solche Probleme wirklich auftreten, könnten die Schäden aber ohnehin schnell Firmen ruinieren, die dafür garantieren sollen und der Steuerzahler ist dann wohl ohnehin in der Pflicht.

Wenn man bedenkt, daß hier ein Gesetz im Eilverfahren verabschiedet werden soll für eine Technologie, die noch nicht entwickelt wurde, von der wir noch nicht wissen, wie effizient sie werden kann, die teuer ist und zu erhöhtem Energieverbrauch führt, überkommt einen ein unbehagliches Gefühl. Ich habe den Verdacht, daß weder an Land noch im Meer über das Geoengineering eine entscheidende Menge an CO2 mit den diskutierten Verfahren effizient abgeschieden werden kann. Das heißt aber auch, daß gleichzeitig mit der Erkenntnis, daß wir bereits für eine Vermeidung eines gravierenden Klimawandels zu spät unsere Emissionen zurückfahren, uns auch die Alternativen ausgehen, den Schaden im Nachgang zu reparieren.

Mittwoch, 25. März 2009

Was will dieser freundliche, alte Herr eigentlich sagen?

Kommunikation ist ein schwieriges Geschäft. Wir reden oft mit Gedanken im Hinterkopf, und vergessen manchmal, daß diese unseren Zuhörern vielleicht nicht präsent sind. Plötzlich meinen wir das eine und die Zuhörer verstehen das andere. Fehler in der Kommunikation können aber auch Absicht sein. Politiker verschwurbeln gerne ihre Aussagen, um unangenehme Botschaften zu verstecken, ohne beim Flunkern ertappt zu werden. Verschwurbeln kann auch dabei helfen, einen Standpunkt so zu vertreten, daß seine Gegner glauben, sie würden hier unterstützt. Das schadet dem Standpunkt, nützt aber vielleicht dem Verschwurbler. Wie so etwas im Ansatz geht, habe ich schon bei der Leiterin der Gruppe für Klimawandelberatung am Hadley Centre Vicky Pope betrachtet.

Vicky Pope kann jedoch beim Meister in die Schule gehen, bei Hans von Storch, Leiter des Instituts für Küstenforschung am GKSS in Geesthacht. Von Storch wird von Leugnern gerne als einer der ihren zitiert. Er hatte schon in einem Artikel angeblich gezeigt, daß die Methodik von Mann et al. (Stichwort: Hockeystick) falsch wäre, wobei sich allerdings herausstellte, daß der Kritiker selbst falsch lag (dazu noch eine Aktualisierung hier), und ein Artikel, der darlegte, warum man aus 150 Jahre kurzen Zeitreihen keine Korrelationen gewinnen kann, um Veränderungen des Meeresspiegels über Jahrtausende als Funktion der globalen Temperatur darzustellen, wurde von einer überaus groben Pressemitteilung begleitet, mit der Stefan Rahmstorf vom Konkurrenten (sehen wir es mal realistisch von dieser menschlichen Perspektive) Potsdam Institut für Klimafolgenforschung abgewatscht wurde (siehe hier im vierten Absatz). Generell stellt sich von Storch (vielleicht mit Recht, vielleicht auch nicht – ich stecke zu wenig drin, um das beurteilen zu können) als jemand dar, der die Rolle der Wissenschaftler als rein unpolitisch sehen will, und der auf ein hohes Maß an Kritikfähigkeit in der Forschung hin arbeiten möchte. Was jene Leugner verstören könnte, ist jeder Hinweis darauf, daß von Storch grundsätzlich mit den Feststellungen des IPCC zum Klimawandel übereinstimmt. Ja, es gibt ihn, ja, er ist menschengemacht, ja, er wird erhebliche Ausmaße erreichen, wenn die Emissionen nicht drastisch gesenkt werden, ja, es wird ein Problem sein. Die Leugner haben da vielleicht den Spruch „Der Gegner meines Gegners ist mein Befürworter.“ Kreativ angewandt.

Der Titel eines neuen Kommentars im Spiegel Online ist: „Am Ende des Alarmismus“, und das sollte man sich mal anschauen, um einen Verschwurbeler eines Themas in Aktion zu sehen. Schon wieder muß ich fragen: „Wen meint der Mann?“ Vielleicht ist der Titel des Kommentars nicht von ihm. Immerhin unterstellt von Storch in dem Beitrag, daß die Treibhausgasemissionen zwar langsamer steigen, aber doch auch langfristig weiter zunehmen werden. Alle die damit verbundenen Auswirkungen, wie dem Anstieg des Meeresspiegels, Verschiebung von Klimazonen, Veränderungen im Wasserkreislauf, auftretender Not hält er für unvermeidlich. Aber, es wird auch andere Probleme geben. „Ich erwarte, dass Klima weiter als ein gewichtiges, handlungsnotwendiges Thema verstanden wird, aber eben nur als eines unter mehreren.“, schreibt er. Könnte es sein, daß er da etwas mißverstanden hat? War es wirklich je anders, hatten wir je einen gesellschaftlichen Konsens, daß es nur das Problem des Klimawandels gibt und sonst keines? Haben wir etwa schon mal gesagt „Hungersnöte? Können wir uns nicht drum kümmern, wir sind mit dem Klimawandel beschäftigt. Aids? Muß warten. Tsunami? Das steht jetzt wirklich nicht auf dem Programm. Weltfinanzkrise? Da machen wir etwas, wenn wir das Klimaproblem gelöst haben.“ Kurz gesagt, da baut gerade jemand einen riesigen Strohmann auf, damit er in den kommenden Zeilen etwas zum Abfackeln hat.

Später heißt es: „Der bisherige Hype der Klima-Angst wird durch eine andere Angst ersetzt werden. Das Klimathema wird nicht mehr wirklich ernstgenommen werden, sondern vor allem zur Motivation für eine allgegenwärtige Regulierung fast aller Lebensbereiche instrumentalisiert werden.“ Was meint der Mann damit? Vorher hat er ein Szenario dargestellt, in dem der Klimawandel mit allen Problemen fortschreitet und entsprechend auch die Aufgaben der Bewältigung des Klimawandels steigen. Jetzt, ohne eine Begründung dafür, redet er von einer Klima-Angst. Und diese Angst soll von einer anderen Angst ersetzt werden – das passt vielleicht dazu, wenn er weiter oben von einem Thema unter vielen redet. Dann aber meint er, das Thema böte Motivation zur Regulierung in allen Lebensbereichen. Wieso denn, wenn es in der Zukunft nur noch als ein Thema von vielen gilt und wenn es doch, wie er behauptet, dann keine Klima-Angst mehr gäbe?

Zum Schluß wird es endgültig wirr und verschwurbelt: „In diesem pessimistischen, aber vielleicht nicht unrealistischen Szenario, würde die Klimaforschung die gegenwärtige Aufmerksamkeit der Öffentlichkeit verlieren - trotz eines langen Feuerwerks immer wieder neu entdeckter Gefahren und in Aussicht gestellter Weltuntergänge. Am Ende stünde ein Rückzug auf die von den Wetterdiensten betriebenen Überwachungsaufgaben, spannende Nischenforschung im Elfenbeinturm und versprengte übriggebliebene Alarmisten.“ Was ist pessimistisch – daß die Klimaforschung die Aufmerksamkeit der Öffentlichkeit verliert, oder daß es immer neu entdeckte Gefahren gibt? Beides? Wie sollte da denn die Öffentlichkeit die Aufmerksamkeit verlieren? Durch die Gewöhnung an schlechte Nachrichten? Das mag sein. Aber das ändert ja nichts an dem Handlungsdruck. Oder meint er, daß sei alles erfunden, wie in Aussicht gestellte Weltuntergänge? Der Mann kennt ja den IPCC-Report. Welche in Aussicht gestellten Weltuntergänge meint er denn? Von wem redet er? Von Wissenschaftlern, von Umweltschutzverbänden oder von einzelnen Bloggern mit apokalyptischen Visionen? Wer sollen denn seine Alarmisten hier sein? Meint er andere Wissenschaftler? Oder redet er schon wieder von irgendwelchen Aktivisten? Den Artikel kann man zehnmal lesen, und man kommt immer noch nicht dahinter, wen von Storch eigentlich meint, wem er was unterstellt, und was er nun eigentlich will. Mein Eindruck ist, daß hier jemand nichts zu sagen hatte, und bei einem Kognak im Lehnstuhl mal einfach losgebrabbelt hat, was ihm gerade zufällig durch den Kopf schwirrte. Meinen kann man ja alles, und wenn man nichts davon belegen muß, ist das in 5 Minuten erledigt. Fertig ist der Kommentar. Leugner finden das Reizwort „Alarmisten“ im Titel, von Storch steht in der Presse und hat sich wieder als unabhängiger Geist geriert und im Grunde kann man ihm auch nicht nachweisen, daß er was Falsches gesagt hätte. Aber dem Verständnis der Klimaforschung wurde ein Bärendienst erwiesen. Selbst ob der Kommentar wenigstens dem Autor nützt ist fraglich, denn seriöser wirkt der Mann danach nicht.

Dienstag, 24. März 2009

Der Wärmeinseleffekt – neue Arbeiten dazu

Wenn man sich den Wärmeinseleffekt genauer anschauen will, um zu verstehen, wie stark er sich auf klimatologische Zeitreihen auswirken kann, sollte man wissen, wohin man schauen möchte. Wetterstationen in gewachsenen Stadtgebieten werden wohl eher nicht mehr davon betroffen sein, denn die Entwicklung der Wärmeinsel um die Station liegt in der fernen Vergangenheit. Europa beispielsweise bietet nur eine kleine Auswahl von Stationen, an denen man deutliche Effekte sehen könnte. In Schwellenländern kann man hingegen erwarten, daß gerade in den letzten Jahrzehnten oder Jahren große Stadtgebiete gewachsen sind, die deutliche Temperatureffekte bewirkt haben können. Was also liegt näher, als sich die Volksrepublik China herauszugreifen. Es gibt zwei Publikationen aus 2008, die sich damit beschäftigen.

Die eine ist: Jones, P.D., Lister, D.H. und Li, Q.: Urbanization effects in large-scale temperature records, with an emphasis on China, JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 113, D16122, doi:10.1029/2008JD009916, 2008.


Hier wurde tatsächlich untersucht, wie groß denn der Wärmeinseleffekt in ausgewählten Städten sein kann (z.B. über eine Verteilung der Differenzen der Temperaturen an Stadtstationen zu einer Station im Umland für verschiedene Jahreszeiten von 1961 bis 2006). Dabei fanden die Autoren, daß in London in Wetterstationen im Stadtgebiet eine Erwärmung gegenüber dem Umland von 1,5 Grad zu sehen ist, in Wien immerhin von 0,3 Grad. In beiden Fällen liegt diese Erwärmung aber so weit zurück in den Daten, daß es ohne Bedeutung für die globale Erwärmung seit 1961 ist. Die Temepraturanomalien (gemessene Temperatur minus dem Mittelwert an dieser Stelle von 1961-1990) laufen bei städtischen und ländlichen Stationen ohne sichtbaren Unterschied. Eine solche Analyse müßte man natürlich separat für jede andere Station machen, bei der man einen Wärmeinseleffekt vermutet, wie die Autoren erklären.

Die Autoren haben sich aber auch angeschaut, wie sich der Effekt auf Stationen in China auswirkt. Das ist natürlich nicht die erste Arbeit zu dem Thema – im Artikel werden 7 andere Untersuchungen zum Wärmeinseleffekt in China zitiert, in denen bereits gefunden wurde, daß sich die städtischen Stationen stärker erwärmen als solche im Umland. In China kann man also schauen, wie sich Wärmeinseleffekte auf Temperaturdaten auswirken, die immerhin eine größere Landfläche charakterisieren.

Bevor man die Temperaturdaten benutzt, muß man Effekte wie zum Beispiel eine Verlagerung der Meßstation herausrechnen, um alle Daten vergleichbar zu machen. Die Autoren erläutern nun, daß diese Homogenisierung insgesamt auf die Erwärmung in den Daten keinen Effekt hat. Die verschiedenen Korrekturen in die eine oder andere Richtungen für verschiedene Stationen mitteln sich für alle Stationen fast raus. Vergleiche der homogenisierten Daten ergaben dann, daß die Ergebnisse kaum davon beeinflusst werden, ob man über eine größere Zahl von Zeitreihen verschiedener Meßstationen mittelt oder nach einem gängigen Verfahren ein Gebietsmittel für China aus den gemessenen Temperaturdaten errechnet.

Nun erhob sich die Frage, mit was man die Stationsdaten aus China vergleichen sollte, um den Wärmeinseleffekt zu beobachten. Eine Möglichkeit wäre, ländliche Stationen ohne einen Wärmeinseleffekt heranzuziehen. Leider gibt es in China nur wenige Stationen, die ausdrücklich für diesen Zweck vorgehalten werden. Man kann jedoch stattdessen die Temperaturzeitreihen der chinesischen Landstationen mit der der Meeresoberfläche vor China vergleichen. Hier gibt es ganz sicher keinen Einfluß durch eine wachsende Besiedlung. Leider ist diese Referenz aber auch sonst sehr verschieden vom Land. Das Meer erwärmt sich deutlich anders als Landflächen, schwächer und auch später, durch die große Wärmekapazität des Meeres.

Trotz dieser Schwäche, die den Wärmeinseleffekt vielleicht zu groß darstellen könnte, verglichen die Autoren die Landtemperaturen mit den Meeresoberflächentemperaturen des HadSST-Datensatzes des Hadley Centres. Dabei stellten sie fest, daß die Landtemperaturen sich eher sprunghaft gegenüber dem Meer in den 70er Jahren erhöhten. Dessen ungeachtet, erhielten sie über den gesamten Zeitraum einen Wärmeinseleffekt von 0,11 Grad je Jahrzehnt (bis runter zu 0,08 Grad je Jahrzehnt für verschiedene Jahreszeiten) und schlossen daraus, daß der Wärmeinseleffekt für China im Mittel 0,1 Grad je Jahrzehnt ausmachen sollte. Da die chinesische Landfläche sich über diesen Zeitraum um 0,25 Grad je Jahrzehnt bzw. 1981-2004 um 0,57 Grad je Jahrzehnt erwärmte, ist also 60% der Erwärmung für diesen Zeitraum und 82% der Erwärmung von 1981-2004 in China durch die globale Erwärmung bedingt – der Rest ist der Wärmeinseleffekt.

Eine chinesische Arbeitsgruppe hat sich des gleichen Problems angenommen, allerdings die Jahre 1961 – 2000 betrachtet. Ren, G., Chu, Z., Zhou, J., Zhou, Y., Zhang, A., Guo, J., Liu, X., Urbanization Effects on Observed Surface Air Temperature Trends in North China, Journal of Climate, 21, 1333-1348 (2008) (DOI: 10.1175/2007JCLI1348.1) haben sich 282 Stationen in China vorgenommen und sie in städtische (klein, mittel, groß und Metropolis) und ländliche Stationen aufgeteilt. Für jede der Gruppen wird die mittlere Erwärmung gegenüber dem ländlichen Datensatz festgestellt, die von 0,16 Grad je Jahrzehnt bei den großen Städten bis zu 0,07 Grad bei den kleinen Städten reicht. Auch für die nationalen Referenzstationen für Klimaanalysen wird im Mittel ein Wärmeinseleffekt von 0,11 Grad je Jahrzehnt festgestellt. Daraus resultiert in diesem Datensatz, daß 38% der Erwärmung vom Wärmeinseleffekt verursacht wurden bzw. 62% das klimatische Erwärmungssignal darstellen. Das entspricht, wenn man den anderen Zeitraum berücksichtigt, den Ergebnissen von Jones et al.


Was bedeutet das global? Ich mache hier mal eine Milchmädchenrechnung auf. Man muß berücksichtigen, daß nur Teile der Landmasse den Wärmeinseleffekt zeigen können, und in China wirkt er sich vergleichsweise stark aus. In Europa wird man hingegen in vielen Regionen keinen Wärmeinseleffekt mehr beobachten können. Und die Meere, weit mehr als 2/3 der Erdoberfläche, fallen ganz heraus. Nehmen wir mal an, die Hälfte der Landdaten wäre mit einem Wärmeinseleffekt von 0,1 Grad je Jahrzehnt kontaminiert, hätten wir 0,015 Grad je Jahrzehnt zu berücksichtigen oder 0,15 Grad für das gesamte Jahrhundert. Diese Zahl ist allerdings ganz sicher falsch, denn ich habe hier willkürliche Annahmen gemacht. Wir suchen aber einen Effekt, der höchstens so groß sein kann, vermutlich aber deutlich kleiner ist.

Daß der Effekt wahrscheinlich kleiner ist, ergibt sich nämlich nicht nur daraus, daß man bei vielen europäischen Stationen vermutlich ähnlich wie in London oder Wien keinen Wärmeinseleffekt in den Temperaturanomalien sehen wird, sondern auch, wenn man einen Blick auf die Daten aus den USA wirft, einer weiteren großen Region, für die man eigentlich annehmen würde, daß der Effekt hier eine Rolle spielen könnte.

2008 erschien ein Bericht zum US Historical Climatology Network (USHCN) über ihre monatlichen Temperatur- und Niederschlagsdaten, der dann zu einer Publikation von Williams, C.N., Menne, M.J., und Palecki, M.A. im Journal of Geophysical Research 2010 führte, in dem dargestellt wurde, welche Korrekturen an diesen Daten vorgenommen werden. Der USHCN-Datensatz wird verwendet, um den Klimawandel in den USA zu beobachten. Die wichtigsten Korrekturen sind:
  • Beobachtungszeit: wenn sich die Beobachtungszeit verändert, verändern sich auch Tages- und Monatsmittel, weil es einen Tagesgang der Temperatur gibt. Wenn ich bei den Beobachtungen von Mitternacht auf 2 Uhr morgens gehe, werde ich in der Tendenz kältere Ablesungen haben und müsste demnach die Tages- oder Monatsmittel nach oben korrigieren.

  • Art des Thermometers: verschiedene Temperaturmeßsysteme zeigen gegeneinander eine systematische Abweichung. Für die kann korrigiert werden.

  • Stationshistorie: werden Stationen z.B. verlagert, ergibt sich eine ständige Abweichung, für die korrigiert werden kann.

  • Fehlende Daten: die müssen mit Hilfe der Zeitreihen anderer Stationen ergänzt werden.

  • Wärmeinseleffekt: auch hier ergibt ein Vergleich mit unbeeinflußten Stationen eine Korrektur.

In der Arbeit sieht man sehr schön in einer Graphik die relativen Effekte der Korrekturen.
Die verschiedenen Farben stellen die Größe der jeweiligen Korrekturen an den Daten dar. Die violette abfallende Linie ist die Korrektur für den Wärmeinseleffekt. Für die volle Größe das Bild bitte anklicken.

Danach dominieren die Korrekturen der Beobachtungszeit und der Stationshistorie, die beide eine Erwärmung der Rohdaten erfordern. Der Wärmeinseleffekt kommt dann der Größe nach auf den dritten Platz und erreicht über das gesamte 20. Jahrhundert etwa 0,05 Grad Celsius bzw. 0,005 Grad je Jahrzehnt, ein Drittel meiner oberen Grenze aus der Milchmädchenrechnung.

Montag, 23. März 2009

Wärmeinseleffekt - Einführung

Mal nichts Neues, sondern eine ganz alte Frage, die aber immer wieder kommt: Woher wissen wir, daß der globale Temperaturanstieg kein Wärmeinseleffekt (englisch: UHI für urban heat island) ist?

Der Wärmeinseleffekt ist die im Mittel höhere Temperatur in einer Stadt gegenüber dem Umland. Der Effekt hat mehrere Ursachen: versiegelte, bebaute und betonierte Flächen heizen sich bei Sonneneinstrahlung stärker auf, weil hier weniger Wasser verdunstet werden kann. Unter Umständen ist auch die Albedo geringer und daher die Strahlungsabsorption höher. Im Winter führt die Beheizung der Gebäude zusätzlich zu einer Erwärmung der Umgebung. Aber auch im Sommer wirken Beleuchtung, Verkehr und anderer Energieverbrauch (z.B. auch durch Klima- und Kühlanlagen) als zusätzliche Wärmequellen. Messfahrten in Städte hinein belegen Temperaturunterschiede von mehreren Grad Celsius.

Meteorologische Messstationen für die Temperatur können im Laufe der Zeit von sich ausdehnender Wohnbebauung umschlossen werden. Das führt dazu, dass im Laufe der Zeit die mittleren gemessenen Temperaturen an den Stationen einen ansteigenden Trend haben. Diesen Trend muß man erkennen und aus der Zeitreihe entfernen, wenn man sie benutzen will, um globale Klimatrends zu identifizieren. Hier sind verschiedene Maßnahmen möglich. Zum einen der Vergleich mit Temperaturentwicklungen nahe liegender Stationen außerhalb von Siedlungsgebieten, um den Wärmeinseleffekt zu beziffern und eine Korrekturfunktion zu bestimmen. Zum anderen die Verlegung der Station außerhalb des Siedlungsgebietes. Schließlich, wenn die Station sehr plötzlich eine Umgebungsänderung erfährt und dadurch ein Sprung in der Temperaturzeitreihe auftritt, Korrektur dieses Sprungs (der Inhomogenität) direkt an der Zeitreihe.

Da all dies schon seit dem frühen 20. Jahrhundert Meteorologen bekannt ist und eine entsprechende Pflege der Stationszeitreihen betrieben wird, ist es etwas verwunderlich, dass der Vorwurf von manchen erhoben wird, es sei trotzdem ein Wärmeinseleffekt in den globalen Temperaturzeitreihen versteckt. Was kann man da tun?

Was man nicht tun kann, ist das, was in einigen Blogs betrieben wird: Fotos von Stationen zu sammeln, die mehr oder weniger schlecht plaziert sind und deshalb der oben genannten Korrekturen an den Zeitreihen bedürfen. Auf diese Weise gelingt nämlich nicht der Nachweis, ob solche Stationen nach den durchgeführten Korrekturen etwas an der globalen Temperaturzeitreihe ändern.

Man kann natürlich die Temperaturzeitreihen auf einen Wärmeinseleffekt untersuchen. Dazu hilft es, Tage mit starkem und schwachem Wind zu trennen. Ist der Wind stark, kann sich die städtische Umgebung gegenüber dem Umland nicht so stark aufheizen. Die Luft an der Meßstation ist viel repräsentativer für das nicht-städtische Umland. Solche Vergleiche wurden durchgeführt und festgestellt, daß beobachtete Erwärmungstrends davon nicht beeinflußt wurden: kein Wärmeinseleffekt.

Was man auch tun kann, ist einen Vergleich mit solchen Größen durchzuführen, die sicher nicht vom Wärmeinseleffekt betroffen sind. Die Oberflächentemperatur der Meere ist ganz sicher nicht vom Wärmeinseleffekt betroffen. Und tatsächlich sieht man die globale Erwärmung auch auf den Meeren. Der Wermutstropfen dabei ist aber, daß die Meere sich langsamer erwärmen werden als das Land, weil hier ständig eine Wärmeaufnahme durch tiefere Meeresschichten erfolgen kann. Es wird also erwartet, daß der Erwärmungstrend der Meere dem Land ein wenig hinterherhinkt und das sieht man auch. Skeptiker könnten einwenden: naja, zumindest ein bisschen UHI-Effekt ist vielleicht doch da.

Als nächstes kann man Satellitenmessungen der globalen Temperatur betrachten, weil hier die gesamte Erdoberfläche gleichberechtigt eingeht. Es gibt allerdings drei Mankos: die Satellitenmessungen erfassen nicht die Pole. Das gibt den Tropen ein etwas höheres Gewicht. Da wir wissen, daß die Temperatur durch den Treibhauseffekt in der Arktis stärker steigen sollte, als in den Tropen, sollten Satellitenmessungen die globale Erwärmung möglicherweise unterschätzen. Das zweite Manko ist, daß die Satelliten nicht genau die Temperatur 2 Meter über dem Boden erfassen, wie es Standard bei den Messstationen ist. Die Satellitentemperatur ist die mittlere Temperatur einer größeren Schicht, die gerade aufgelöst werden kann, im Fall gängiger Produkte wie RSS und UAH nimmt man hier die unteren 10 km mit dem Schwergewicht auf den unteren 4 km. Das dritte Manko ist, daß die Satelliten gar nicht die Temperaturen messen. Sie messen die Infrarotstrahlung bei bestimmten Wellenlängen. Auf der Erde werden diese Daten mit der erwarteten Strahlungsstärke nach dem Planckschen Strahlungsgesetz unter Berücksichtigung einer Reihe von Korrekturen abgeglichen, etwa für Störeinflüsse, z.B. Wolken, Staub, Inhomogenitäten in der Luft. Es werden unterschiedliche Sichtwinkel einbezogen, um verschiedene Höhenschichten aufzulösen und so schließlich aus den Satellitendaten mit Hilfe eines Modells die Temperaturen berechnet. Es ist ein schwieriges Geschäft und als man damit anfing, hat man erstmal lernen müssen, mit diesen Daten umzugehen. Der Höhenverlust der Satelliten durch Reibung mit Ausläufern der Atmosphäre führt dabei zu weiteren Fehlern, die auch wieder korrigiert werden müssen. Das war vor allem in den Daten der University of Alabama in Huntsville (UAH) ein länger andauerndes Problem. Alles in allem zeigen die Satellitendaten jedoch die gleiche globale Erwärmung wie die Bodendaten.

Ein weiterer Vergleich kann mit Größen erfolgen, die die Temperaturentwicklung eines größeren Zeitraums aufaddieren. Das ist die Entwicklung der Gletscher und des Polareises. Auch hier gibt es Mankos. Gletscher sind auch abhängig von der Niederschlagsentwicklung. Mehr Niederschläge führen zu mehr Eis auf den Gletschern, die dadurch unabhängig von der Temperaturentwicklung wachsen könnten. Beim Polareis ist das Manko, daß es nur ein regionaler Indikator ist, eben für den polaren Bereich. Nun sagen die Modelle voraus, daß die Temperaturen im Klimawandel zunächst in der Arktis anwachsen werden, die Antarktis hingegen zunächst keinen Temperaturzuwachs zeigen soll. Man muß sich also auf die Arktis konzentrieren – global gesehen ein kleines Gebiet, das sehr begrenzt etwas über globale Temperaturen aussagt.

Das Ergebnis der Vergleiche ist nichtsdestotrotz:



  • Die Gletscher weichen im Schnitt seit Jahrzehnten global zurück, die globale Temperatur steigt im Mittel langfristig an.

  • Die Meereisbedeckung in der Arktis geht, so lange eine Beobachtung durch Satelliten erfolgt, stetig zurück.

Das ist kein Beweis dafür, daß der Wärmeinseleffekt zu 100% korrekt aus den Temperaturdaten herausgefiltert wurde. Aber es ist ein Beweis dafür, daß der Wärmeinseleffekt die beobachtete globale Erwärmung nicht erklären kann und im Vergleich zum Trend sehr klein sein muß. In einem Folgebeitrag möchte ich Beispiele für Untersuchungen zum Wärmeinseleffekt vorstellen.

Verstehen sich Wissenschaftler und Politiker?

Bei der Tagung zur Klimaforschung in Kopenhagen vom 10. – 12. März gab es eine Abschlussdiskussion, in der Wissenschaftler, Politiker und Journalisten im Podium saßen. Sie sollten diskutieren, welche Schlussfolgerungen aus der Tagung resultieren. In der Tagung entstand der Eindruck, daß der Klimawandel in einigen Betrachtungsgrößen schneller abläuft, als in den IPCC-Berichten angenommen (z.B. Seeeis, Meeresspiegel) und die Emissionen der Treibhausgase den schlimmsten Erwartungen entsprechen (vor allem durch das unerwartet starke Wachstum uneffizienter Kohleverbrennung in China in den letzten 8 Jahren). Zudem hat sich in den letzten Jahren die Datenlage verändert für die möglichen Folgen eines bestimmten Grades der globalen Erwärmung. Das betrifft nicht nur, daß die Bedrohung des Lebensraums Meer kritischer gesehen wird, insbesondere durch die erhebliche Senkung des pH-Wertes, die durch den Anstieg des CO2-Mischungsverhältnisses erwartet wird. Manche Risiken wurden bei deutlich niedrigeren Erwärmungen gesehen. Schon bei 2 Grad globaler Erwärmung werden erhebliche Folgen für möglich gehalten, wie z.B. Instabilität des westantarktischen Eisschildes, Verlust der meisten Gletscher, extreme Wetterereignisse und Dürren und Verlust essentiellen Ackerbodens.

Nachdem all dies zusammengefasst wurde, fragte ein entnervter dänischer Ministerpräsident Rasmussen: „Ich brauche jetzt irgendeinen konkreten Rat. Stefan Rahmstorf sagte 2 Grad, das 2-Grad-Ziel, sei nicht sicher. Nun, ich muß jetzt von dem Beirat wissen, ob wir als Politiker uns auf die Empfehlungen des IPCC verlassen können oder nicht? Ich muß das wissen. Und ich werde ihnen sagen, warum. Ich habe, wir haben eine harte Auseinandersetzung in der Europäischen Union gehabt und uns schließlich für das 2-Grad-Ziel entschieden. Es war eine echte Herausforderung, diesen Punkt zu erreichen. Und nun sagen sie mir, “Es ist nicht genug.“ Jetzt muß ich wissen, und ich muß es heute wissen, ist es genug oder müssen wir dieses Ziel ändern, denn das ist grundlegend. Wir haben nun 9 Monate übrig vor einer sehr, sehr wichtigen Konferenz in diesem Saal. Es wird eine echte Herausforderung, und nun denke ich, daß die wissenschaftliche Welt eine Vereinbarung mit sich selbst abschließen muß, was ist die wahre Plattform für die Politiker?“

Das faßt das ganze Dilemma zusammen. Politiker müssen Entscheidungen treffen. Diese Entscheidungen erfordern Kompromisse, weil die Macht in Ländern und noch mehr in der Welt verteilt ist. Man muß viele Partner mit widerstrebenden Interessen einigen und braucht dafür eine entscheidungsfähige Vorlage. Die sollte definitiv sein. Die Wissenschaft hingegen versucht immer den aktuellen Stand der Daten und der Diskussion zu berücksichtigen. Alle ihre Feststellungen unterliegen der dauernden Bewertung, die bei Verbesserung der Erkenntnislage auch Revisionen erfordert.

Eigentlich brauchen die Politiker Dolmetscher, die sowohl die Wissenschaft verstehen, aber auch in der Lage sind, Politikern definitive Aussagen an die Hand zu geben. Das bedeutet, sie müssen den Mut haben, aus einem Ergebnis, daß mit 10%-Wahrscheinlichkeit nicht auszuschließen ist, daß eine Prognose falsch ist, die Aussage zu machen: die Prognose ist zutreffend.

Auch die Politiker müssen lernen. Sie müssen verstehen, daß es bei einem komplexen System wie der Atmosphäre keine starren und exakten Grenzen geben kann. Die Welt bei 1,9 Grad und 2,1 Grad Erwärmung mag verschieden sein, aber es ist ein Unterschied, der von Modellen (für Klimafolgen) nicht aufgelöst werden kann. Das gilt für jeden Punkt, und bei jeder einzelnen Klimafolge gibt es eine andere Skala, die noch wahrgenommen werden kann. Dazu kommt, daß natürliche Fluktuationen auf dem Erwärmungstrend aufliegen, die nicht vorhersagbar sind, etwa die Einstrahlung von der Sonne, Vulkanismus, Meereszirkulation.
Beruhigend ist immerhin, wie ernst das Thema der Klimaänderungen in der Politik mittlerweile genommen wird. Zumindest in der EU setzt man Ziele, die auf ein Klimaziel von 2 Grad Erwärmung hinführen wird. Da die USA nun mitmachen, läßt das für die politische Klimatagung in Kopenhagen hoffen, daß internationale Ziele für Emissionsminderungen gesetzt werden können.

Einen weiteren Kommentar zum Konferenzabschluß findet man hier (auf Englisch).

Sonntag, 22. März 2009

Wenn die Fachbegutachtung scheitert - Gerlich und Tscheuschner malen sich die Welt, wie es ihnen gefällt

Vorweg bitte ich um Entschuldigung dafür, daß der Beitrag diesmal sehr lang geworden ist. Inzwischen habe ich ihn mit Zwischenüberschriften stärker gegliedert.
Es gibt weitere Blogs zum Thema, z.B. kann man bei Georg Hoffmann vorbeischauen.
(7.4.2009) Inzwischen gibt es auch eine englische Übersetzung bei Eli Rabett. Bei der Gelegenheit wurden noch kleinere Unebenheiten ausgebügelt. Unter anderem hat er mich darauf aufmerksam gemacht, daß sich die Version des Artikels von Gerlich und Tscheuschner, auf die ich verlinke und die, die im International Journal of Modern Physics abgedruckt ist, geringfügig voneinander unterscheiden. Für die Diskussion hier ist das nicht von Belang, aber Seitennummern können voneinander abweichen.

Die Fachbegutachtung

Die wissenschaftliche Diskussion erfolgt in erster Linie durch den Austausch von begutachteten Fachartikeln (peer review). Das Verfahren hat sich eingebürgert, um Zeit zu sparen und Ressourcen zu schonen. Im Prinzip könnte jeder nach Belieben Artikel an Fachzeitschriften einsenden, um auch mal Wissenschaft zu spielen. Dann hätten wir (vielleicht) wöchentlich telefonbuchdicke Fachzeitschriften in jedem Bereich, in denen 90% der Beiträge unbrauchbar sind. Die Fachbegutachtung soll Beiträge sieben und dafür sorgen, daß diese lesbar sind, damit die Fachzeitschriften insgesamt lesbar sind. Wie gut das funktioniert, hängt davon ab, wie viel Zeit sich die Fachbegutachter nehmen, wie sorgfältig sie arbeiten und wie nah sie mit ihrer eigenen Arbeit bei dem begutachteten Artikel liegen. Die Fachbegutachtung ist keine Garantie dafür, daß die begutachtete Arbeit richtig ist. Das zeigt sich eher daran, ob andere Arbeiten darauf aufbauen können (die Arbeit wird oft zitiert), ob die Arbeit der Kritik der Kollegen standhält (manche Arbeiten werden kommentiert, was dann auch zu Korrekturen führen kann) und ob sie mit anderen Arbeiten übereinstimmt (korrekte Erkenntnisse lassen sich reproduzieren oder auf anderen Wegen bestätigen). Die Fachbegutachtung nehmen in der Regel zwei (oder mehr) Wissenschaftler ehrenamtlich vor, die selbst über ähnliche Themen publiziert haben. Normalerweise sind diese Personen für die Autoren des Artikels anonym. In stark spezialisierten Gebieten ist aber die Auswahl an fähigen Fachbegutachtern klein und die Chance groß, daß man aus Kommentaren schon erahnt, wer da dran gearbeitet hat.

Das System hat natürlich seine Schwächen. Es gibt nachlässige Fachbegutachter, es gibt solche, die dem Konkurrenten mal einen reinwürgen wollen oder den geschätzten Partner durchwinken und solche, die einfach überfordert sind. Letzteres passiert um so leichter, je randständiger eine Arbeit zum üblichen Fokus einer Zeitschrift ist, denn dann weiß auch der Redakteur nicht so genau, wenn er den dazu als Fachbegutachter auswählen könnte. Manche Fachbegutachter verstecken sich hinter ihrer Anonymität, andere fürchten vielleicht, daß sie nicht mehr unabhängig urteilen könnten, wenn die Begutachtung nicht anonym erfolgte. Es wird immer wieder darüber diskutiert, daß die Fachbegutachtung fehlerhaft sei und es werden Verbesserungen vorgeschlagen, aber bei allen Schwächen ist es das System, was wir haben, und das für 90% der Arbeiten anscheinend funktioniert. Manche denken leider, die Aufgabe der Fachbegutachtung wäre, daß hinter ihr nur noch korrekte, seriöse, gut formulierte Fachbeiträge ohne Kungelei stünden. Die Erwartung ist naiv. Die Fachbegutachtung sorgt dafür, daß im allgemeinen die Chance, daß ein eingesandter Beitrag veröffentlicht wird, um die 50-70% liegt (je nach Anspruch der Zeitschrift mehr oder weniger) und hinter der Fachbegutachtung die meisten Artikel es wert sind, sich näher mit ihnen zu befassen, wenn das Thema für die eigene Arbeit relevant ist.

Manchmal versagt die Fachbegutachtung allerdings auch so sehr, daß man sich an den Kopf faßt und einem die Worte fehlen.

Das Machwerk, das ein Fachartikel sein will

Es gibt da von den Physikprofessoren Gerlich und Tscheuschner ein Machwerk, daß seit drei Jahren in Leugnerkreisen gerne verwendet wird. In ihm wird allen ernstes behauptet, daß hier der Treibhauseffekt widerlegt würde. Man bräuchte darüber nicht zu reden. Es ist so offensichtlich falsch, daß man seine Zeit nicht damit verschwenden will. Es gibt Leute, die wollen immer noch beweisen, daß man ein Perpetuum Mobile bauen kann, daß die Relativitätstheorien falsch sind oder die Welt in 6 Tagen erschaffen wurde. Das ist nicht der Stoff für wissenschaftliche Diskussion und sollte durch die Fachbegutachtung herausgesiebt werden. Doch Gerlich und Tscheuschner haben in einer Fachzeitschrift für Physik ihren Beitrag durchbringen können. Beim International Journal of Modern Physics, B Serie handelt es sich allerdings nicht um eine Fachzeitschrift für Geophysik, Klimatologie oder Meteorologie sondern um ein Journal über die Physik kondensierter Stoffe, Hochtemperatursupraleiter, statistische und angewandte Physik. Das ist für den aufmerksamen Beobachter schon ein Zeichen dafür, daß hier etwas nicht stimmt. Bei einer Zeitschrift mit einer solchen Spezialisierung kann man keine Expertise dafür erwarten, was denn für das Klima relevant ist. (Vielleicht haben hier noch nicht mal Fachbegutachter ihre Unfähigkeit demonstriert, denn der Beitrag von Gerlich und Tscheuschner steht da als Übersichtsartikel (review article) und nicht als Forschungsbeitrag (research article). Übersichtsartikel müssen laut Selbstbeschreibung der Zeitschrift von diese eingeladen werden, während Forschungsartikel zwingend begutachtet werden müssen. Die Formulierung läßt vermuten, daß für Übersichtsartikel keine Begutachtung nötig ist, sondern nur ein guter Kumpel unter den Redakteuren. ) Hier muß ich mich korrigieren - wie Georg Hoffmann durch Nachfrage herausgefunden hat, ist der Artikel tatsächlich durch eine Begutachtung gelaufen, durch wen auch immer...

Nichtsdestotrotz ist das Machwerk nun in einer Fachzeitschrift publiziert. Also muß man doch mal darlegen, was eigentlich faul ist. Das wird einem nicht einfach gemacht. Das Schreiben ist ungewöhnlich lang. Die elektronische Ausgabe hat 115 Seiten. Für einen Übersichtsartikel ist das zwar möglich, aber ich werde noch darauf zu sprechen kommen, daß der Beitrag in der Form kein Übersichtsartikel sein kann. Das eigentliche Problem, den Treibhauseffekt, könnte man in weniger als 10 Seiten abhandeln. Eine Entgegnung zu dem Artikel, in dem Arthur Smith den Treibhauseffekt nachweist, kommt mit 9 Seiten aus. Würde wirklich eine Übersicht über die gesamte relevante Literatur über den Treibhauseffekt geliefert, könnte das vielleicht einen größeren Umfang haben. Aber genau das wird hier nicht getan. Da kaum Literatur zum eigentlichen Thema diskutiert wird, ist der Beitrag als Übersichtsartikel nur eine Parodie.

Ein weiteres Merkmal des Beitrags ist, daß die Autoren vor allem Scheinprobleme aufstellen. Diese werden dann „gelöst“, sind aber für das eigentliche Thema nicht relevant. Zum Beispiel beschäftigt sich der Beitrag intensiv mit der Wärmeleitung. Der Treibhauseffekt ist aber ein Effekt des Strahlungshaushalts der Erde, und die Wärmeleitung dafür irrelevant.

Die Arbeit ist durchsetzt von Polemiken, die in wissenschaftlichen Arbeiten gar nichts zu suchen haben. Insoweit handelt es sich hier der Form nach streckenweise gar nicht um einen wissenschaftlichen Beitrag, sondern um einen politischen Kommentar mit fachlichem Hintergrund. Auch die wäre ein Warnsignal dafür, daß hier eine Arbeit ohne wissenschaftlichem Wert vorliegt, die einen Fachartikel imitieren soll. Die Vermutung liegt nahe, daß der Beitrag deshalb so lange ist, weil mit umständlichen Abhandlungen über Scheinprobleme Wissenschaftlichkeit vorgetäuscht werden soll, wo in Wahrheit fachliche Expertise fehlt.

Bezeichnend ist die Literaturliste. Ich finde da viele Bücher, auch Lehrbücher, ohne Seitenangabe. Man darf also das ganze Buch durchlesen, um herauszufinden, was da eigentlich eine Aussage im Text stützen soll. Das macht man unter besonderen Umständen, wenn z.B. auf Einführungstexte verwiesen werden soll, in Einzelfällen oder mit Seitenangabe. In der vorliegenden Form ist es aber nicht hilfreich. Die zitierten Bücher sind teilweise selbst Meinungswerke und politische Polemiken. Es wird vielfach auf Polemiken oder auf Beiträge anonymer Autoren aus dem Internet oder aus grauer Literatur verwiesen. Außerdem werden Zeitungsartikel zitiert, sehr ungewöhnlich in einem naturwissenschaftlichen Artikel. Ein großer Teil der zitierten Literatur hat keine Beziehung zum Treibhauseffekt bzw. zu Fragen des Strahlungsgleichgewichts. Offensichtlich gehört eine Erörterung von Temperaturrekonstruktionen der letzten 2000 Jahre hier nicht hinein, vor allem nicht, wenn es hier nur darum geht, Michael Mann abzuwatschen. Man findet eine Reihe bekannter Leugner zitiert, sozusagen ein Rückenstreicheln unter Genossen. Für historische CO2-Werte wird etwa der pensionierte Lehrer Beck zitiert, der dazu völligen Quatsch in einem Soziologiemagazin publiziert hatte. Wenn solche Zitate gleichberechtigt neben denen von Keeling und anderen seriösen Forschern stehen, dann wird klar, daß es sicher nicht um eine seriöse Darstellung der Forschung über CO2-Mischungsverhältnisse in der Hintergrundatmosphäre geht.

Das Machwerk beginnt bereits im Abschnitt 1, Introduction, die alleine 9 Seiten einnimmt (!), damit, daß verschiedene irrelevante Punkte gestreift werden. Beim Treibhauseffekt ist die Wärmeleitfähigkeit von CO2 oder anderen Gasen unwichtig. Und die Argumentationsbasis des IPCC zum Treibhauseffekt ist nicht, wie G&T behaupten, daß es darüber einen mysteriösen Konsens gäbe, sondern die dazu zitierte Literatur (siehe dort).

Die Atmosphäre ist kein Treibhaus

Damit sind wir bereits im Abschnitt 2. Zunächst weisen die Autoren in 2.1 in langen, umständlichen Rechungen nach, daß das Stefan-Boltzmann-Gesetz nicht gilt, wenn man sich ein Spektrum mit wenigen einzelnen Banden anschaut. Das ist zwar richtig, aber auch bekannt, und für den Treibhauseffekt nicht relevant. Das Stefan-Boltzmann-Gesetz wird nämlich nicht dafür verwendet, um den Treibhauseffekt in Modellen zu berechnen. Es dient nur der Abschätzung im Rahmen eines vereinfachten Modells, wie groß denn der Treibhauseffekt ungefähr sein könnte. In Abschnitt 2.2 wird die Sonne als schwarzer Strahler mit einer Temperatur von ca. 5780 Grad angenähert. Was für eine Überraschung! Man hätte dafür auf ein Lehrbuch verweisen oder relevante Literatur zitieren können. Es bläht den Beitrag auf in einer Anstrengung, ihn wissenschaftlich erscheinen zu lassen. In 2.3 und 2.4 wird dann erläutert, daß ein Auto an einem schönen Sommertag innen heiß wird, und es folgt eine sehr lange, komplizierte Erklärung, warum das so ist. Seitenlange Erläuterung ohne jeden Bezug zum eigentlichen Thema, nämlich dem Treibhauseffekt, in denen aber gleich Polemiken gegen Wissenschaftler wie Raschke versteckt sind. In 2.5 wird das erweitert um ein Experiment mit einem Treibhaus, dessen Scheiben aus Kalium- oder Natriumchlorid bestehen und infrarote Strahlung durchlassen, um zu belegen, daß ein Treibhaus durch die Blockierung des konvektiven Wärmetransports warm wird. Auch dieses hat keinen Bezug zum Treibhauseffekt in der Atmosphäre. Das alles hätte einen Sinn für eine Streitschrift, sich zu überlegen, welche didaktischen Beispiele man wählt, um Schülern den atmosphärischen Treibhauseffekt zu erklären, aber es steht in keiner Beziehung zu wissenschaftlichen Arbeiten dazu. Um es noch mal zusammenzufassen, ist die Hauptaussage des Abschnitts 2, daß ein Treibhaus sich nicht dadurch erwärmt, daß Infrarotstrahlung zurückgehalten wird, sondern dadurch, daß die turbulente Wärmeleitung unterbunden wird. Da der Treibhauseffekt ein Effekt des Strahlungshaushalts der Erde ist, ist diese ganze Erörterung dafür ohne Relevanz.

Was ist der Treibhauseffekt ?

In Abschnitt 3 geben dann die Autoren vor, nach einer Definition des Treibhauseffektes zu suchen. Abschnitt 3.2 ist dabei ein Überblick über, nein, keine Fachliteratur, sondern graue Publikationen und Pressekommentare von Leugnern und irgendwelchen Äußerungen von irgendwelchen Leuten irgendwo. So etwas habe ich noch nie in einem Fachartikel gesehen. In 3.3 werden dann willkürliche Erklärungen, was der Treibhauseffekt sei, aus verschiedensten Quellen aufgelistet, inklusive anonymen Quellen (bezeichnet als Anonymous 1, 2 und 3, für niemanden nachvollziehbar – könnte von den Autoren auch erfunden sein) und einem Konversationslexikon. Das wäre komisch, wenn es nicht traurig wäre. Dabei gibt es Lehrbücher, in denen der Treibhauseffekt präzise erklärt wird. Man hätte nur ein einziges davon zu nehmen brauchen. Das Sammelsurium von Gerlich&Tscheuschner können die Autoren natürlich teilweise zumindest formalistisch als falsch zurückweisen. Das ist aber nicht relevant. Was hier erfolgt, entspricht den Abläufen eines Strohmannangriffs, den ich bereits erläutert habe.

Unter den Zitaten ist aber z.B. auch eine korrekte Beschreibung der Deutschen Meteorologischen Gesellschaft von 1995. Die Autoren behaupten, sie zu widerlegen. Sie greifen aber gar nicht die Grundaussage ihres Zitates an, sondern behaupten, es würden Hitze und Wärmestrahlung verwechselt (das ist gar nicht der Fall). Sie behaupten einfach, das Konzept eines Strahlungshaushalts wäre falsch. Das ist Quatsch und wird auch nicht im geringsten belegt. Es wird unterstellt, daß Strahlung aus der Atmosphäre nur nach unten emittiert würde. Das ist eine sehr platte und unverschämte Lüge, denn im Text steht ausdrücklich, daß die Strahlung in alle Richtung abgegeben wird. Das ist exemplarisch für die Vorgehensweise der Autoren. In einer Begutachtung dürfte so etwas nie durchgehen.

Unter anderem wird eine Erläuterung von Rahmstorf aus dem Zusammenhang gerissen, in der er erklärt, daß die Atmosphäre selbst langwellige Strahlung emittiert, dadurch einen Zusatzbeitrag zur solaren Einstrahlung für den Boden erbringt und ihn damit erwärmt. Die Autoren unterstellen nun, Rahmstorf hätte behauptet, der Treibhauseffekt beinhalte nach Rahmstorf die Reflektion von Strahlung des Bodens durch die Atmosphäre. Das steht nicht im Text, und wäre natürlich falsch. Die Autoren erklären dann, Rahmstorf widerlegt zu haben. Solche Argumentationsmethoden passen vielleicht in den Bierkeller, aber in einer Fachzeitschrift haben sie nichts zu suchen.

Abschnitt 3.4 zitiert aus einem Bericht des US-Ministeriums für Energie, daß der Name „Treibhauseffekt“ irreführend sei, weil ein Treibhaus eben diesen aus der Atmosphäre bekannten Effekt nicht zeige. Das beweist nicht, wie G&T unterstellen, daß es keine klare Definition des Treibhauseffektes gäbe, und daß es nicht möglich wäre, den Treibhauseffekt experimentell zu beobachten. Noch schlimmer: an dieser Stelle behaupten G&T, Modellrechnungen zum Treibhauseffekt könnte praktisch niemand reproduzieren. Diese Aussage wird nicht belegt. Es wird scheinbar etwas zitiert. Zitiert wird aber nur das Journal of Irreproducible Results. Kein Artikel daraus. Das gesamte Journal. Vielleicht soll das ein „Witz“ sein. So etwas gehört unter keinen Umständen in eine seriöse Arbeit.

G&T zitieren z.B. an anderer Stelle aus einem Beitrag von Bakan und Raschke im Fortbildungsheftchen promet, in dem der Treibhauseffekt korrekt erklärt wird und auch darauf hingewiesen wird, daß der Vergleich mit einem richtigen Treibhaus nur oberflächlich trägt. Was hat die Autoren daran gehindert, sich mal die von ihnen zitierte Literatur näher anzuschauen?

Eine parteiische Übersicht über die Historie des Treibhauseffektes

In Abschnitt 3.5 wird zunächst mal dargestellt, warum Gores populärwissenschaftlicher Vortrag falsch wäre. Das ist für eine wissenschaftliche Diskussion ohne Relevanz und nur politische Polemik. Eigentlich soll der Abschnitt beweisen, daß Reflektion und Absorption/Emission von Strahlung verschiedene Sachen sind. Das wird niemanden überraschen und ist ebenfalls ohne jede Relevanz. Dann wird in 3.6 neben einem Hinweis auf erste Arbeiten von Tyndall und Fourier dargestellt, warum die Rechnungen von Arrhenius fehlerhaft seien. Da wir inzwischen seitdem ein Jahrhundert Zeit hatten, mit höher aufgelösten Spektren, weitaus besseren Modellen und besser bekannten Daten über die Zusammensetzung der Atmosphäre Rechnungen durchzuführen, erhebt sich die Frage, was das soll, denn es ist bekannt, daß die Rechnungen von Arrhenius fehlerhaft waren, und nun nur noch historisch interessant sind.

Offensichtlich geht es auch hier wiederum nur um eine Polemik, die sich durch das ganze Papier zieht: man sucht Beispiele für fehlerhafte oder unvollständige Erklärungen und widerlegt dann, was niemand verteidigen wollte. In dem gleichen Abschnitt folgt eine Übersicht moderner Arbeiten. Hier aber haben die Autoren selektiv und irreführend eine Zusammenstellung gebracht, die beweisen soll, daß Modellrechnungen alles und nichts zum Ergebnis hätten und Ergebnisse unterschlagen würden, die eine globale Abkühlung ergäben, begleitet mit politischen Seitenhieben auf die grüne Bewegung. In einer Arbeit, die 2009 erscheint, hätte man hier eigentlich korrekt den 3. und 4. Übersichtsbericht des IPCC zitieren können, mit den dort angegebenen Erwartungen für den zukünftigen Anstieg der globalen Temperatur, aber auch den JASON-, den Charney- und den Nierenberg-Report von 1979 und 1983, die dort fehlen. Das frappiert zusätzlich dadurch, daß der 3. und 4. Übersichtsbericht tatsächlich zitiert werden, aber für eine ganz andere Stelle und nicht hier, wo es angebracht gewesen wäre. Es ist offensichtlich, daß eine korrekte Darstellung des Standes der Klimaforschung keine Absicht der Autoren war.

Strahlungsbilanz

In Abschnitt 3.7 auf Seite 58 (Seite 48 in der IJMP version) nähert man sich endlich dem Problem, um das es eigentlich in der Arbeit gehen soll, nach politischen Polemiken und irrelevanten Darstellungen von allem außer der relevanten Wissenschaft zum Thema. Zunächst mal wird behauptet, daß Strahlungsbilanzen falsch seien, weil für Intensitäten kein Erhaltungsgesetz formuliert werden kann. Das ist aber irrelevant, denn für die Energie, die dabei übertragen wird, kann man ein Erhaltungsgesetz formulieren. Wenn man einen stationären Fall annimmt, in dem die Energie des Systems Erde plus Atmosphäre konstant bleibt, kann man ein dazu passendes Strahlungsbudget aufbauen. Nichts anderes steckt hinter den Strahlungsbilanzdiagrammen. Diese sind geschlossen, weil die Energie konstant ist und daher die emittierte und empfangene Strahlung der Erde gleich sein muß oder sie basieren auf Messungen mit den dann dazu gehörenden Fehlerspannen. G&T missverstehen es absichtlich, um dann widerlegen zu können, was niemand behauptet.

Auf Seite 61 (Seite 50 in der IJMP version), ab Gleichung 73, wird dann hergeleitet, wie man die Temperatur aus dem Strahlungsgleichgewicht einer Erde ohne Atmosphäre bestimmt. Hier wird die Strahlung der Erde mit der Strahlung der Sonne gleichgesetzt, aber die bekannte Albedo der Erde, die zu einem Faktor 0,7 führt, zu einem Faktor zum „tunen“ der Gleichung erklärt, obwohl man dies in allen relevanten Lehrbüchern dazu erläutert findet. Auch der bekannte Faktor ¼, der daher rührt, daß die Erde in alle Raumrichtungen abstrahlt, die Sonne aber immer nur auf eine Seite der Erde strahlt, wird sehr verschwurbelt erklärt. Erst in den Fußnoten findet man die Erläuterung der Größe, die man als Tuningparameter vorsetzt und das wohl auch nur, weil genau diese Passage den Autoren gegenüber seit 2007 wiederholt kritisiert wurde.

Benutzung der korrekten Faktoren würde die bekannte Temperatur der Erde ohne Atmosphäre von 255 Kelvin ergeben. Die Autoren erklären dann, daß die Differenz zwischen diesem Wert und der beobachteten Temperatur der Erdoberfläche der Treibhauseffekt sei. Das ist korrekt, nur nennen die Autoren diesen Effekt fälschlich „fiktiv“. Man muß daran erinnern, daß man die Rückstrahlung der Atmosphäre messen kann. Man kann von Satelliten messen, daß die mittlere Strahlungstemperatur der Atmosphäre ins Weltall ca. 255 Kelvin entspricht. Es ist zugleich offensichtlich, daß die mittlere Temperatur der Erdoberfläche weitaus höher liegen muß, denn sonst wäre sie komplett mit Eis bedeckt. Institutionen wie das Godard Institute for Space Science oder das Hadley Centre geben die mittlere Temperatur der Erdoberfläche mit etwa 288 Kelvin an. Diese Temperaturdifferenz ist praktisch eine Definition des Treibhauseffektes auf der Basis von Messungen und wird von G&T unterschlagen.

Danach zeigen die Autoren, daß die Herleitung der Temperatur der Erde verschiedene Ergebnisse ergibt, wenn man für die Erde eine einheitliche Temperatur annimmt oder eine Temperaturverteilung. Bei einer Temperaturverteilung ergibt die Rechnung, daß die Einstrahlung der Sonne zu einer niedrigeren mittleren Temperatur der Erde führt. Auch das ist bekannt und trivial. Im Extremfall einer Erde, die sich nicht dreht und die Strahlung nur auf einer Seite erhält, ist die berechnete Temperatur der Erde extrem viel niedriger als bei einer Erde, für die eine homogene Temperaturverteilung angenommen wird. Da ohnehin mit der Idealisierung der homogen temperierten Erde nie gearbeitet wird, sondern sie nur ein Modell zur Veranschaulichung ist, ist auch dieses Ergebnis nicht relevant. Es beweist nicht, daß es keinen Treibhauseffekt gibt, sondern nur, daß das vereinfachte Modell eine untere Grenze für den Treibhauseffekt darstellt. Das ist das Gegenteil von dem, was G&T beweisen wollten.
Obwohl der Treibhauseffekt selbst von G&T gar nicht untersucht wurde, reklamieren sie dann, sie hätten ihn widerlegt. Gezeigt haben sie aber nur, daß ein vereinfachtes Modell ein vereinfachtes Modell ist. Das wussten wir schon vorher.

G&T zeigen dann, daß man für eine rotierende Erde keine geschlossene, exakte Lösung für das Strahlungsgleichgewicht finden kann. Das mag sein, aber das Problem stellt sich gar nicht, weil man in Modellen numerische Lösungen für den Strahlungstransfer mit vorgegebenen Randbedingungen bestimmt und nicht aus einem Strahlungsgleichgewicht eine exakte Oberflächentemperaturverteilung berechnen muß.

Dann wird eine Arbeit von Schack referiert, in der dieser die Absorption einer Atmosphäre im infraroten aufgrund von H2O und CO2 berechnete, wenn die CO2-Konzentration ansteigt. Was das bringen soll, wird nicht klar. Es wird zwar zu einer weiteren Polemik genutzt, aber keine sinnvolle Aussage zum Treibhauseffekt abgeleitet.

In 3.8 wird über Wärmeleitung geschrieben. Irrelevant zum Thema, denn es geht um die Strahlung und ihre Effekte, nicht um Wärmeleitung. Dann werden in 3.9 die Hauptsätze der Thermodynamik erläutert. Dahinter steht die Behauptung, der Treibhauseffekt beinhalte, daß es eine Wärmeleitung von der kälteren Atmosphäre zum wärmeren Boden geben müsse. Das wird nirgendwo behauptet, was auch diesen Abschnitt irrelevant macht. (Man kann auch sagen, diese Betrachtung des 2. Hauptsatzes der Thermodynamik sei falsch, weil ja die wichtigsten Energieflüsse des Systems nicht berücksichtigt werden - darauf weist ganz richtig Eli Rabett hin, und man kann sich anschauen, wie bei ihm die Widerlegung von G&T aussieht...und hier... und so weiter...) Der Abschnitt wirkt zusätzlich pathetisch, weil unter anderem Rahmstorf zitiert wird, der dies auch erläutert, die Erklärung wird aber absichtlich falsch verstanden.

Fazit: die meiste Zeit wird widerlegt, was niemand behauptet hat. Den Treibhauseffekt selbst hat G&T nie angegriffen, da sie ihn nicht verstanden haben und wohl auch nicht verstehen wollen.

Angriff auf die Klimawissenschaften insgesamt

Es folgt Abschnitt 4 mit dem hochtrabenden Titel „Physikalische Grundlagen der Klimawissenschaften“. Solche Grundlagen geben Lehrbücher. Die Autoren wollen allerdings unterstellen, solche Grundlagen bestünden für die Klimawissenschaften in der praktizierten Form nicht. Dabei werden Klimawissenschaften auch noch anscheinend gleichgesetzt mit Klimamodellen. Jedes Klimamodell basiert auf eine bestimmte Abstrahierung der Natur mit einem Satz dazu passender physikalischer, chemischer, geologischer und biologischer Grundlagen. Es ist absurd, hierzu eine geschlossene Erklärung abgeben zu wollen. G&T lassen z.B. den Physiker Dyson Modelle kritisieren, was nichts beweist, sie zitieren eine Presseerklärung (!) des britischen Wetterdienstes, um eine Gegenposition zu haben, vor allem aber unterstellen sie, daß Klimamodelle nicht geeignet seien, hinreichend sichere Aussagen zum zukünftigen Klima zu machen, weil Wettervorhersagemodelle nur über einige Tage hinweg belastbare Vorhersagen geben. Ich habe schon erläutert, daß dieser Vergleich falsch ist: Wettervorhersagen sind Anfangswertprobleme, Klimamodelle lösen Randwertprobleme, beides hat nichts miteinander zu tun. G&T verstehen das nicht, worüber sie hier referieren. Weiterhin führen die Autoren in scheinbar wissenschaftlichen Aussagen zu den Gleichungen der Fluiddynamik aus, daß Modelle die Natur zu sehr vereinfachen würden, um von Wert zu sein. Ich habe es absichtsvoll so platt ausgedrückt – es ist das, was hinter den Aussagen von G&T steckt. Es ist so nicht beweisbar und es ist auch unsinnig. Modelle sind ein grundsätzliches Arbeitsmittel der Naturwissenschaften und es gibt für jedes Modell einen Anwendungsbereich und darstellbare Unsicherheiten. Ob die Aussagen des Modells signifikant sind, muß im Einzelfall nachgewiesen werden. Pauschalurteile sind unsinnig.

In 4.2 folgt eine lange Auflistung möglicherweise relevanter physikalischer Gleichungen, ohne daß irgendwo ausgeführt wird, wo und in welcher Weise die relevant sind. Noch schlimmer: es tauchen z.B. Gleichungen auf zur Wärmeleitung, die sicher für die Anwendung in Klimamodellen vernachlässigt werden können oder die Maxwellgleichungen, die zwar für elektromagnetische Erscheinungen grundlegend sind, aber auch ohne die man natürlich Strahlungsabsorption und -emission von Treibhausgasen beschreiben kann. Darüberhinaus werden die grundlegenden Gleichungen in Modellen diskretisiert (sie werden an Gitterpunkten gelöst, in die man die Atmosphäre und die Ozeane aufteilt) und so weit nötig vereinfacht. Das wird angegriffen, ohne daß die Autoren für auch nur ein Modell vorführen, inwieweit diese Vereinfachungen tatsächlich die Resultate für die gegebene Anwendung unbrauchbar machen. Die Kritik sieht formal korrekt aus, ist aber praktisch ohne Substanz und irrelevant.

Noch schlimmer wird es in Abschnitt 4.3, wo die Autoren eine philosophische Erklärung versuchen, wie eine naturwissenschaftliche Theorie auszusehen haben und natürlich „beweisen“, daß nach ihren Darlegungen in 4.2 die Klimamodelle keine seien. Sie unterstellen zudem, daß in der Klimaforschung die Argumentation auf einen Konsens gestützt sei oder auf Umfragen, was falsch ist. Der Abschnitt endet lächerlicherweise mit einer Polemik gegen den Blog RealClimate.

So sieht also eine als wissenschaftlicher Beitrag maskierte politische Polemik aus. So etwas sollte kein Blatt publizieren, das als seriös anerkannt sein möchte. So etwas sollte niemand publizieren, der als Wissenschaftler akzeptiert werden möchte. Aber geschehen ist es leider.

Dienstag, 17. März 2009

Zum weiteren Lesen…Megafauna und Klimatagungen im März 2009

Ab und an sehe ich Blogbeiträge, die ich einfach gut finde. Originell, informativ, tiefschürfend – angenehm in unserer schnellebigen Zeit. Der einzige Nachteil ist, daß sie auf Englisch geschrieben sind. Für manche Leser ist das eine Hürde, selbst wenn sie eigentlich die Sprache sprechen.

Ein Beitrag, der mir sehr gefallen hat, behandelt die Frage, warum die Megafauna, die großen Tiere am Ende der letzten Eiszeit, relativ schnell weltweit ausgestorben sind. Sowohl die globale Erwärmung am Ende der letzten Eiszeit als auch die Ausbreitung des modernen Menschen scheint eine Rolle gespielt zu haben. Gingen die Tiere an der Klimaänderung zugrunde oder wurden sie überjagt? Ich habe die Frage schon mal für Australien andiskutiert. Im Blogbeitrag Did climate change kill off woolly mammoths and giant wombats bereitet Barry Brook die Frage auf.

In Kopenhagen gab es bis 12. März eine Klimakonferenz mit etwa 2000 Teilnehmern aus der Klimaforschung. Was ich von den Ergebnissen hörte, war nicht wirklich überraschend, weil schon 2007 und 2008 permanent durchtröpfelte, daß die IPCC-Berichte eher optimistisch wirken, teilweise, weil dort nur das zusammengefasst wird, auf das sich wirklich alle beteiligten Wissenschaftler einigen konnten. Es fehlt dort also noch die Abschätzung, daß das Abschmelzen von Eisschilden an Land einen Meeresspiegelanstieg von um die 1 Meter bis 2100 bewirken könnte (mit einer erheblichen Fehlerspanne), daß die Emissionsszenarien nach oben korrigiert werden müssen und daß unter anderem auch die Ernährung der Weltbevölkerung zusammenbrechen könnte. Man betrachte meinen letzten Beitrag dazu. Bei Thingsbreak findet man eine besonders umfassende Zusammenstellung zu der Konferenz.

Zufälligerweise gab es auch eine Veranstaltung der Lobbyvereinigung Heartland-Institut, die mit ca. 600 Gästen (unter ihnen einige Klimaforscher und Politiker, meistens aber Amateure) eine Parodie einer Wissenschaftstagung veranstaltet hat. Ich hätte sonst nichts dazu geschrieben, aber die Kurzzusammenfassung von Tim Lambert ist witzig und treffend.

Dann gibt es noch einen schönen Beitrag zur Frage, warum eigentlich mit den Eiszeitzyklen auch das Mischungsverhältnis von CO2 mitgelaufen ist und die Klimaveränderungen jeweils verstärkt hatte. Chris Colose hat aus einer neuen Publikation einen Essay gezogen, in dem ein wesentlicher Puntk ist, daß Änderungen von Windsystemen die Durchmischung bestimmter Meeresgebiete verändern und dadurch dafür sorgen können, daß mehr oder weniger CO2 aus den Meeren in die Atmosphäre oder zurück wandert. Ich sehe, daß ich da mal mehr zu schreiben sollte, aber bis dahin ist hier ein schöner Ansatzpunkt, sich einzulesen. Ich weise aber darauf hin, daß diese Hypothese noch einiger Diskussion bedarf.

Montag, 16. März 2009

Zu spät, um noch mit einem blauen Auge davon zu kommen?

Die Klimaforschung hat eine ganz eigene Dramaturgie, die an die Dynamik der Kollision zweier Öltanker erinnert, deren Kapitäne bereits eine halbe Stunde vorher wissen, daß der Unfall nicht mehr zu vermeiden ist, aber in der Zwischenzeit noch in Ruhe ihre Mittagessen einnehmen können. Seit Ende der 70er Jahre wissen wir, daß wir mit den CO2-Emissionen vermutlich auf Dauer Probleme bekommen werden, seit Ende der 80er Jahre, daß der Klimawandel bereits begonnen hat und Probleme auf Dauer sicher sein werden, und trotzdem haben die Entscheidungsträger die ganze Zeit so getan, als sei noch viel Zeit zu handeln. Das ist bedrohlich in einem System, das Bremsspuren macht, die bei einer Länge von 50 Jahren anfangen (globale Temperatur) über Jahrhunderte (Abschmelzen des Festlandeises auf Grönland und in der Westantarktis) und Jahrtausende (Verweildauer von mindestens der Hälfte des CO2 in der Atmosphäre) gehen. Man neigt dazu, noch während der Kollisionsphase zu sagen: „Aber es ist ja noch nichts geschehen.“

Es gibt mehrere Gründe, warum inzwischen Zweifel aufkommen, ob wir den Klimawandel überhaupt noch in den Griff bekommen.

China kriegt die Kurve nicht

Die Emissionen Chinas: die chinesischen CO2-Emissionen steigen schneller als in allen Prognosen auf dem Stand des 3. Assesment Reports des IPCC. Neue Studien zeigen, daß selbst im optimistischen Fall sich die chinesischen CO2-Emissionen in den nächsten 20 Jahren verdoppeln werden, trotz massiven Ausbaus der Kernenergie und alternativer Energieträger und selbst unter Berücksichtigung von Technologien zum Auffangen und Ablagern von CO2 bei neuen Kohlekraftwerken. Und China ist dabei ein Platzhalter, der auch für Indien, Indonesien, den Iran, die Türkei, Pakistan, Nigeria, Mexico und viele andere Staaten steht, die ebenfalls bevölkerungsreich sind und Nachholbedarf bei der Entwicklung haben.

Bereits gebuchte Erwärmung ist größer

Eine neue Studie hebt die Menge an Erwärmung an, die bereits im System angelegt ist, aber wegen der Verzögerung durch die Ankopplung der Meere und möglicher Kühlung durch Aerosole noch nicht realisiert wurde. Dazu gibt es eine Publikation: D. P. Van Vuuren, M. Meinshausen, G.-K. Plattner, F. Joos, K. M. Strassmann, S. J. Smith, T. M. L. Wigley, S. C. B. Raper, K. Riahi, F. de la Chesnaye, M. G. J. den Elzen, J. Fujino, K. Jiang, N. Nakicenovic, S. Paltsev, and J. M. Reilly: Temperature increase of 21st century mitigation scenarios, Proceedings of the National Academy of Sciences of the USA, die hier verlinkt ist.

Selbst im striktesten Vermeidungsszenario kommt die Studie bis 2100 auf eine Erwärmung von 1990 an von 1,4 Grad mit einem Unsicherheitsbereich von 0,5 – 2,8 Grad. Selbst in dem Band der stärksten und raschesten Maßnahmen zur Reduktion der Treibhausgasemissionen besteht die Möglichkeit zu einer globalen Erwärmung von mehr als 2 Grad, der Grenze, bis zu der man die Folgen der globalen Erwärmung für moderat hält und bewältigen kann.



Was das IPCC verschwiegen hat

Doch selbst die Überlegungen dazu, welche Erwärmung eigentlich noch mit moderaten Folgen abläuft, wurden in den letzten Jahren revidiert. Die Veröffentlichung dazu ist schon wieder ein Politikum für sich.

Die Ergebnisse des IPCC basieren auf dem Stand der Wissenschaft, wie er zur Erstellung der IPCC-Berichte publiziert oder bekannt war. Es wurde jedoch nur in den IPCC-Bericht hereingenommen, was im Review durch die Experten und Staaten nicht auf Einspruch stieß. Einige Staaten, explizit genannt werden die USA, Russland, China und Saudi-Arabien, haben massiven Einfluß genommen, die Aussagen des IPCC zu entschärfen. Im konkreten Fall geht es um ein Diagramm, das darstellt, wie Risiken in verschiedenen Bereichen abhängig von der globalen Temperatur auftreten. Die gestrichene Graphik kann man nun in einer Publikation sehen von Joel B. Smith, Stephen H. Schneider, Michael Oppenheimer, Gary W. Yohe, William Hare, Michael D. Mastrandrea, Anand Patwardhan, Ian Burton, Jan Corfee-Morlot, Chris H. D. Magadza, Hans-Martin Füssel, A. Barrie Pittock, Atiq Rahman, Avelino Suarez and Jean-Pascal van Ypersele, Assessing dangerous climate change through an update of the Intergovernmental Panel on Climate Change (IPCC) “reasons for concern”, Proceedings of the national Academy of Sciences, 27.02.2009.

Die wesentliche Botschaft ist hier, daß nun erhebliche Risiken bereits bei einer deutlich niedrigeren globalen Erwärmung gesehen werden. Bereits bei einer globalen Erwärmung von einem Grad steht man bei mehreren der betrachteten Risiken im roten Bereich. Zu extremen Wetterereignissen mit Schäden an Vermögenswerten und Leben trägt die globale Erwärmung jetzt schon zu einem gewissen Teil bei. Unter Verdacht stehen einige Sturmereignisse, Überschwemmungen oder die Hitzewelle und die Brandereignisse in Australien. In allen Fällen kommen andere Ursachen maßgeblich oder möglicherweise dazu, aber Klimaveränderungen spielen in vielen Fällen sehr wahrscheinlich bereits eine Rolle.

Besorgniserregend ist auch, daß das Eis auf Grönland beim gegenwärtigen Klima bereits als nicht mehr stabil angesehen wird. Sollte es mal abtauen, würde es sich nicht wieder neu bilden. Nur weil das grönländische Eisschild bis zu 3 Kilometer dick ist, liegt es zum großen Teil in solchen Höhen, daß Niederschläge das Abtauen zum großen Teil ersetzen können. Auf dem Bodenniveau wäre es bereits zu warm, damit sich neue Gletscher aufbauen könnten – im Sommer würde neu gebildetes Eis immer wieder abtauen.

Die gebildeten Risikokategorien sind nicht alle einfach nachzuvollziehen, aber das Diagramm dazu ist intuitiv verständlich. Wohl deshalb gab es die Widerstände einiger Hauptverschmutzer, die Graphik aufzunehmen und nur kurze Textaussagen zu übernehmen.



Wir sind bereits auf Kollisionskurs, aber Aerosole nehmen uns die Sicht

Eine ähnliche Sicht unterstützt ein anderer Artikel von V. Ramanathan and Y. Feng, On avoiding dangerous anthropogenic interference withthe climate system: Formidable challenges ahead. Proceedings of the National Academy of Sciences, 105, 14245–14250 (2008).

Auch hier wird ein düsteres Bild gezeichnet. Der beobachtete Anstieg der Treibhausgaskonzentrationen hätte bereits im Strahlungsgleichgewicht einen Anstieg der Temperatur um 2,4 Grad zur Folge mit einer Unsicherheitsspanne von 1,4 bis 4,3 Grad. Damit läge man aber schon jetzt in der Spanne von 1 bis 3 Grad, bei der verschiedene Kippunkte überschritten werden, etwa für die Gletscher im Himalaya (Wasserversorgung für Indien und China) und das grönländische Eisschild (in anderen Arbeiten habe ich allerdinsg gelesen, daß dieser Kippunkt auch im optimistischen Fall bis hoch zu 6 Grad liegen könnte). Nach den IPCC-Modellen wurde bisher gerade 25% dieser Erwärmung realisiert. Der Rest käme zu 90% in diesem Jahrhundert, abhängig davon, wie viel von der bisherigen Erwärmung durch Aerosole maskiert wurde und wie stark bisher die Ozeane die Erwärmung gedämpft hatten. Jede Strategie zur Vermeidung von Treibhausgasemissionen, egal wie aggressiv durchgeführt, kann nicht unter diesen Stand von 2,4 Grad vorgemerkter Erwärmung gelangen. Die Zahlen liegen etwas höher als in der am Anfang genannten Arbeit, teilweise aber, weil hier die Erwärmung aus dem 20. Jahrhundert mit berücksichtigt wird, teilweise, weil hier der Anteil der Erwärmung nach 2100 dazugezählt wird. Korrigiert man dafür, stimmen die Zahlen in dieser Arbeit und in der von Van Vuuren et al weitgehend überein.

Keine schönen Neuigkeiten…

Sonntag, 15. März 2009

Kurz und schmutzig - trübe Luft maskiert Erwärmung

Die Lebensdauer von Aerosol, von sehr kleinen Partikeln in der Luft, ist kurz. Und sie sind ohne Zweifel ein gefährlicher Anteil der Luftverschmutzung, indem sie Atemwegserkrankungen und Krebs fördern. Deshalb ist die Entfernung der Partikel und ihrer Vorläufer, vor allem der Schwefeldioxid- und Sulfatemissionen, ein erstes Ziel der Luftreinhaltung. Wir glauben, daß dabei in Europa große Fortschritte gemacht wurden, in den Schwellenländern in Asien oder Südamerika die Luft hingegen noch zunehmend trübe wird. Und diese Eintrübung korreliert wohl auch mit dem verstärkten Ausstoß von Treibhausgasen, wie Kohlendioxid. Es ist eine ziemlich sichere Schätzung, daß Schwellenländer schon bald, nachdem ein gewisses Wohlstandsniveau erreicht wurde, die gleichen öffentlichen Forderungen nach besserer Luft sehen werden, die wir in Europa schon hinter uns haben, und dann auch hier die Aerosolkonzentrationen fallen werden, ohen daß dem in gleichem Maße die Treibhausgasemissionen folgen.

Aerosole können mehrere Effekte auf die Erderwärmung haben. Kohlenstoffpartikel sind schwarz. Sie absorbieren Strahlung sehr gut und heizen sich dabei auf. Sie verstärken den Treibhauseffekt. Sulfataerosol hingegen ist recht hell und reflektiert Strahlung gut. Sulfataerosol schwächt den Treibhauseffekt. Außerdem gibt es indirekte Aerosoloeffekte. Aerosole mit wasserlöslichem Anteil, z.B. Meeersalz, Sulfate, Nitrate und Chloride, bildet gute Kondensationskerne für Wasser, führt zur verstärkten Nebel- und Wolkenbildung. Niedrige Wolken reflektieren Sonnenstrahlen sehr gut und kühlen die Erde. Sie sind auch am ehesten als Ergebnis der Aersosolbildung durch menschliche Emissionen zu erwarten. Manche Aerosole reichen aber bis in die obere Troposphäre rauf in über 8 km Höhe. Dort gibt es zunehmend auch eine Verstärkung des Treibhauseffektes durch Wolken. Da es schwierig ist, flächendeckend Aerosoldaten zu erheben, ist es eine große Quelle der Unsicherheit in den Klimamodellen. Wie viel Aerosol welcher Art ist in welcher Höhe und an welchem Ort vorhanden, wie groß sind die Partikel und woraus bestehen sie und wie viel und welche Wolken machen sie? Es gibt für alles Parametrisierungen und sie sind alle unsicher. Trotzdem weiß man mehr als nichts. Man weiß, daß Sulfataerosole dominieren. Man weiß, daß es plausibler ist, vor allem eine Verstärkung der Bildung niedriger Wolken anzunehmen. Und es gibt indirekte Hinweise darauf, daß die Sonnenstrahlung in der Nachkriegszeit an vielen Stellen der Erde gedämpft wurde. Man erwartet also, daß Aerosol insgesamt eher eine abschwächende Wirkung auf die globale Erwärmung ausübt, vielleicht zu einem mäßigen Grad, vielleicht auch zu einem sehr starken Grad.

Jetzt gibt es neue Daten dazu: Kaicun Wang, Robert E. Dickinson, Shunlin Liang, Clear Sky Visibility Has Decreased over Land Globally from 1973 to 2007, Science, 323, 1468-1470 (2009). (Download des vollen Artikels kostenpflichtig, aber Abstract und Supplement mit Abbildungen kostenfrei). Die University of Maryland hat dazu eine Pressemitteilung. Was Wang et al. getan haben, ist schnell erzählt, beinhaltet aber ein mühsames Durchforsten großer Datensätze. Sie haben sich die Datensätze genommen, die von den Wetterdiensten weltweit ausgetauscht werden, z.B. relative Feuchte, Niederschlag, Bewölkung und Sichtweitenschätzungen (die für den Betrieb von Flughäfen sehr wichtig sind, denn wenn man Sichtweiten gut kennt, kann man auch die Flugzeugabfolge für Landeanflüge minimal halten, was die Erträge der Flughäfen steigert). Für 2000 bis 2007 wurden diese Datensätze mit Daten mehrerer Satelliten verglichen und dadurch bis 1973 zurückgerechnet, welche optiche Dichte von Aerosol Satelliten bestimmt hätten, hätten sie vor 2000 schon solche Daten erhoben. Diese Schätzung ist so gut wie die Korrelationen, die man für 2000 bis 2007 findet. Diese sind nicht berauschend, aber brauchbar - mehr als 50% (teilweise deutlich mehr) der Variabilität der Satellitendaten kann mit den Daten der Wetterdienste beschrieben werden. So kann man langfristige Datensätze für die optische Dichte von Aerosolen schätzen und Aussagen zu Trends machen.

Die Ergebnisse sind plausibel, aber in Teilen auch neu. In Europa nimmt die optische Dichte von Aerosol über den gesamten Zeitraum ab - Ergebnis der Luftreinhaltepolitik. Das heißt aber auch, daß hier das Aerosol den Treibhauseffekt immer weniger maskiert. In Nordamerika ist die Situation für den Zeitraum neutral - die erste Überraschung. Luftreinhaltemaßnahmen und steigende Emissionen durch Bevölkerungswachstum und wachsende industrielle Produktion und Verkehr heben sich hier auf. Fast überall sonst sind die optischen Dichten der Aerosole bis in die Gegenwart angestiegen. Hier wurde durchweg der Effekt der wachsenden Treibhausgasemissionen durch die Kühlung der Aerosole maskiert.

Dies geschieht zu einem stärkeren Maß, als für den letzten IPCC-Bericht angenommen, der für die Zeit seit 1980 annimmt, daß global der kühlende Effekt von Aerosol nicht mehr wächst. Damit wäre eine stärkere Erwärmungswirkung der Treibhausgase mit den Temperaturdaten der letzten Jahre verträglich als bisher angenommen. Das ist keine gute Nachricht. Denn die Treibhausgase bleiben in der Luft auf Dauer, während die Aerosole immer wieder nachgeliefert werden müßten - und im Interesse der eigenen Gesundheit hat niemand daran Interesse.

Sonntag, 8. März 2009

Klimasensitivität neu eingegrenzt, weniger Grund zur Sorge?

Die Klimasensitivität ist eine einfache Zahl, um die Frage zu beantworten, was bei einer Verdopplung der CO2-Konzentration herauskommt. 1 Grad erwärmt sich die Erde direkt durch den CO2-Anstieg, 2 Grad durch die Summe aller Rückkopplungen, von denen die meisten und die wichtigsten positiv sind, wie etwa die Wasser-Temperatur-Rückkopplung, zu der ich bereits hier geschrieben hatte. Die gesamte Klimasensitivität von 3 Grad je Verdopplung von CO2 (oder entsprechenden Äquivalenten anderer Treibhausgase) ist jedoch nur ein zentraler Wert einer Verteilung, die recht unsicher ist. 2 Grad und 4,5 Grad sind Ränder dieser Verteilung, aber Werte außerhalb dieser Grenzen kann man auch nicht sicher ausschließen. Insbesondere der obere Rand der Verteilung ist nur vage begrenzt. Auch 6 Grad je Verdopplung von CO2 kann man nicht ausschließen. Und das nicht nur deshalb, weil die Klimasensitivität nur einen Wert beschreibt für einen Zeithorizont von maximal 100 Jahren. Hansen meint sogar, aus der Untersuchung von Eiszeiten abgeleitet zu haben, daß langfristig die Klimasensitivität auf jeden Fall bei 6 Grad je Verdopplung von CO2 liegen könnte. Ich betrachte das nicht weiter, weil das hier zu weit ab vom Thema führt.

Daß der obere Rand der Klimasensitivität besonders vage begrenzt ist und einen langen Schwanz von Werten hat, deren Wahrscheinlichkeit gering, aber eben nicht vernachlässigbar ist, bereitet besondere Sorge. Die Aussicht auf Werte einer globalen Erwärmung über 6 Grad zum Ende des Jahrhunderts ist die Aussicht auf Klimaänderungen, die in einen Zusammenbruch unserer Zivilisation führen würden, selbst in Szenarien, bei denen bis zum Ende des Jahrhunderts die Treibhausgasemissionen sinken. Diesen Schwanz kann man von zwei Seiten her angreifen. Zum einen kann man sich die Rückkopplungen anschauen und versuchen, sie möglichst genau zu beziffern. Da bleibt man aber schnell bei den Unsicherheiten der Wolkenparametrisierung oder der Aerosoleffekte hängen, die nun einmal die beiden unsichersten Terme in den Modellen sind. Irgendwann werden wir genaueres wissen, aber niemand kann sagen, wann das der Fall sein wird.

Die andere Möglichkeit ist die Betrachtung der Klimasensitivität als solcher. Wie ändert sich die Temperatur der Erde, wenn der Klimaantrieb variiert. Es gibt viele solcher Studien und die Antwort ist immer – wahrscheinlich 3 Grad je Verdopplung der CO2-Konzentration oder eines vergleichbaren Antriebs (Änderung der solaren Strahlung, Ausstoß von Sulfataerosolen aus Vulkanen usw.), möglicherweise aber auch nur 1,5 oder auch 4,5 Grad, aber ein langer Schwanz bis rauf zu 6 oder gar 7,5 Grad kann nicht ausgeschlossen werden. Das ist auch der Stand des IPCC-Berichts von 2007.

Nun gibt es eine neue Arbeit: Urban, Nathan M., and Klaus Keller, 2009. Complementary observational constraints on climate sensitivity. Geophys. Res. Lett., 36, L04708, doi:10.1029/2008GL036457, February 25, 2009, in press. Die meinen, sie könnten nun den langen Schwanz ausschließen. Sie versuchen das Problem dadurch in den Griff zu bekommen, daß sie zwei Größen betrachten: die Änderung der globalen Temperatur am Boden und den Wärmegehalt der Ozeane. Der Trick dabei ist, daß diese beiden Größen gekoppelt sind über die Geschwindigkeit, mit der Hitze in die Ozeane hinein transportiert wird. Geschieht das schneller, steigt die globale Temperatur langsamer bei gegebener Erwärmung der Ozeane. Ist der Transport langsamer, steigt die Temperatur schneller bei gegebener Erwärmung der Ozeane. Da globaler Temperaturanstieg an der Oberfläche und der Anstieg des Wärmegehalts der Ozeane voneinander nicht unabhängig sind, begrenzen beide zusammengenommen die Klimasensitivität stärker als jede dieser Größen für sich genommen. Ich könnte also z.B. aufgrund der globalen Temperaturen feststellen, daß eine gewisse Änderung des globalen Klimaantriebs verträglich ist mit einer Sensitivität von 6 Grad, sofern nur die Wärme sehr schnell und stark in die Ozeane abgleitet wird. Wenn ich aber gleichzeitig feststelle, daß der Wärmegehalt der Ozeane nicht besonders stark steigt, dann mag das für sich auch verträglich sein mit einer hohen Klimasensitivität, aber nur, wenn dann die Oberflächentemperaturen stark steigen, weil Wärme nur sehr langsam in die Ozeane hinein transportiert wird. Beides gleichzeitig geht aber nicht, und schließt den langen Schwanz sehr hoher Klimasensitivität aus. Genau das beobachten die Wissenschaftler in der Anwendung ihres Modells auf die bekannten Daten für die Temperaturen, die klimatischen Antriebskräfte und die Erwärmung der Ozeane für den Zeitraum 1750 bis 2000. Ihr Ergebnis ist, daß die Klimasensitivät in den Bereich fällt, der im IPCC-Bericht als besonders wahrscheinlich angegeben wird: 2 bis 4,5 Grad je Verdopplung von CO2, ohne den langen Schwanz hin zu hohen Klimasensitivitäten. Das ist nur begrenzt beruhigend, weil uns auch schon 2 – 4,5 Grad Erwärmung je Verdopplung von CO2 Sorgen machen. Um präzise zu sein, da sich andere Treibhausgaskonzentrationen auch erhöhen (werden), wir die globale Erwärmung trotzdem deutlich höher ausfallen, wenn nicht strenge Gegenmaßnahmen getroffen werden.

Es gibt noch mögliche Einwände, auf die die Autoren selbst hinweisen. Diese Einwände würden dazu führen, daß der lange Schwanz zu hohen Klimasensitivitäten nicht wirklich ausgeschlossen ist. Zum einen gibt es in den historischen Daten zu Klimaantrieben (etwa tatsächliche Treibhausgaskonzentrationen, Sulfatemissioenn der Vulkane und solare Strahlung in der Vergangenheit) Unsicherheiten, zum anderen ist ein recht einfaches Klimamodell benutzt worden, um schnell Rechnungen über diesen langen Zeitraum durchführen zu können. Weitere Untersuchungen sollen hier zu mehr Sicherheit führen. Nimmt man andere Arbeiten dazu (meistens in den IPCC-Berichten zitiert), wächst die Sicherheit, daß man die Klimasensitivität im IPCC-Bericht richtig mit dem Bereich von 2 – 4,5 Grad je CO2-Verdopplung angenommen hat. Damit bleibt Raum für die Hoffnung, daß eine Begrenzung der globalen Erwärmung auf ca. 2 Grad möglich ist, auch wenn es sehr schwer fallen wird.

Donnerstag, 5. März 2009

Alarmisten, Leugner und Realisten im 4. Internationalen Polaren Jahr

Am 11. Februar hatte die Leiterin der Gruppe für Klimawandelberatung am Hadley Centre des britischen Wetterdienstes Vicky Pope im Guardian einen Kommentar veröffentlicht, in dem sie sich dagegen aussprach, überzogene Schlüsse über das Klima aus einzelnen Wetterereignissen zu ziehen. Das war löblich und es wäre eigentlich nichts dazu zu sagen. Doch es kam anders. Pope unterlief eine mediale Ungeschicklichkeit, vielleicht war es aber auch Absicht. Gleich im ersten Satz sprach sie von Wissenschaftlern, die leicht Medieninteresse erzeugen könnten, indem sie Klimawandel mit extremen Wetterereignisse oder apokalyptischen Vorhersagen verbinden könnten. Der Fehler in diesem Satz ist, daß es Frau Pope schwer fallen würde, eine nennenswerte Zahl von Beispielen dafür anzugeben. Es wäre durchaus möglich, Beispiele für Medienberichte oder Aussagen von Umweltgruppen und Politikern anzuführen, in denen so etwas geschehen ist. Noch leichter ist es allerdings, in Blogs und den Medien Aussagen zu finden, daß man aus den wenigen letzten Jahren auf eine globale Abkühlung oder aus einem Winter auf ein erneutes Zufrieren der Arktis schließen könne. Und eine kleine Zahl Wissenschaftler, die im Klimawandel kein menschengemachtes Problem sehen wollen, haben hier auch mitgemacht.

Frau Pope gibt sich große Mühe, im weiteren Verlauf des Artikels sehr klar zu machen, daß sie den Klimawandel für menschengemacht und für ein gewaltiges, unbedingt zu lösendes Problem hält. Doch ihr einleitender Satz, ihre Formulierungen und Beispiele und der mögliche Versuch, als ehrenwerte Vermittlerin möglichst neutral zu wirken, führten dazu, daß ihr Beitrag im Guardian sowie ein noch schlechter formulierter Kommentar dazu in Leugnerkreisen großes Hallo und weite Verbreitung fanden. Und eine Reihe von Wissenschaftlern äußerten ihr Befremden, worum es Frau Pope denn eigentlich ginge. So kann man faktisch recht haben und trotzdem einen falschen Eindruck erzeugen.

Ein ganz wichtiges Beispiel von Frau Pope, das vielleicht noch am ehesten treffen könnte, ist der Hinweis auf die extrem niedrige Ausdehnung der arktischen Seeeisflächen in den Sommern 2007 und 2008. Diese Ereignisse hatten eine große psychologische Bedeutung, weil sie die Klimaforscher überraschten. 2007 war nicht einfach ein Rekord, es war mit großem Abstand zum Vorjahr ein Rekord, ein Hinweis darauf, wie schnell das polare Seeeis verschwinden könnte. Zwar war hier nicht einfach die Schmelze des Eises ein Grund für das Rekordminimum der Eisbedeckung, sondern besondere Windverhältnisse, die das Seeeis zusammenschoben, aber auch das war ein Zeichen für die Schwäche des Eises durch den langanhaltenden Erwärmungstrend. Und 2008 fehlten diese besonderen Großwetterlagen und trotzdem wurde der Vorjahresrekord fast wieder erreicht. Es fällt auf, daß die Werte 2007 und 2008 vom langjährigen Trend erheblich nach unten abweichen. Das gibt Nahrung zu Spekulationen, daß der Trend gebrochen sein könnte und in weniger als 25 Jahren das Meer in der Arktis im Sommer eisfrei sein könnte, Jahrzehnte bevor dies Modelle vorhersagten. Zu den möglichen Folgen habe ich schon etwas geschrieben und, zugegeben, sicher dabei auch die unsichere Möglichkeit betont, daß wir hier tatsächlich einen Trendbruch sehen. Später habe ich zu der Möglichkeit eines Trendbruchs noch mehr geschrieben. Pope sagt nun, und da hat sie recht, daß man von diesen einzelnen Jahren noch nicht auf einen Trendbruch schließen könnte. Statistisch gesehen liegt keine signifikante Trendänderung vor. Doch wen meinte Vicky Pope damit, wenn sie davon spricht, jemand hätte behauptet, das arktische Seeeis im Sommer hätte bereits so stark abgenommen, daß es einen Kippunkt erreicht hätte und schon bald verschwinden würde?

Sie verlinkt (oder der Guardian verlinkt, das ist nicht klar) auf eine Rede von James Hansen, in der er sagt „Das Klima kann Punkte solcher Art erreichen, daß verstärkende Rückkopplungen zu schnellen Änderungen führen können. Das arktische Seeeis ist ein aktuelles Beispiel. Die globale Erwärmung startete eine Eisschmelze, die den dunkleren Ozean freilegte, der mehr Sonnenlicht absorbiert, was mehr Eis schmilzt. Dadurch, ohne zusätzliche Treibhausgase, wird die Arktis bald im Sommer eisfrei sein.“ Sie scheint also ausgerechnet Hansen der Übertreibung anzuklagen. Aber sieht man Hansens Rede im Zusammenhang, wird deutlich, daß es ihm nicht darum ging, aus einem einzelnen Jahr starker Eisschmelze das Überschreiten des Kippunktes abzuleiten, sondern darauf aufmerksam zu machen, daß wir jederzeit solche Kippunkte überschreiten könnten, und dann jegliches Handeln zu spät kommt, um das noch zu verhindern.
Das Problem ist also, daß Pope hier eine Symmetrie zu unterstellen scheint, bei der sie Hansen und viele andere Wissenschaftler genauso der Übertreibung anklagt wie die Klimawandelleugner, die aus den Jahren 2001 bis 2008 eine globale Abkühlung ableiten wollen. Während aber Hansen auf eine realistische Möglichkeit hinweist, deren Bestätigung noch offen ist, ist die Aussage der Leugner zur angeblichen globalen Abkühlung schlicht falsch.

Ich will noch einen Schritt weiter gehen. Vor kurzem wurde offiziell das 4. Internationale Polare Jahr (4. IPY) beendet. Die dort beteiligten Wissenschaftler hatten 2007/2008 auch die Verhältnisse in der Arktis intensiv untersucht, Messungen ausgewertet und Modellrechnungen durchgeführt. Ihre Schlußfolgerung gaben sie auf einer Webseite des 4. IPY bekannt. „Wie von allen IPCC-Modellen vorhergesagt, wird das arktische Seeeis höchstwahrscheinlich im Sommer in naher Zukunft verschwinden. Gleichwohl scheint es so, als ob dies noch schneller geschehen wird als Modelle vorhersagen, wie durch kürzliche Beobachtungen und eine Datenneuauswertung während des 4. IPY und des Damocles Integrated Project betont wurde.“ Wer kann sich da eher bestätigt fühlen? Hansen oder Lindzen? Und paßt dazu wirklich der ausgestreckte Zeigefinger von Pope gegen Hansen? Auch Wissenschaftler des National Snow and Ice Data Center NSIDC, wie Julienne Stroeve, stellten fest, daß eine arktische Verstärkung der Erwärmung durch die Rückkopplung mit der geringeren Albedo eisfreier Meeresflächen und einem Auftauen der Permafrostböden in der angrenzenden Tundra seit den letzten Jahren im Gange sei.

Dies war nicht das einzige Beispiel. Auch bei der globalen Temperaturentwicklung und beim Abschmelzen des grönländischen Eisschildes redet sie davon, daß Wissenschaftler gegen überzogene Behauptungen eintreten müßten, daß jüngste extreme Ereignisse ganz und gar durch die globale Erwärmung verursacht seien. Und auch hier muß man fragen, wer macht das? Sie erweckt den Eindruck, als würde sie Klimaalarmismus meinen, aber kein Wissenschaftler behauptet das, was sie unterstellt. Es gibt Spekulationen über eine Beschleunigung des Abschmelzens des grönländischen Eisschildes, doch diese wurden mit Bedacht im Konjunktiv formuliert und der Betonung darauf, daß wir die Dynamik des Eisschildes noch nicht verstehen. Wenn sich nun kürzlich die Bewegung der Gletscher in Grönland stellenweise verlangsamt hat, dann kann man daraus schließen, daß die Gletscherbewegung eine variable Größe ist. Man kann aber kaum daraus schließen, daß die publizierten Langzeitschätzungen damit zu Übertreibungen würden. Man kann sich mit Recht dagegen wenden, wenn Leugner daraus ableiten wollen, Grönlands Eisschild sei von der globalen Erwärmung nicht bedroht. Aber Pope erweckt erneut den Eindruck, das sei aufgewogen durch alarmistische Wissenschaftler auf der anderen Seite.

Das wirkt um so absurder, wenn Pope zum Ende ihres Kommentars noch mal ganz deutlich macht, daß sie die globale Erwärmung für real hält, für menschengemacht und einschneidende Maßnahmen für notwendig. Was also wollte sie eigentlich sagen? Daß Wissenschaftler doch bitte nicht über mögliche Entwicklung reden sollen, sondern nur über das, was bereits zur statistischen Gewißheit geworden sei? So funktioniert das nicht – Wissenschaft ist angewiesen darauf, daß Hypothesen formuliert werden und Möglichkeiten diskutiert werden. Und wenn man die Öffentlichkeit und die Politik berät, muß man noch weiter gehen und mitteilen, was man zwar noch nicht sicher weiß, aber schon so gut, daß daraus Handlungsbedarf entsteht, denn politische Entscheidungen können nicht immer darauf warten, bis Wissenschaftler zur letzten Gewißheit gelangt sind.