Mittwoch, 28. Januar 2009
Diskussionen mit Leugnern
Wann immer wissenschaftliche Arbeit den Raum politischer oder religiöser Relevanz streift, ist damit zu rechnen, daß die Diskussion der Laien bedeutend wird. In dem Fall treten in der öffentlichen Diskussion die anerkannten wissenschaftlichen Standards zurück. Fakten und ihre Unsicherheitsbereiche werden zu Glaubensfragen. Die Diskussion um die Evolutionstheorie als solche ist auf wissenschaftlicher Ebene schon lange beendet. In den USA jedoch, und auch anderswo, wird die öffentliche Diskussion auch in jüngster Zeit so erbittert geführt, daß noch nicht mal sicher ist, daß sich die wissenschaftlich anerkannten Kenntnisse durchsetzen werden – in Meinungsumfragen sind die Amerikaner mehrheitlich Leugner der Evolutionstheorie.
Die Diskussion um die globale Erwärmung, ihre Ursachen und Folgen hat eine weitaus kürzere Geschichte in der öffentlichen Debatte, und auch hier hat sich in manchen Ländern die wissenschaftliche Sicht noch nicht durchgesetzt. Ein besonderes Problem dabei ist, daß starke kurzfristige Interessen der energieerzeugenden und verbrauchenden Industrien den langfristigen volkswirtschaftlichen Interessen entgegenstehen. In Staaten, in denen die Energieerzeugung aus Kohle, Öl und Gas und gleichzeitig auch der Verbrauch eine große Rolle spielen (USA, Kanada, Australien) ist die politische Diskussion des Klimawandels geradezu vergiftet. Der Wechsel von Bush zu Obama in den USA wirkt auch in der Regierungsrhetorik so, als wären die USA gerade von einer fremden Besatzungsmacht befreit worden. Es gibt eindrucksvolle Belege dafür, wie unter Bush versucht wurde, die wissenschaftliche Arbeit zum Klimawandel zu behindern und zu verfälschen. (Siehe auch hier für den Report von 2007). Unter Obama ist das Problem nun zur höchsten Priorität geworden.
Nach allem, was wir wissen, ist es besonders wichtig, rasch und in großem Umfang Emissionen von Treibhausgasen zu reduzieren, weil seit den 80er Jahren, als sich ein wissenschaftlicher Konsens zu dem Problem entwickelte, nicht angemessen gehandelt und Zeit vergeudet wurde. Wir sind bereits auf einem Niveau der CO2-Konzentration, bei dem man nicht mehr ausschließen kann, daß langfristig (über Jahrhunderte) der Meeresspiegel um über 60 Meter ansteigt, denn ein Abschmelzen des polaren Festlandeises kann nicht sicher ausgeschlossen werden. Allenfalls darf die CO2-Konzentration innerhalb dieses Jahrhunderts um eine gewisse Marge steigen, sollte aber dann wieder absinken, und zwar, je nach Lesart, mindestens unter 450 ppm oder sogar auf 350 ppm. Dafür müssen die Emissionen der Treibhausgase bereits vor 2030 deutlich sinken und bis 2050 um mindestens 80% reduziert werden. Derzeit sind wir in einer Entwicklung, bei der bis 2050 noch keine Reduzierung erreicht wird. Schon eine Stabilisierung der Emissionen auf das heutige Niveau gilt als global ehrgeiziges Ziel. In der zweiten Hälfte des Jahrhunderts müssen wir es sogar schaffen, wieder CO2 aus der Atmosphäre zu entfernen. Es ist nicht unmöglich, aber es ist sehr schwierig.
In einer solchen Situation ist es ein Problem, wenn die öffentliche Debatte nicht den Sachverstand seriöser und kompetenter Wissenschaftler akzeptiert, sondern Außenseitermeinungen vorzieht und aus dem existenziellen Problem des Klimawandels eine Glaubensfrage macht. Dies kann dazu führen, daß auch die Politik nicht mehr auf dem Sachverstand der Experten vertraut, sondern zunächst abwartet, um auf der sicheren Seite zu sein oder das Problem als unwichtig einstuft und dann nach Kriterien der Bequemlichkeit urteilt – wer ist am lautesten, was sagen die wichtigeren Lobbyisten, wo ist die Parteilinie, was ist beim Wähler populär. Wirtschaftliche Einschnitte in der Gegenwart zur Lösung eines Problems, daß sich im Laufe von Jahrzehnten entwickelt, sind natürlich immer unpopulär. Aber da Politik auch für die Kinder und Enkel gemacht werden muß, führt kein Weg an unpopulären Maßnahmen vorbei, die sich auf dem besten Wissensstand der aktuellen Forschung beziehen, ungeachtet dessen, ob dieser noch unvollständig ist oder nur mit gewisser Wahrscheinlichkeit Aussagen machen kann. Der Feuerwehrmann, der ein Kinderschreien im brennenden Haus hört, überlegt auch nicht lang, ob das nicht vielleicht auch ein noch laufender Fernseher sein könnte und es sich lohnt, sein Leben aufs Spiel zu setzen. Er verfolgt die wahrscheinlichere Annahme und startet die Rettungsaktion.
Mit wem wird die öffentliche Diskussion geführt?
Die Situation ist inzwischen so, daß es in aller Regel nicht darum geht, Skeptiker zu überzeugen. Skeptiker sind Menschen, die noch das Für und Wider einer Argumentation abwägen und bessere Beweise wünschen. Skeptiker arbeiten an der Gewinnung dieser Beweise aktiv mit, sie zeigen Fortschritte in einer Diskussion und sie haben erkennbare Punkte, an denen sie festmachen können, daß deren Erfüllung ihre Meinung ändern würde. Üblicherweise läuft die Diskussion jedoch mit Leugnern. Das sind Menschen, die sich bereits eine feste Meinung gebildet haben, jedoch aufgrund sachfremder Erwägungen die Fakten selektiv wahrnehmen oder sich unzureichend informieren, und die daran auch nichts ändern wollen. Diese Menschen erkennt man daran, daß es für sie keine erkennbaren Punkte gibt, deren Erfüllung ihre Meinung ändern würde. Diskussionen um Fakten mit solchen Menschen sind sinnlos. Gegenargumente werden sie nicht akzeptieren. Notfalls werden sie diese in dem Augenblick vergessen, in dem sie geäußert wurden und schon kurz darauf einen widerlegten Einwurf wiederholten. Leugner werden Fakten, Quellen und Zeugen vorwiegend danach beurteilen, ob sie für ihre Meinung brauchbar oder schädlich sind, und nach dieser Einteilung dann als wahr oder falsch qualifizieren.
Es ist ein Problem, daß viele Leute, die den wissenschaftlichen Sachstand in Diskussionen vertreten wollen, sich nicht im klaren darüber sind, daß sie es mit Leugnern und nicht mit Skeptikern zu tun haben, und daß es gar nicht darum geht, Beweise vorzulegen, sie besser zu erläutern und Einwände zu widerlegen. Es wird nichts geben, das einen Leugner überzeugen könnte. Je länger die Diskussion dauert, desto stärker werden sich Leugner sogar bestätigt fühlen, weil sie selektiv nur das ansammeln, was in ihre Meinung paßt. Es sollte zu denken geben, daß ein Teil der Inhofe-Liste, der Pressemitteilung des US-Senators, der „beweisen“ will, daß es noch eine Kontroverse in der Wissenschaft zum Klimawandel gibt, aus Artikeln von Wissenschaftlern besteht, die damit zusätzliche Belege anführen, daß die globale Erwärmung vorwiegend eine Folge der Emission von Treibhausgasen ist.
Wer mit Leugnern diskutieren will, sollte sich verdeutlichen, daß er gegen jemanden antritt, der keinen Maßstab entwickelt hat und entwickeln will, an dem er feststellen könnte, ob er vielleicht irrt. Ein Leugner wird aus seiner Sicht nie in einer Diskussion unrecht haben. Er wird notfalls auch lügen, fälschen, gerade besprochenes vergessen, er wird willkürlich Quellen und Zeugen zusammentragen und gegebenenfalls auch Aussagen aus ein und der selben Quelle als Bestätigung nehmen, wenn sie brauchbar sind, und als unglaubwürdig ablehnen, wenn sie schädlich sind. Lindzen, der selbst den Treibhauseffekt akzeptiert, ist ein gern verwendeter Zeuge von Leugnern, die zugleich auch Gerlich zitieren, um zu zeigen, daß der Treibhauseffekt nur eine Lüge sei.
Wie man mit Leugnern diskutiert
Man kann nicht mit Leugnern diskutieren, sondern nur über sie. Man kann ihre Methoden vorführen, man wird aber bei jedem Versuch zu einer Sachdiskussion scheitern. Leugner versuchen, Themen zu diktieren, bei denen sie sich sicher fühlen. Kommen sie mit einem Thema nicht voran, wechseln sie es. Eine der Grundregeln für den Umgang mit Leugnern ist daher, das Thema so eng wie möglich zu halten und notfalls geradezu mechanisch einen einzelnen Punkt zu wiederholen, bis der Leugner aufgeben muß. Er wird sich selbstverständlich nie eingestehen, daß er unrecht hatte und den Punkt bei nächster Gelegenheit wiederholen. Aber zumindest hier ging dann die Haupttaktik nicht auf, sich gegen Argumente durch Wechsel des Themas zu immunisieren. Grundsätzlich ist es wichtig, möglichst schnell festzustellen, ob man mit einem Leugner zu tun hat oder doch mit jemandem, der noch nicht informiert ist. Bei Leugnern gibt es nur rhetorische Fragen. Eine Antwort ist nie wichtig. Uninformierte Menschen hingegen stellen echte Fragen. Sie wollen Antworten haben und bauen auf diesen Antworten auf. Uninformierte Menschen stellen allerdings selten Fragen, sondern verfolgen lieber passiv Diskussionen. Gerade deshalb ist es wichtig, daß sich Menschen, die den wissenschaftlichen Sachstand vertreten, nicht auf das Niveau der Leugner herunterziehen lassen. Leugner verweist man bevorzugt auf anerkannte Quellen. Wenn sie mit Verschwörungstheorien reagieren, nach denen das IPCC politisch gesteuert sei und ähnliches, hilft nur, dies offen anzusprechen und die Diskussion zu beenden. Mit Verschwörungstheoretikern diskutiert man nicht.
Auch über offensichtlich falsche Behauptungen diskutiert man nicht. Wenn jemand zu beweisen versucht, daß 2+2=5 sei, ist eine Diskussion unsinnig. Es ist falsch! Wenn jemand sagt, die globale Erwärmung habe geendet, gilt das gleiche. Trendberechnungen sind statistisch eindeutig – es gibt einen Trend und dazu einen Vertrauensbereich. Läßt der Vertrauensbereich auch einen gegenläufigen Trend zu, reicht die Datenbasis nicht. Wenn jemand meint, es gäbe keinen Treibhauseffekt, dann leugnet er Lehrbuchwissen. Das ist nicht diskutabel, es ist falsch. Wenn man mit jemandem, der etwas offensichtlich falsches behauptet, anfängt zu diskutieren, hat man verloren. Wie soll man jemandem, der das Gegenteil behauptet beweisen, daß 2+2=4 ist? Es kann nicht funktionieren. Ich sehe viele lange Diskussionen mit Leugnern und wundere mich nur.
Auch über den Konsens in der Wissenschaft diskutiert man nicht. Er ergibt sich aus der Fachliteratur. Wer nicht in die Fachliteratur schaut, kann auch nicht wissen, was der wissenschaftliche Erkenntnisstand ist. Es gibt viele angebliche Wissenschaftler, die sich in Umfragen gegen Feststellungen des IPCC wenden, obwohl diese ja zwangsläufig nur Zusammenfassungen der Fachliteratur sein können. Wo sind denn die Publikationen dieser Kritiker? Das dreckige Dutzend der wissenschaftlichen Leugner ist bekannt und ihre wenigen Fachpublikationen, die wirklich wiedergeben, was in den Blogs als Meinung verbreitet wird, in der Regel bereits durch andere Arbeiten widerlegt oder relativiert. Warum es Leugner unter Wissenschaftlern gibt, hat verschiedene Gründe, die zu erläutern hier zu weit führt. Ich werde darauf zurückkommen.
Die Semantik ist nicht unwichtig. Man tut Leugnern einen großen Gefallen, wenn man sie Skeptiker nennt. Sie sind es nicht, sie würden nur gerne als solche erscheinen. Sie werden ohnehin jeden, der seriöse Wissenschaft vertritt, als Alarmisten oder Paniker diffamieren, nicht aufgrund objektiver Sachverhalte, sondern weil es Teil ihres Glaubens ist. Eine Differenzierung zwischen Wissenschaftlern, Politikern und Publizisten (Al Gore!) oder zwischen Laien und Experten oder zwischen gemäßigten und radikalen Vertretern erfolgt nicht. Aber natürlich ist es einfacher, jeweils die Politiker, die Laien und die Radikalen anzugreifen, und die anderen dann zu subsumieren. Und so geschieht es auch.
Was ist das Fazit?
Bevor man eine Diskussion anfängt, sollte man sich erst mal klar machen, mit wem man diskutiert, welche Regeln er akzeptiert und welche Ziele er hat. Man kann sich dann Zeitverschwendung und Frustration ersparen.
Montag, 26. Januar 2009
Eisendüngungsexperiment hat grünes Licht
Inzwischen haben sich die betroffenen Ministerien, insbesondere das Umweltministerium und das Ministerium für Bildung und Forschung, nach dem Vorliegen der angeforderten Gutachten, zusammengesetzt und beschlossen, daß das Düngeexperiment stattfinden darf. Das Forschungsministerium erläutert dies in einer Pressemitteilung und gibt dort auch Links zu den Gutachten, die bestätigen, daß das Experiment juristisch einwandfrei ist und die Umwelt nicht schädigt.
Der Gutachter vom British Antarctic Survey schreibt: "This is an excellent world-class research proposal that will do much to help our understanding of the ocean and will be a major contribution to, among other things, Climate Change research. I can find no reason why the LOHAFEX experiment should not proceed. (...) The experiment is small-scale and will mimic natural conditions in the area proposed and will have no conceivable negative effects on the environment. "
Der Gutachter des IFM Geomar urteilt: "We view the proposed LOHAFEX experiment as legitimate, appropriate and responsible basic scientific research that is timely and should help to improve our understanding of past and likely future impacts of changing natural iron supplies on marine ecosystems and carbon fluxes in the Southern Ocean. (...) The experimental design of LOHAFEX is therefore consistent with the requirements of the Convention on Biodiversity and the London Convention and London Protocol. "
Mehr braucht man dazu nicht zu schreiben.
Sonntag, 25. Januar 2009
Die Oxidationskraft der Atmosphäre – das zitternde Netz
Um 1987 kam dann hinzu, daß deutsche Physiker mit einem Appell an die Öffentlichkeit traten, daß ihrer Meinung nach nun die Daten darauf hindeuteten, daß eine globale Erwärmung eine unmittelbar zu befürchtende Realität darstellen würde und sich noch auf die jetzige Generation merklich auswirken könnte. Die Politik in Deutschland reagierte mit einer Enquetekommission des Deutschen Bundestages, die 1988 ihren Zwischenbericht herausbrachte, in dem zusammenfassend die Feststellungen der Experten zu den Gefahren durch den Ozonabbau und durch die Treibhausgase dargestellt wurden. Das Problem war in der Politik endlich angekommen, die bisher vor allem lokale und regionale Verschmutzungsprobleme kannte, etwa die Notwendigkeit, über Rauchgasentschwefelung und Autokatalysatoren gegen Smog und neuartige Waldschäden vorzugehen, was ja auch bereits dokumentierte Erfolge brachte.
Das waren die Ereignisse, die mich dazu brachten, zum Forschungszentrum Jülich zu gehen und mich mit Atmosphärischer Chemie zu befassen. Ich fand diese Themen aufregend und interessant und wollte nicht nur Zuschauer sein. Es waren auch Ereignisse, die die Medien dazu brachten, sich nach weiteren Themen dieser Art umzuschauen. Und es stellte sich heraus, daß 1991 das Blickfeld der Medien sich auf das Gebiet richtete, in dem ich gerade promovierte, die Chemie des OH-Radikals.
Das Hydroxylradikal OH ist entscheidend für die Oxidationskraft der Troposphäre und den Abbau der meisten Spurengase, die die Luft verschmutzen (könnten). Indem es aber mit diesen Gasen reagiert, kann es auch abgebaut werden. Wie sieht es also aus, wenn global immer mehr Spurengase in die Luft geblasen werden, könnte dann OH so stark abgebaut werden, daß die Luft keine ausreichende Oxidationskraft mehr hat und Spurengase sich unbegrenzt ansammeln können? Droht der Menschheit nach dem Klima und der Ozonschicht hier bereits das nächste Problem?
Vielleicht, war die klare Antwort von Paul Crutzen und Peter Zimmermann (nicht mit mir verwandt) in einem Artikel in Tellus, 43, 136, (1991). Sie berechneten im dreidimensionalen Modell durch die Verdopplung der Konzentrationen von CO und Methan in den Tropen bis zu 20% Verringerung der OH-Konzentration. Was in ihrem Artikel ein bißchen nachlässig behandelt wurde, war die Tatsache, daß solche Ergebnisse ganz erheblich von den Annahmen bezüglich der Stickoxide abhingen. Deren Konzentrationen sollten auch steigen, und in den meisten Gebieten bedeutet das, daß mehr HO2 mit NO zu OH reagiert, den Verlust der Radikale zu H2O2 vermindert und so die OH-Konzentrationen anhebt. Zur gleichen Zeit fand auch Anne Thompson mit einem 1-dimensionalen Modell, das für verschiedene Punkte auf dem Globus gerechnet wurde, ähnliche Resultate. Sie behauptete gar, daß seit 1700 OH-Konzentrationen global um 23% gesunken seien.
Wenn dabei Relativierungen nicht klar rüberkommen, setzt eine Vergröberung der Aussage bei der Wanderung der Ergebnisse in die Medien ein. Richard Kerr griff die Arbeit von Thompson für einen Meinungsartikel auf und schrieb unter Hydroxyl, the cleanser that thrives on dirt, Science 253, 1210 (1991), daß CO und Methan verantwortlich für eine Abnahme der OH-Konzentration wären und dadurch das gesamte Netz der Reaktionen in der Troposphäre in Bewegung gerate – the web trembles. Allerdings wies er auch darauf hin, daß abhängig von z.B. den Stickoxiden in der Zukunft die OH-Konzentration stabil bleiben könnte.
Halbverdaut machte dann der Spiegel einen Artikel daraus, in dem es unter der Überschrift „Zitterndes Netz“ am 21. 10. 1991 auf Seite 314 hies: „Schwindet das Hydroxyl aus der Luft? Chemiker fürchten um die Selbstreinigungskraft der Atmosphäre.“ Ganz nebenbei erfand der Spiegel, daß eine Frankfurter Gruppe um Prof. Comes zuerst das OH-Radikal in der Luft gemessen hätten. Die ersten Langwegabsorptionsmessungen gab es bereits Ende der 70er Jahre und das Institut für Atmosphärische Chemie unter D.H. Ehhalt konnte 1991 bereits eine lange Reihe von Veröffentlichungen über diese Messungen vorweisen (zum aktuellen Stand hier der Link). Das Problem war wohl, daß der Spiegel ausgerechnet Comes zu seinem Experten ausgewählt hatte, der selbst eigentlich bis vor kurzem mit Atmosphärenchemie nichts am Hut hatte und auch kein Interesse daran, auf die Konkurrenz zu verweisen. Durch eine Umstellung der Aussagen im Science-Artikel, Weglassen der Relativierungen durch die OH-Rezyklierung und mit Bezug auf Crutzen und Zimmermann entwickelte der Spiegel das Szenario, daß die „Waschkraft“ der Atmosphäre bedroht sei und verglich das Problem mit dem des Ozonlochs. Zugleich wurde betont, daß möglicherweise hier ein Grund für den Anstieg der Methankonzentrationen zu suchen sei, der durch die bekannten Quellen allein nicht zu erklären sei – die OH-Konzentration ginge halt zurück und damit nehme der Methanabbau in der Luft ab.
In einem Leserbrief protestierte ich: ich wies auf die geringe Sensitivität von OH für CO und Methan hin, auf den stabilisierenden Einfluß der Stickoxide und darauf, daß es für die Luftqualität nicht von Belang sei, ob CO beispielsweise global bei 50 oder 150 ppb stünde (Teile CO auf eine Milliarde Teile Luft). Im Rahmen der Unsicherheit der Mechanismen könne man keine seriöse Ausage treffen, ob die OH-Konzentration zukünftig steige oder falle und man solle sich doch auf echte Probleme konzentrieren, statt auf dieses Scheinproblem. Zugleich wies ich darauf hin, daß Comes über 10 Jahre zu spät dran sei, um als jemand dargestellt zu werden, der als erster atmosphärisches OH gemessen hätte.
Auf den Brief erhielt ich eine Postkarte als Antwort, daß man sich im Artikel unter anderem auf den Science-Artikel beziehe, den ich wohl nicht gelesen hätte, und daß Comes, Perner und andere den Artikel geprüft hätten. Auf keinen der Einwände ging man ein und wer „und andere“ sein soll, darüber habe ich bis heute unschmeichelhafte Vermutungen (nämlich niemand). Wobei Perner wahrscheinlich nur einen anderen Teil des Spiegelbeitrags gegengelesen hatte, um den es hier gar nicht ging und Comes zwar OH messen ließ, aber sonst damals wenig Ahnung von der OH-Chemie hatte.
Also schrieb ich den zweiten Brief (und fühlte mich dabei schon wie die üblichen Querulanten, die ihre Zeit mit notorischem Meckern verplempern), in dem ich darauf hinwies, daß mir der Science-Artikel sehr wohl bekannt wäre (in dem stand aber nichts von Crutzen und Zimmermann) und daß der sich weitaus vorsichtiger ausdrücke. Ich wies darauf hin, wo sie sich seriös zu dem Thema informieren könnten (es gab eine Diskussion zwischen der oben genannten Thompson und Law und Pyle in Atmospheric Environment, 26A, 195-197 (1992) und einen Artikel von Pinto, Tellus 43B, 347-352 (1991), wo die Argumente gegen die Gefährdung der OH-Konzentration klar dargestellt wurden, und es gab natürlich eigene Beiträge). Schließlich appellierte ich an den Spiegel, daß es ein Gebot der Fairness sei, Forschern nicht Erfolge falsch zuzuschreiben und daß sie das auch in diesem Falle korrigieren sollten. Diesmal gab es gar keine Reaktion des Spiegels.
Ich hatte gelernt:
1. Journalisten machen keine Fehler
2. Experten sind immer die Leute, die ein Journalist zu einem Thema gerade greifen kann
3. Eine gute Schlagzeile läßt man sich nicht durch störende Fakten kaputt machen
Hätte ich eigentlich schon vorher wissen müssen.
Am 2. 12. 1992 schrieb dann auch die FAZ über OH-Messungen. Das behäbig-seriöse Blatt sprach von der Fahndung nach dem Waschmittel der Atmosphäre und schrieb nur kurz dazu, ob dieses in Zukunft knapp würde. Ärgerlich war hier vor allem, daß man nur Comes und Mitarbeiter und zwei nicht genannte amerikanische Gruppen (gemeint waren wohl Mount und Mitarbeiter und Eisele und Tanner) als diejenigen angab, die OH messen könnten, wobei natürlich das Verfahren von Comes als das überlegene dargestellt wurde. Wieder wurden alle, die schon seit Ende der 70er Jahre an dem Thema arbeiteten (nicht nur die Jülicher unter Ehhalt, mit Perner, Platt, Dorn, Hofzumahaus und anderen, sondern z.B. auch Felton Ende der 80er Jahre an der Washington State University oder Mitarbeiter bei NOAA in Boulder, Colorado), unterschlagen. Mein Hinweis darauf war der FAZ noch nicht mal eine Antwort wert. Lernerfolg wie oben, diesmal dauerhaft.
In der Fachliteratur verlieren sich übrigens die Spuren der Frankfurter Gruppe nach ca. 1998. Aber bis dahin hatten sie definitiv die bessere PR-Arbeit.
Pseudowissenschaft und falsche Zeugen - Leugner bei der Arbeit
Gegen selten mal von außen eingestreute Kritik ist die Immunität der Seite außerordentlich hoch, Selbstzweifel gibt es hier keine, selbst wenn Behauptungen sich innerhalb eines Tages als falsch erweisen. Bemerkenswert ist auch, daß der Blog bei einem jährlichen Wettbewerb der Blogs in den USA in der Kategorie der Wissenschaftsblogs für 2008 die meisten Klicks erhalten hat – die Anhängerzahl von Watts up with this ist groß, ihr Sendungsbewusstsein auch und bei insgesamt weniger als 30.000 Klicks, wenn man über 2 Wochen täglich einmal klicken darf, kann so eine Anhängerschar locker einen solchen Klickwettbewerb für sich entscheiden. Ich möchte nicht verschweigen, daß einige Menschen mit skeptischer Natur es schrecklich fanden, daß ausgerechnet so ein Machwerk zum besten Wissenschaftsblog gekürt werden sollte und dazu aufriefen, doch irgendeinen anderen, seriösen Blog hochzuklicken. Das war zum Scheitern verurteilt, denn ein Klickwettbewerb kann niemanden anziehen, dem es tatsächlich um die Qualität der Argumente geht. Wir können davon ausgehen, daß auch in Zukunft Blogs wie der von Watts solche Klickwettbewerbe gewinnen. Soviel sind dann auch solche Titel wert.
Schnell zur Hand mit Thesen war der Blog zum Beispiel, wenn vom Mauna Loa Observatorium falsche Zahlen für die gemessene Ozonkonzentration auftauchten (einen Fall habe ich hier diskutiert). Diese Messungen sind nie ganz Routine. Die Daten müssen immer wieder bereinigt werden, wenn etwa lokale Emissionen die eigentlich gesuchten Hintergrundwerte verunreinigen oder wenn Lücken in der Messreihe durch Apparateausfall entstehen und bei der Berechnung des Monatsmittels nicht richtig berücksichtigt wurden. Früher oder später (meistens früher) wird der Fehler bemerkt und korrigiert. Aus Gründen der Transparenz wartet man aber nicht monatelang, bevor man die Ozonmessungen öffentlich macht. Gerade die frühzeitige Publikation und Kritik von außen hilft dabei, Fehler schneller zu entdecken. Bei Watts ist dieses Prinzip nicht verstanden worden. Tauchen seltsame Zahlen in der Zeitreihe auf, dann geschieht folgendes. Zuerst mal wird davon ausgegangen, gerade diese auffällige Entwicklung sei ernst zu nehmen und es folgt eine halbgare Erklärung. Hauptsache, es kommt dabei heraus: CO2 nimmt nicht mehr zu und die Nettozunahme wird nicht (vor allem) von menschlichen Quellen verursacht. Ein weiteres Beispiel hier. In beiden Fällen kam die Korrektur rasch, in beiden Fällen zog die Karawane weiter ohne sich von den vorschnellen Interpretationen zu verabschieden. Das eine Beispiel hatte ich bereits kommentiert, im anderen Fall wurde aus dem angeblich schwachen Anstieg ein durchschnittlicher mit 1,58 ppb Jahreszunahme 2008 (nach wie vor vorläufig).
Und auch dies ist ein Beispiel, wie es oft läuft. Hier die halbgare These, die Daten von NASA-GISS für die globale Temperaturentwicklung seien von Hand manipuliert. Diese Institution, deren Daten die globale Erwärmung belegen, ist ein besonderes Haßobjekt der Leugner. Auch hier wird aus dem gefeierten Skandal schnell der Sturm im Wasserglas und lauwarme Relativierungen kaschieren im Grunde, daß man zugeben muß, daß man nicht wirklich etwas beweisen konnte.
Nicht anders bei dem von mir kommentierten Artikel zu Temperaturtrends in der Antarktis. Der rasche Kommentar von Watts dazu war: 1. Mann arbeitet an dem Papier mit, deshalb muß es schlecht sein. 2. Die Westantarktis wird wärmer, weil es dort Vulkane gibt. 3. Die in der Veröffentlichung angegebenen Temperaturtrends über 50 Jahre weichen von Temperaturtrends, die eine andere Organisation für einen anderen Zeitraum angegeben hat, ab (die beiden Graphiken NASA 2004 und „NASA“ (tatsächlich Steig et al. ) 2009. Steig arbeitet an der Washington State University.) Dazu in den Kommentaren der Leserschaft zahllose Hinweise darauf, die Daten müssten falsch oder gar gefälscht sein, weil – das glauben wir halt (und wenn halbgare, falsche oder in sich unlogische Begründungen gegeben werden, ist das im Grunde nichts anderes als der Versuch, den eigenen festen Glauben daran, daß die Daten falsch sein müssen, weil sie von den falschen Leuten kommen, zu bestätigen). Weder auf den Einwand, daß ein Name in der Autorenliste nichts zur Qualität einer Fachveröffentlichung aussagt, noch auf den Einwand, daß Vulkane als Punktquellen mit sporadischer Aktivität unter dem Eis irgendwas zu den auf der Oberfläche gemessenen meteorologischen Größen beitragen können, werden Argumente in Form von Belegen und Rechnungen nachgeliefert.
Das war Watts nicht genug. In einem Folgebeitrag präsentiert er – keine Argumente, sondern einen Zeugen. Der Zeuge wird präsentiert als NASA-Wissenschaftler, der in der Antarktis gearbeitet hätte. Wie man aber leicht herausfinden kann, ist der so präsentierte Ross Hays ein früherer Fernsehmeteorologe, der bei CNN entlassen wurde und nun mit Wettervorhersagen Ballonstarts unterstützt. In diesem Rahmen war er auch einmal in der Antarktis. Es gibt keine publizierte Forschung von Hays und auch keinen Anlaß zu glauben, daß er je geforscht hatte, es je tun könnte und irgendwelche besonderen Kenntnisse über Klimatologie, geschweige denn der Antarktis hätte. Hays hat bereits diverse Listen unterschrieben, in denen angebliche Wissenschaftler leugnen, daß es eine menschengemachte globale Erwärmung gibt. Jetzt schreibt der Antiwissenschaftsaktivist einen Brief als angeblicher Wissenschaftler, der den Artikel von Steig und Kollegen ablehnt. Mit welchen Argumenten? Mit seinem Glauben und einzelnen Wetterereignissen, zudem sachlichen Fehlern, die Tamino in seinem Blog aufgreift.
Mit diesem Aufhänger philosophieren Watts und eine Reihe von Kommentatoren darüber, daß Steig und Kollegen wohl diese Daten „gefälscht“ hätten, um eine Rede von Al Gore in nächster Zeit zu unterstützen. So läuft dann eine Kritik an einer Fachpublikation ohne Argumente und mit einer gefälschten Expertise eines Zeugen in eine Verschwörungstheorie und eine Diffamierung der Wissenschaft hinein. So weit der nach Menge der Klicks in einer Abstimmung „beste“ Wissenschaftsblog 2008.
Donnerstag, 22. Januar 2009
Temperaturtrends am Südpol – eine Frage des Zeitrahmens
An diesem Kenntnisstand hat sich nichts geändert, aber wer in die Medien schaut, kann vielleicht anderes vermuten. Steig und seine Kollegen (Eric J. Steig, David P. Schneider, Scott D. Rutherford, Michael E. Mann, Josefino C. Comiso & Drew T. Shindell, Warming of the Antarctic ice-sheet surface since the 1957 International Geophysical Year, Nature 457, 459-462 (2009)) haben kürzlich in Nature einen Beitrag veröffentlicht, in dem Temperaturmessungen in der Antarktis seit 1957 neu ausgewertet wurden. Dabei wurden Satellitendaten verwendet, um diese Daten zu ergänzen und auf den gesamten Kontinent zu interpolieren. Dies ist nicht das erste Mal, daß so etwas getan wird, aber die Methodik wurde nun deutlich verbessert.
Dabei wurden die oben gemachten qualitativen Überlegungen bestätigt, aber noch einiges darüber hinaus herausgefunden. Die Erwärmung der Westantarktis läßt sich über ein größeres Gebiet nachweisen als zuvor geglaubt, sie entspricht der der restlichen Südhemisphäre und ist klar statistisch signifikant. Die Ostantarktis hat sich über 50 Jahre ebenfalls erwärmt, wenn auch schwächer und nur knapp über der Signifikanzschwelle. In den letzten 20 Jahren jedoch hat sich die Ostantarktis abgekühlt. Das ganze Muster der Temperaturänderungen entspricht damit den Erwartungen und deutet somit auch darauf hin, daß die globale Erwärmung durch Treibhausgase zur Erklärung nötig ist. Wenn in den Medien getönt wird, die Antarktis erwärme sich nun, nachdem man zuvor geglaubt hatte, sie kühle ab, dann haben die Journalisten nicht in den Originalartikel geschaut, sondern irgendwo schlecht abgeschrieben.
Wichtig für die Forscher ist, daß die Modelle die Erwärmungsmuster über der Antarktis nur dann erklären können, wenn die Seeeisbedeckung richtig dargestellt wird, denn die Erwärmung über der Ostantarktis hängt stark von der Entwicklung der Windsysteme über der Antarktis ab und wie viel Wärme hier transportiert wird. Zu wenig Seeeis kann die Antarktis in den Modellen deutlich zu warm machen. Gekoppelte Modelle, die die Seeeisentwicklung intern modellieren und nicht aufgeprägt bekommen, neigen aber dazu, hier große Fehler zu machen, was zu deutlich unterschiedlichen Ergebnissen verschiedener Modelle für die Temperaturentwicklung in der Antarktis führt. Die Arbeit von Steig et al 2008 deutet darauf hin, daß man hier vordringlich nach Verbesserungen suchen muß.
Bei RealClimate findet man eine ausführliche Diskussion der Arbeit.
Mittwoch, 21. Januar 2009
Die Oxidationskraft der Atmosphäre – das scheue OH-Radikal
Das Thema, auf dem ich vor längerer Zeit wissenschaftlich tätig war, ist die Radikalchemie der Troposphäre (die unteren 10 – 16 km der Atmosphäre). Das ist die Chemie, die letztlich dafür sorgt, daß Abgase jeder Form in der Atmosphäre chemisch abgebaut werden, und gelöst im Regen oder als Aerosol zum Boden zurückkehren. Diese Radikalchemie hat einen Antrieb. Das ist die Sonnenstrahlung, genauer gesagt, bestimmte Teile der UV-Strahlung. Die zerlegt bestimmte Moleküle in der Luft, erzeugt Bruchstücke davon, Radikale, die dann mit ihrer Energie ganze Reaktionszyklen antreiben können. Meistens geht es darum, Sauerstoffatome auf andere Moleküle zu übertragen, was diese letztlich in wasserlösliche und abbaubare Formen überführt. Damit wird zum Beispiel dafür gesorgt, daß ein Treibhausgas wie Methan, nach und nach abgebaut wird und dadurch der Anstieg gebremst wird. Daher spielt die Oxidationskraft der Atmosphäre auch eine gewisse Rolle für das Klima.
Die Oxidationskraft der Atmosphäre ist kein echter Fachbegriff. Dahinter steht die Menge an Spurengasen, die Reaktionen zum Abbau anderer Spurengase einleiten könnten, also Oxidationsreaktionen. Eine besondere Rolle spielt dabei Ozon, das zusammen mit UV-Licht ein angeregtes Sauerstoffatom abgeben kann (im Singulett D-Zustand, notiert O(1D), aber Details sind hier nur für einige Spezialisten interessant). Als chemische Reaktionsgleichung:
Das angeregte Sauerstoffatom O(1D) wiederum reagiert mit gasförmigem Wasser (in der feuchten Troposphäre reichlich vorhanden) zu zwei OH-Radikalen reagieren. Und diese Radikale sind die eigentlichen Antreiber der Oxidationsprozesse in der Troposphäre. Die Oxidationsreaktionen, die mit dem OH-Radikal eingeleitet werden, können wiederum auch Ozon produzieren. Insofern ist dieses Radikal letztlich entscheidend für die Oxidationskraft der Atmosphäre.
Zusammengefaßt schreibt man:
Als ich die Universität verließ und mich 1988 der Atmosphärischen Chemie am Forschungszentrum Jülich zuwandte, war es noch in der Diskussion, ob die Modelle eigentlich die OH-Konzentration in der Atmosphäre richtig beschreiben. Die Messungen waren sehr aufwendig und es gab wenige Daten, die zudem recht hohe Unsicherheitsbereiche hatten, den Modellen andererseits traute man nicht, da man sich nicht sicher war, ob schon alle wichtigen Reaktionen entdeckt worden waren und die Reaktionskonstanten teilweise auch sehr große Unsicherheitsbereiche hatten. Bis dahin zeigten Modelle erheblich höhere berechnete Werte der OH-Konzentration gegenüber den Messungen und man spekulierte z.B. über einen nicht berücksichtigten Abbau der Radikale durch Aerosole in der Luft. Als ich mich mit dem Thema beschäftigte, lernte ich zunächst mal die grundsätzlichen Reaktionszyklen kennen und spielte mit vereinfachenden Gleichungen für die OH-Konzentration. Da dieses Radikal sehr kurzlebig ist, kann man annehmen, daß seine Konzentration sich auf die Konzentrationen aller seiner Reaktionspartner und die anderen Parameter (Strahlung, Temperatur usw.) einstellt. Für diese Randbedingungen nimmt man dann an, daß die OH-Konzentration sich nicht mehr ändert, also stationär ist. Dann kann man die ganzen Abbau- und Bildungsreaktionen gerade gleich setzen und diese Gleichung nach der OH-Konzentration auflösen.
Mathematisch sieht das so aus: nehmen wir mal an, OH geht vor allem durch die Reaktion mit NO2 verloren (Stickstoffdioxid, das als Folge von heißen Verbrennungsprozessen entstehen kann). Also:
(2) OH + NO2 + irgendein anderes Molekül als Stoßpartner -> HNO3 (k2)
Die zeitliche Änderung von [OH] ist demnach Produktion – Abbau, und mit Annahme der Stationarität ist das gleich Null, also:
Wenn es nur diese Reaktionen gäbe, könnten wir so ganz leicht die OH-Konzentration im stationären Zustand berechnen. So einfach ist es leider nicht.
Nun befindet sich das OH-Radikal im engen Austausch mit dem HO2-Radikal. Methan + OH reagiert z.B. zu einem Methylradikal und Wasser. Das Methylradikal lagert Sauerstoff an. Reaktion z.B. mit Stickstoffmonoxid entfernt ein Sauerstoffatom, dann zerfällt das Methyloxiradikal mit weiterem Sauerstoff zu Formaldehyd und HO2. HO2 reagiert mit Ozon oder Stickstoffmonoxid, überträgt ein Sauerstoffatom und wird wieder zu OH. Diese enge Kopplung von OH und HO2 erfordert, die stationären Gleichungen beider Radikale gekoppelt zu lösen. Für vereinfachende Annahme gibt es analytische Lösungen, sonst muß man iterieren, was aber prinzipiell gut geht.
Didaktisch einfacher ist die Oxidation von Kohlenmonoxid CO, ebenfalls einem Verbrennungsprodukt und gut vertreten in der Luft.
(3) CO + OH + irgendein anderes Molekül + O2 -> CO2 + HO2 (k3)
(5) HO2 + HO2 + Irgendein anderes Molekül -> H2O2 + O2 (k5)
In der Zeit um 1990 gab es dann dramatische Entwicklungen, die meine Diplomarbeit und teilweise noch die Dissertation prägten. Es gab eine Serie von Korrekturen an den Messdaten. Zum einen wurden Störgrößen für die OH-Messung identifiziert und herausgerechnet, zum zweiten die Messung der UV-Strahlung korrigiert, genauer gesagt eines ganz bestimmten Anteils im Spektrum, der geeignet war, angeregte O-Atome aus Ozon zu schlagen und dadurch OH zu produzieren, und zum dritten wurden meteorologische Stützmessungen korrigiert. Bei aller Konzentration auf schwierig zu messende Spurengase hatte man nämlich der Messung von etwas so einfachem wie der Temperatur keine Beachtung geschenkt. Und die Temperaturmessungen fanden bei zwei Messkampagnen auf dem Institutsdach statt, das sich im Sommer gut aufheizen konnte. Erst die Korrektur mit Temperaturmessungen von einem meteorologischen Turm in der Nähe führte zu vernünftigen Daten. Nach diesen Korrekturen waren auf einmal gemessene und berechnete OH-Konzentrationen in einer guten Übereinstimmung. Daß man tatsächlich Messungen und den Modellen zu OH trauen konnte, brauchte aber noch ein paar Jahre, bis es in der Fachwelt überall akzeptiert war.
Dienstag, 20. Januar 2009
Galaktische kosmische Strahlung – wie man sieht, sieht man nichts
Damit verknüpft ist ein Joker ganz anderer Art im Klima-Poker. Wenn man sich vorübergehend einer Lobotomie unterzieht und so tut, als gäbe es die ganzen Belege für den Anstieg der Treibhausgase und ihre Strahlungswirkung nicht, könnte man mal fragen, was denn alternativ die globale Temperatur steigen läßt. Interne Variabilität, sozusagen interne Klimazyklen? Nein, sicher nicht.
Hat vielleicht die Sonne mehr Strahlung zur Erde geschickt? Da war schon Solanki mit Kollegen anderer Meinung, wie hier 2002 und hier noch mal 2004, wenn man nur die jüngste Zeit herausgreift (Zitate: Solanki, S.K.: Solar variability and climate change: is there a link?. Astron. Geophys. 43, 5.9–5.13, (2002) und S.K. Solanki, I.G. Usoskin, B. Kromer, M. Schüssler, J. Beer, Unusual activity of the sun during recent decades compared to the previous 11,000 years, Nature 431 (2004) 1–12.). Aber Lockwood und Fröhlich (Recent oppositely-directed trends in solar climate forcings and the global mean surface air temperature. Proc. R. Soc. A 463, 2447–2460, (2007).) haben mit einer Serie von drei Artikeln mögliche verbliebene Zweifel ausgeräumt. Zuerst haben sie generell festgestellt, daß Strahlungsgrößen der Sonne mit der globalen Temperatur der letzten 20 Jahre antikorreliert sind, wenn überhaupt. Dann haben sie die Aussagen noch über den Einbezug von Modellrechnungen im zweiten (Lockwood, M. & Fröhlich, C. 2008 Recent oppositely directed trends in solar climate forcings and the global mean surface air temperature. II. Different reconstructions of the total solar irradiance variation and dependence on response time scale. Proc. R. Soc. A 464, 1367–1385) und dann im dritten Teil (Lockwood, M. 2008 Recent changes in solar outputs and the global mean surface temperature. III. Analysis of contributions to global mean air surface temperature rise. Proc. R. Soc. A 464, 1387–1404) verfeinert.
Svensmark und seine Kollegen haben dann das Aerosol-, das Wolken- und das Strahlungsthema verknüpft. Die kreative Hypothese ist, daß Änderungen der Aktivität der Sonne (und ihres Magnetfeldes) mehr oder weniger galaktische kosmische Strahlung (einen Fluß extrem energiehaltiger Partikel aus der Galaxis) durchlassen, die dann auf der Erde kleinstes Aerosol erzeugen können, die wiederum Kondensationskeime für die Entstehung von Wolken erzeugen. Je aktiver die Sonne ist, desto weniger galaktische kosmische Strahlung erreicht die Erde, desto weniger Kondensationskeime werden gebildet, desto weniger Wolken entstehen und desto wärmer wird es auf der Erde. Eine Hypothese, die davon lebt, daß wesentliche Elemente der Wirkungskette kaum zu messen sind, was ihnen zwar wenig Relevanz, aber ein langes Leben schenkt. Dies zumal, da Svensmark die Hypothese immer wieder abgewandelt hatte, so daß im Laufe der Zeit sich immer wieder neue Effektketten fanden. Interessanterweise ist sich sogar Svensmark dessen bewußt, daß er den aktuellen Erwärmungstrend mit seiner Hypothese gar nicht erklären kann. In dieser Antwort auf Lockwood und Fröhlich, 2007 berücksichtigt er selbst einen Trend von 0,14 Grad/Jahrzehnt, was nahe bei den Annahmen in den IPCC-Berichten für den von Menschen verursachten Temperaturanstieg liegt, und schaut sich nur die darauf liegenden Fluktuationen an. Zugleich meint Svensmark auch, daß die globale Temperatur der letzten Jahre ohne Trend sei, was darauf hindeutet, daß er hier nicht nachgerechnet hat – Trends der globalen Temperatur über 10 Jahre sind nicht signifikant. Lockwood und Fröhlich haben die Einwände von Svensmark auch in ihren neueren Beiträgen beantwortet.
Zu den Arbeiten, die auf diese GCR-Hypothese mit Skepsis blicken, zählt zu den neueren ein Artikel in Atmospheric Chemistry and Physics. J. E. Kristjánsson, C. W. Stjern, F. Stordal, A. M. Fjæraa, G. Myhre, and K. Jónasson, Cosmic rays, cloud condensation nuclei and clouds – a reassessment using MODIS data, Atmos. Chem. Phys., 8, 7373-7387, 2008.
Es wurde Ereignisse mit plötzlicher Abnahme der galaktischen kosmischen Strahlung GCR (sogenannte Forbush-Ereignisse) seit 2000 mit Daten des MODIS-Instruments (Moderate Resolution Imaging Spectro- radiometer) untersucht. MODIS ist auf zwei Satelliten installiert, die so die gesamte Erde in 1-2 Tagen abtasten können. Heftige Bearbeitung der Daten gab in fast allen Fällen keinen Zusammenhang zwischen GCR und Bewölkung. In Einzelfällen wurden schwache Zusammenhänge am Rande statistischer Signifikanz gefunden. Insgesamt jedoch stellten die Autoren fest, daß man aufgrund der Daten zwar einen Einfluß von GCR auf die Wolkenbildung nicht sicher völlig ausschließen kann, aber die Daten diesen Zusammenhang kaum unterstützen. Über ausgewählten Meeresgebieten mag es Anzeichen für Zusammenhänge geben. Im Schlusssatz werden die Autoren noch skeptischer: Für die anhaltende globale Erwärmung wird jedoch eine vernachlässigbare Rolle erwartet, bedenkt man das Faktum, daß der Fluß galaktischer kosmischer Strahlung in den letzten paar Jahrzehnten sich nicht veränderte – ausgenommen der 11-Jahres-Zyklus [der Sonnenflecken] (Lockwood and Fr¨ohlich, 2007).
In ScienceDaily wurde der Artikel als weitere Bestätigung kommentiert, das Svensmark und seine Kollegen wohl nicht auf dem richtigen Gleis fahren.
Montag, 19. Januar 2009
Trägt das Internet zur globalen Erwärmung bei?
Ich möchte für diesen Punkt erst mal einen Umweg machen. Anlass zu diesem Beitrag ist, dass ich gerade einen Artikel in der On-line-Version der Financial Times Deutschland gesehen hatte. Dort wird wiederholt, was vor ca. 3 Tagen bereits durch Medien in den USA lief. Die Sunday Times hatte am 11.1.2009 behauptet, eine Suche bei Google würde 7 g CO2 erzeugen. Dies entspräche der Hälfte der Emissionen, die das Erhitzen eines Teekessels mit Wasser erzeugen würde. Das wäre angeblich das Ergebnis einer Studie von Alex Wissner-Gross an der Harvard University. In der Times Online-Ausgabe sieht das etwas anders aus. Da ist die Rede davon, daß eine google-Suche 5-10 g CO2 verbraucht. Die 7 g stammen dann wohl davon, den griffigen Vergleich mit dem Teekessel zu bringen. In jedem Fall wird der Eindruck erweckt, daß Wissner-Gross dies geschrieben hätte, doch der widerspricht.
TechNewsWorld setzte sich mit Wissner-Gross in Verbindung und berichtete, daß er seit dem 12.1. damit beschäftigt war, gegen diese Zeitungsente anzureden. Die Studie gibt es, aber Google kommt in ihr gar nicht vor und auch die Zahlen stimmen nicht. Wissner-Gross erklärte nur, daß das Besuchen von Webseiten im Durchschnitt 20 Milligramm CO2 pro Sekunde erzeugt, was die Times online so auch weitergibt. Es ist nicht nachvollziehbar, wie die Times auf Google kam und speziell auf 7 g bzw. den Bereich 5-10 g CO2 für eine Google-Suche. Wenn es dafür eine Quelle gibt, dann wurde sie im Artikel nicht genannt, denn Wissner-Gross ist es nicht. Auch Google dementierte und rechnete vor, daß eine Suchanfrage in Wahrheit 200 mg CO2 erzeugen würde, also nur 1/35 des genannten Wertes und zudem weniger als der PC verbraucht, an dem man sitzt, um die Google-Suche durchzuführen und sich die Resultate anzusehen.
Es ist eine Tatsache, daß die ganze Ausstattung mit intelligenter Elektronik und die Nutzung des Internets mit den dazu nötigen Servern und der Ausrüstung sich zu einem Bereich entwickelt hat, der einen großen Beitrag zum gesamten Energieverbrauch leistet. Die Informationstechnologie ist daher nicht so sauber, wie man zuerst denken mag. Doch das ist eine naive Sichtweise, wenn man nicht auch dagegensetzt, was z.B. durch das Internet eingespart wird. Wie viele Fahrten, die viel mehr CO2 erzeugen würden, werden durch das Internet eingespart? Das Internet ist ein Faktor für Menschen, die von zu Hause aus arbeiten und für Menschen, die auf Einkaufsfahrten verzichten können, weil sie über das Internet Waren bestellen. Eine On-line-Ausgabe einer Zeitung durchzulesen spart deutlich Energie und Rohstoffe gegen die Auslieferung der Papierausgabe. Bedenkt man dies, stellt das Internet wohl eher eine Einrichtung zur Energieeinsparung dar. Dies kann sich ändern. Aber dazu sind geeignete Untersuchungen nötig.
Diese Falschmeldung um eine Websuche, die 7 g CO2 erfordert oder so viel, wie bei Erhitzen eines halben Teekessels verbraucht wird, tauchte dann am 13.1. bei der Financial Times Deutschland auf, nachdem seit 12.1. das Dementi existiert und die Meldung der Sunday Times als Ente herausstellte. Wie kann das sein? Ist der durchschnittliche deutsche Journalist (bei der Financial Times Deutschland, aber es gibt genügend Beispiele solcher Vorgänge bei anderen Zeitungen) so blöde, daß er es nicht mehr schafft, die 20 mg CO2 zu investieren, um mal kurz das Dementi zu der Ente anzuschauen, die er gerade weiterverbreiten will? Immerhin hatte er es noch geschafft, das Dementi von Google zu finden. Aber die Wissner-Gross falsch zugeordnete Aussage blieb. Der Artikelschreiber hatte zwar den Hinweis, daß im Vergleich zu den Alternativen, wie Autofahren für Kontakte, das Internet sauberer ist, aber die Schlagzeile über luftverpestende Websuchen musste anscheinend sein. Man behauptete auch gleich noch, mehrere Wissenschaftler hätten festgestellt, daß das Internet „die Luft verpestet“. Nein, es waren keine Wissenschaftler, sondern ein Journalist.
Die Ente zog auch in anderen Medien Kreise. Spiegel Online berichtete z.B. schon am 12.1. darüber, auch falsch, aber zumindest ausgewogener, da mehr Informationen einflossen. Lustig immerhin, daß der Schreiber meint, ein 7 g-Kohlestück, an den Kopf geworfen, würde auch weh tun – das ist das Gewicht eines Drittels eines Normbriefes oder von einem Teelöffel Zucker. Aua. Die Süddeutsche brauchte dann einen weiteren Tag, um die Meldung zu kopieren, wirklich recherchiert wurde hier nicht.
Hätte man es besser machen können? Ja, wie z.B. hier demonstriert wird. Und das war auch schon am 13.1. online.
Donnerstag, 15. Januar 2009
Dürre in Australien noch kein Zeichen des Klimawandels
Ein Beitrag von Barrie Hunt vom australischen CSIRO Marine and Atmospheric Research im International Journal of Climatology hat in der Novemberausgabe diese Frage untersucht. Hunt schreibt unter dem Titel Multi-annual dry episodes in Australian climatic variability , daß nach Rechnungen mit einem gekoppelten globalen Klimamodell (CSIRO Mark 2) für eine 10.000 Jahre-Simulation lange Dürreperioden in verschiedenen Regionen Australiens unabhängig voneinander auftreten und anscheinend stochastisch begründet sind, also einfach interne Variabilität wiedergeben. Daher ist die gegenwärtige Dürre möglicherweise keine Folge der globalen Erwärmung.
In seinen Rechnungen ließen sich drei große Räume in Australien unterscheiden, in denen die Dürren unabhängig voneinander in zufälligen Abständen auftraten. Vereinzelt konnten solche Dürreperioden weitaus länger sein, als die 7 Jahre, die derzeit den Südosten Australiens plagen. Insofern muß auch gesagt werden, daß es noch schlimmer kommen könnte als derzeit.
Der Modellauf enthielt keine globale Erwärmung, weil das zu methodischen Problemen geführt hätte, sondern 10.000 Jahre lang Verhältnisse des mittleren 20. Jahrhunderts. Ob das Ergebnis das gleiche wäre, wenn das globale Klima 3-5 Grad wärmer ist, ist damit nicht klar, der Autor selbst weist darauf hin, daß sich eine stärkere globale Erwärmung dann doch auf die Häufigkeit von Dürren auswirken könnte. Das war nicht Gegenstand seiner Untersuchung.
Mittwoch, 14. Januar 2009
Umweltaktivismus mit Schaum vor dem Mund
Um was geht es eigentlich? Die Eigendarstellung des Alfred Wegener Instituts AWI findet man hier. Die Polarstern soll danach im südlichen Atlantik im Rahmen des deutsch-indischen Eisendüngungsexperiment LOHAFEX (Loha bedeutet Eisen auf Hindi, FEX steht für Fertilization EXperiment also Düngungsexperiment) etwa 20 Tonnen Eisensulfat über einem Gebiet von 300 Quadratkilometern ausbringen. Das AWI weist mit recht darauf hin, daß ein größerer Eisberg in etwa die gleiche oder eine stärkere Wirkung hätte. Damit wäre die Diskussion eigentlich beendet. Zusätzlich hat man sich aber noch die Mühe gemacht, ein Meeresgebiet mit geringem Austausch nach außen zu suchen (aufgrund einer Wirbelform der örtlichen Strömung), dessen Wasser vorher aus küstennahen Gebieten einströmte. Dort hatten natürliche Prozesse (Erosion) einen erheblich höheren Eiseneintrag in das Wasser bewirkt. Überspitzt könnte man sagen, daß AWI bereitet auf 300 Quadratkilometern Meeresfläche ein homöopathisches Eisenpräparat zu, dessen Gehalt nach der Verdünnung experimentell kaum nachweisbar ist. Kann man hier noch furchtbare Auswirkungen vermuten?
Ja, das schaffen die Vertreter des AKN. Sie werfen den Forschern allen ernstes „einen größenwahnsinnigen Plan“ vor. Wo soll denn sich der Größenwahn verstecken? Bisher stelle ich mir da kleine Diktatoren vor, die sich mal wieder die Weltherrschaft als Ziel setzen. Das AKN möchte immerhin definieren, was Forscher weltweit tun und lassen sollen. Die juristische Argumentation des AKN ist natürlich unhaltbar, denn die internationalen Vereinbarungen, auf die sie sich berufen, erlauben gerade Düngungsexperimente und verbieten nur die großflächige Düngung. Faszinierend ist aber die fachliche Stellungnahme, die ich hier mal zitiere: „Dabei sind die langfristigen Folgen für Flora und Fauna der Tiefsee und Korallenriffe durch die großflächige Einbringung von Eisen kaum abschätzbar. Weiterhin wissen die Forscher auch nicht, wann das CO2 an einer anderen Ecke der Meere wieder auftaucht.“ Also, 300 qkm, das ist so großflächig wie ein Pickel auf der menschlichen Haut, etwa ein Millionstel der gesamten Meeresoberfläche. Vielleicht sollte das AKN erst mal seine Schlauchboote nehmen und Eisberge einfangen? Eine Tiefsee gibt es vor Ort, aber von was für Korallenriffen reden die Vertreter des AKN hier? Selbstverständlich könnten die gebildeten Algen in der Nahrungskette auftauchen und dabei am Ende auch wieder das gebundene CO2 in der Luft auftauchen. Wo ist da das Problem? Das ist Umweltschutz mit Schaum vor dem Mund, fernab von jeder rationalen Erwägung.
Dahinter steht eine Angst, die nicht weniger irrational ist: ein erfolgreiches Experiment könnte dazu führen, daß von der Wirtschaft gefordert wird, im Rahmen des Geoengineering mit Eisendüngungen gegen steigende CO2-Konzentrationen vorzugehen. Selbstverständlich könnte das geschehen. Auf Basis der bereits durchgeführten Experimente könnte das schon geschehen. Was wollen wir eigentlich? Jede Forschung verbieten, deren Ergebnisse vielleicht zum Effekt haben, daß man Maßnahmen als sinnvoll ansieht, die bisher aus Vorsichtsgründen ausgeschlossen wurden? Forschung hat nicht den Zweck, bestehende politische Vorlieben zu unterstützen, sondern es ist die immerwährende Suche nach mehr Wissen über die Welt, um besser fundierte Entscheidungen treffen zu können. Selbstverständlich können Forschungsergebnisse auch positiv für wirtschaftliche Interessen von Unternehmen sein, ohne daß das den Wert der Forschung beeinträchtigt.
Die eigentliche Entscheidung zur Eisendüngung als Maßnahme wird sowieso solche Experimente nur als Teil der Entscheidungsgrundlage nehmen können. Ich hatte schon andernorts geschrieben, daß Geoengineering eine heikle Sache ist. In diesem speziellen Falle besteht die Frage, ob eine ausreichend große Algenblüte, um signifikant globale Kohlendioxidkonzentrationen zu senken, nicht zu einer so massiven Überdüngung der Meere führen könnte, daß dabei auch großflächig (und hier passt das Wort) Meeresgebiete (in den tieferen Schichten) durch den biologischen Abbau der Algen sauerstoffarm werden und absterben. Diese Frage erfordert weitere Daten und geeignete Modellrechnungen. Wenn man Düngeexperimente unterbindet, unterbindet man auch das Sammeln der hierfür nötigen Daten. Die AKN leistet insoweit nicht nur keinen Beitrag zum Umweltschutz, langfristig behindert sie ihn sogar. Wissen eigentlich die armen Spender für diesen Verein, was das AKN da anrichtet?
Der Erfolg des AKN bisher, mit Deckung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit: das Bundesministerium für Bildung und Forschung BMBF hat das Experiment gestoppt, bis sich zwei nicht genannte Institutionen als Gutachter geäußert haben. Man kann nun spekulieren, was für neuartige Erkenntnisse in den nächsten Tagen oder Wochen herauskommen werden, die über ein Experiment entscheiden sollen, das bereits eine Begutachtung hinter sich hat, und dessen grundsätzliche Auswirkungen bekannt sind. Mit etwas Glück kommen die Gutachten mit vorhersagbarem Ergebnis rechtzeitig heraus, bevor die Polarstern am Einsatzort angekommen ist. Dann könnte ein positives Votum des BMBF den AKN-Auftritt zum Sturm im Wasserglas machen. Aber man muß klar sagen, solche irrationalen Eiferer schaden auf Dauer nicht nur der Forschung, sondern auch dem Umweltschutz, der auf solide Forschungsergebnisse angewiesen ist.
Eine Ergänzung: in der FAZ gab es eine ausführlichere Darstellung des Ablaufs. Demnach gebührt einer kanadischen Umweltorganisation die zweifelhafte Ehre, zuerst Alarm geschlagen zu haben, AKN und auch WWF sind dann mitgezogen. Auch die Rolle des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit ist nicht ganz durchsichtig, denn eigentlich waren sie im Vorfeld von der Aktion informiert, ohne zunächst Einwände zu erheben, und über das Umweltbundesamt noch mal kurz vorher informiert worden. Nun beruft sich das Ministerium darauf, aus dem Forschungsministerium und über das UBA nicht die erforderlichen und erwarteten Informationen erhalten zu haben und stellt sich erst mal dumm. An der obigen Darstellung ändert das nicht besonders viel, so oder so müssen wir nun hoffen, daß die geforderten Gutachten rechtzeitig im Umweltministerium Gnade finden, damit man auf der Polarstern nach Zeitplan anfangen kann, das Eisensulfat ins Meer zu schütten.
Warmes Klima und kalte Winter
1977/1978 gab es schon mal einen Winter, der ähnlich spektakulär wahrgenommen wurde, wie der Januar 2009. Damals war es nicht nur recht kalt, vor allem legten starke Schneefälle und Schneeverwehungen direkt nach Weihnachten 1977 den Verkehr und das öffentliche Leben in vielen Teilen Deutschlands tagelang oder für den halben Monat lahm. Was Kälterekorde angeht, so war der letzte Januar, der kühler ausfiel als die erste Januarhälfte 2009 im Jahr 1987 – übrigens mitten in einem starken Anstieg der globalen Temperatur. Mit -5,9 Grad war der ganze Monat im Mittel kälter als die doch als extrem frostig wahrgenommenen ersten zwei Wochen dieses Jahres. Die wahren Rekordhalter sind aber die Kriegswinter 1940 bis 1942. -9,0 Grad war es 1940 kalt, -7,9 Grad 1942, immer noch -5,4 Grad 1941. Und dies alles gerade während eines lokalen Maximums der globalen Temperatur – danach ging sie etwas zurück, um dann bis ca. 1970 keinen signifikanten Trend zu zeigen. Kalte Winter in Deutschland und globale Erwärmung waren also schon in der Vergangenheit kein Widerspruch. Wie ein Januar aussieht, der über 4 Wochen lang 4 Grad kälter war als die ersten 2 Wochen dieses Jahres, möchte ich mir eigentlich nicht vorstellen und nicht gerne erleben. Aber niemand kann ausschließen, daß ein fast so kalter Januar mal wiederkehrt, so gering die Wahrscheinlichkeit auch ist. Wetter kann eben schwanken, denn das Klima sagt uns nur etwas über die Wahrscheinlichkeiten und den Mittelwert, aber schließt extreme Abweichungen vom Mittelwert im Rahmen der natürlichen Variabilität des Wetters nicht aus. Eine nördliche Strömung, leichter Schneefall und dann klare Nächte werden also auch in Zukunft zweistellige Minusgrade ermöglichen. Die Wahrscheinlichkeit für diese Temperaturen wird aber abnehmen, während milde Winter wie im vergangenen Jahr zunehmend zur Norm werden. Nichts anderes behaupten die Klimaforschung.
Dienstag, 13. Januar 2009
Ein Blick in neue Veröffentlichungen - was treibt die Temperaturen?
Zuvor hatte ich schon darauf hingewiesen, daß die Variabilität der globalen Temperaturzeitreihe in einer statistischen Untersuchung (Zorita, E., T. F. Stocker, and H. von Storch (2008), How unusual is the recent series of warm years?, Geophys. Res. Lett., 35, L24706, doi:10.1029/2008GL036228) auf ihre Wahrscheinlichkeit überprüft wurde, Produkt interner Variabilität zu sein. Die Antwort war, das ist extrem unwahrscheinlich. Zufälligerweise gab es ebenfalls in den Geophysical Research Letters, einer Fachzeitschrift, in der man relativ schnell knappe Artikel unterbringen kann und die ein recht hohes Ansehen hat, auch einen Artikel dazu, was denn nun die globalen Temperaturen antreibt. Um genau zu sein, es ging darum, was eigentlich der Antrieb für die mittleren Temperaturen an Land seit 1880 war. Auf der einen Seite könnten externe Antriebe die Zeitreihe bestimmt haben, wie etwa der Treibhauseffekt von Menschen produzierter Gase oder solare Einstrahlungsänderungen, auf der anderen Seite könnten aber auch interne Antriebe wichtig gewesen sein, wie etwa Änderungen der Meeresströmungen, die vielleicht unregelmäßig aber nach bestimmten Mustern wie El Nino erfolgen.
Hoerling, Kumar, Eischeid und Jha haben sich im Artikel: What is causing the variability in global mean land temperature?, dieser Frage angenommen (Hoerling, M., A. Kumar, J. Eischeid, and B. Jha (2008), What is causing the variability in global mean land temperature?, Geophys. Res. Lett., 35, L23712, doi:10.1029/2008GL035984.) Dabei verglichen sie die Temperaturdaten von NOAA, NASA-GISS und dem Hadley Centre mit Rechnungen mit verschiedenen Modellen.
Dabei wurde festgestellt, daß Änderungen der Oberflächentemperaturen der Ozeane zu 76% Antrieb für die Landtemperaturen sind. Die Meere wiederum reagieren meist auf externe Antriebe (Korrelation 88%): Treibhausgase und Aerosol, Vulkanausbrüche und solare Strahlungsänderungen, wobei von 1880 bis ca. 1900 und etwas darüber hinaus eine Serie von Vulkanausbrüchen dominierende Ursache für Variationen waren (hier eine Abkühlung) und nach 1950 die Treibhausgase bestimmende Größe waren. Die Erwärmung um 1940 wird hingegen auf die interne Variabilität der Kopplung von Meeres- und Landtemperaturen zurückgeführt und scheint weniger extern angetrieben zu sein. Ein anderer Ansatz gegenüber Zorita et al. (2008), aber trotzdem eine ähnliche Antwort. Beide Artikel bestätigen erneut Grundaussagen der IPCC-Berichte.
Daß eine Reihe von Vulkanausbrüchen für die recht kühlen Temperaturen im 19. Jahrhundert gesorgt haben könnte, ist nicht unbedingt neu. Interessanterweise gibt es aber gerade derzeit weitere Untersuchungen, die sich tiefer mit dem Klimaeffekt von Vulkanen beschäftigen. In
Nature Geoscience 2, 51 - 56 (2009) schreiben Rosanne D'Arrigo, Rob Wilson und Alexander Tudhope über "The impact of volcanic forcing on tropical temperatures during the past four centuries" Die Autoren interessierten sich also vor allem dafür, was Vulkanausbrüche in tropischen Breiten bewirkten. Dafür hatten sie keine direkten Temperaturmessungen zur Verfügung, sondern mußten auf Proxydaten zurückgreifen, wie etwa Baumringe, Eiskernohrungen oder das Korallenwachstum, um die Temperaturen der letzten 400 Jahre zu rekonstruieren. Unter anderem fanden sie erneut bestätigt, daß vor allem im frühen 19. Jahrhundert Vulkanausbrüche, wie der Tambora, aber auch bisher unidentifizierte Vulkane, für deutliche Abkühlungsperioden gesorgt hatten.
Eine andere Gruppe ging gleich 1500 Jahre zurück, um Vulkanausbrüche zu untersuchen. Die Arbeit ist von Gao, C., A. Robock, and C. Ammann (2008), Volcanic forcing of climate over the past 1500 years: An improved ice core-based index for climate models, J. Geophys. Res., 113, D23111, doi:10.1029/2008JD010239. Der Vorzug dieser Arbeit ist, wie die Autoren herausstellen, daß sie mit 54 Eiskernbohrungen aus der Antarktis und Grönland eine besonders hohe Datendichte erzielen, die ihnen relativ genaue Aussagen zu der Temperaturentwicklung erlauben. Natürlich folgt ihr Temepraturproxy recht gut der bekannten Hockeyschlägerkurve, die verschiedene Forschergruppen für die Temperaturentwicklung der letzten 1000 oder 2000 Jahre gefunden hatten. Die Analyse der Sulfatablagerungen erlaubte dann eine gute Zuordnung von Vulkanausbrüchen in Raum und Zeit, ein Datensatz, der damit der Forschung für weitere Arbeiten zur Verfügung steht, insbesondere um Modellläufe für die vergangenen Jahrhunderte durchzuführen, um ihre Leistungsfähigkeit zu verbessern und die vergangene Klimaentwicklung zu untersuchen. In einem Diagramm, das im Artikel abgebildet ist, und das ich aus urheberrechtlichen Gründen nicht einfach kopieren kann, fällt vor allem auf, daß einzelne besonders starke Abkühlungsereignisse in der Vergangenheit, z.B. im 13. Jahrhundert, in den Temepraturproxys anderer Gruppen nicht auftauchen. Möglicherweise liegt es an der zu geringen Zahl vorhandener Proxydaten, daß nicht alle starken Vulkanausbrüche in den Temperaturproxydaten wiedergefunden werden. Sicherlich Stoff, um weiter darüber nachzudenken.
Bevor ich Schluß mache, noch etwas zum Thema Modellunsicherheit. Die verschiedenen globalen Transportmodelle oder gekoppelten Ozean-Atmosphärenmodelle zeigen Abweichungen zwischen ihren Ergebnissen und ihrer Sensitivität bezüglich einer Änderung der Treibhausgaskonzentrationen. Der unsichere Parameter, der das bewirkt, ist wohl die Behandlung der Aerosole. Aber was genau ist es? Aerosol kann als Kondensationskerne für Wassertröpfchen bzw. Wolkentröpfchen dienen. Und das Verhältnis zwischen Aerosolmasse und der Zahl der dadurch erzeugten Tröpfchen ist anscheinend der eigentliche Parameter, der im wesentlichen die Unterschiede zwischen den Antrieben der Modelle im kurzwelligen Bereich (also salopp die solare Einstrahlung) erzeugt. Wenn so genau der Finger in die Wunde gelegt wird, sollte es doch hoffentlich möglich sein, daß die Modeller hier ihre Parametrisierungen verbessern, denn es ist ein betrüblicher Zustand, daß nach wie vor die Antwort auf die Frage, welche Temperatursteigerung denn eine Verdopplung von CO2-Konzentrationen bewirkt, die Antwort ist: so etwa 1,5 bis 4,5 Grad, vielleicht auch mehr, mit dem wahrscheinlichsten Wert um 3 Grad. Und das schon seit 20 Jahren, obwohl wir inzwischen 3 Modellgenerationen weiter sind. (Siehe Storelvmo, T., U. Lohmann, and R. Bennartz (2009), What governs the spread in shortwave forcings in the transient IPCC AR4 models?, Geophys. Res. Lett., 36, L01806, doi:10.1029/2008GL036069.)
In allen Fällen sind Links auf die Artikel für die meisten Leser weniger hilfreich, weil in allen Fällen dahinter kostenpflichtige Zugänge stehen. Aber mit ein bißchen Suchen findet sich früher oder später auf einer Seite einer der Autoren der Artikel gratis. Wenn mir so etwas auffällt, trage ich den Link nach.
Sonntag, 11. Januar 2009
Andere Gründe für die aktuelle Klimaerwärmung
- kein Klimawandel stattfindet oder es sich schon wieder abkühlt,
- falls das Klima sich ändert, ist das nur ein natürlicher Zyklus,
- Änderungen des Klimas durch Treibhausgase werden in der Zukunft in einer negativen Rückkopplung mit der Feuchte oder Wolken gedämpft,
- falls nicht, ist es die Sonne,
- falls nicht, sind es kosmische Strahlen,
- falls nicht, ist es irgendeine andere, noch stärker esoterische Ursache,
- falls doch Treibhausgase die Ursache sind, hat nicht der Mensch sie wesentlich verursacht,
- falls er sie doch wesentlich verursacht hat und einen Klimawandel bewirkt, ist der Klimawandel aber eher positiv für die Menschheit,
- falls es nicht positiv für die Menschheit ist, sind aber die Kosten für Gegenmaßnahmen größer als die Kosten des Klimawandels,
- falls selbst das falsch ist, ist es ohnehin zu spät, noch irgendwas zu unternehmen, also laßt uns feiern und nicht an morgen denken.
Wenn man mit Leugnern argumentiert, kommen so nach und nach mehrere oder alle Punkte dieser Reihung, bei der jeder einzelne Punkt vielleicht noch einer Diskussion gewürdigt werden kann, dieser ganze Zoo von Ablehnungsgründen durch die widersprüchliche Argumentation aber nur noch lächerlich wirkt.
Einge Beiträge hier waren dazu bestimmt, deutlich zu machen, daß ein Klimawandel stattfindet und daß er vom Menschen verursacht ist und daß die möglichen Folgen es plausibel machen, daß wir weitaus mehr verlieren können, wenn wir nichts dagegen unternehmen.
Über alternative Theorien schreibe ich wenig, weil sie schon dadurch unplausibel sind, weil wir den Klimawandel auf der Basis der bestehenden Annahmen gut erklären können - näheres kann man in den IPCC-Berichten nachlesen, zu denen ich im linken Seitenmenü verlinkt habe. Doch wenn ich das tun wollte, könnte ich leicht auf entsprechende Arbeiten verlinken, die solche alternative Theorien einem Test unterworfen haben.
Änderungen des Klimas unterliegen mit Sicherheit keiner negativen Rückkopplung durch Feuchteänderungen oder Wolken (Iriseffekt) in der Zukunft, sondern werden im Gegenteil dadurch verstärkt. Diskutiert habe ich das hier und hat das RealClimate hier, jeweils mit weiteren Links.
Es wurde auch untersucht, ob die Klimaänderungen durch Änderungen der Strahlung der Sonne bewirkt sein können. Doch dafür spricht nichts, wie z.B. hier gezeigt wird. Es gibt eine Reihe von anderen Webseiten, die Gründe dagegen anführen, wie etwa diese Linksammlung.
Können kosmische Strahlen der Grund für die aktuellen Klimaänderungen sein, wie es Svensmark behauptet? Auch dagegen sprechen mehrere Arbeiten, einen Start bietet erneut RealClimate.
Und was ist mit natürlichen Zyklen? Gerade Geologen finden diesen Punkt sympathisch, weil ja in der Vergangenheit immer wieder Phasen hoher und niedriger globaler Temperaturen abwechselten, "aus welchen Gründen auch immer". Diese Gründe waren aber oft recht spezifisch, nur ist es natürlich ein grundsätzliches Problem, daß wir diese Gründe indirekt aus Ablagerungen und Eisbohrkernen und aus Modellrechnungen herleiten müssen und nicht positiv untersuchen können, indem wir eine Reihe von Erden produzieren, an denen wir gezielt einzelne Parameter verändern können, um genau Ursachen festzulegen. Man kann natürlich auch sich dumm stellen und sagen "Ich weiß gar nichts." Man nimmt sich dann eine Temperaturzeitreihe und untersucht, was die statistische Wahrscheinlichkeit dafür ist, daß im Laufe der Zeit zufällig eine Veränderung von einem bestimmten Ausmaß geschehen kann. Wir wissen, daß die Temperaturen in der Zeitreihe die höheren Werte in der jüngeren Vergangenheit zeigen. Die 13 wärmsten globalen Jahresmittel der Temperatur seit Beginn der globalen Messungen lagen alle nach 1990. Wie wahrscheinlich ist das, das dies rein zufällig geschieht? Genau diese Frage (etwas breiter und komplexer gestellt) haben Zorita, Stocker und von Storch beantwortet. Ihre Antwort ist: so unwahrscheinlich, daß niemand das ernsthaft glauben würde, nämlich unter 1:1000, je nach Methode und Hinzunahme regionaler Daten sogar um mehrere weitere Größenordnungen unwahrscheinlicher.
Es gibt eine konzeptionelle Schwierigkeit bei so einer Arbeit. Die Temperaturdaten folgen keiner rein zufälligen Verteilung, selbst wenn man annimmt, daß sie keinen Trend enthalten, was ja tatsächlich der Fall ist. Selbst ohne Trend sind die globalen Temperaturmittel in den verschiedenen Jahren nicht voneinander unabhängig, sondern haben ein Gedächtnis. Im einfachsten Fall hat ein Jahr eine ziemlich ähnliche Temperatur, wie das Vorjahr, weil sich die Randbedingungen, die zu Temperaturänderungen führen können, langsamer ändern als im Jahreszyklus. Wenn z.B. ein Jahr kühler und dadurch schneereich war, könnte die niedrigere Albedo der Eisflächen dazu geführt haben, daß in diesem Jahr die Erde mehr Sonnenstrahlung reflektierte, dadurch die Meere etwas abkühlten und im Folgejahr es erneut etwas kühler war. Das nennt man Autokorrelation, denn würde man ein Diagramm zeichnen, auf dem man auf einer Achse die Temperaturen eines Jahres und auf der anderen Achse die des Folgejahres auftrüge, dann würden die Punkte im Diagramm, die die Jahre darstellen, eine Korrelation zeigen. Genau das ist der Fall. Im einfachsten Fall geht man nur von einer Korrelation zwischen Folgejahren aus. Das ganze ist ein Prozess, der mit einem Parameter gekennzeichnet ist, der die Größe der Korrelation anzeigt, ein AR(1)-Prozess (Näheres dazu erläutert Tamino in seinem Blog, wobei auch die Folgebeiträge das Thema vertiefen - zudem hat er die Arbeit von Zorita et al. tiefer gehend und mit Fachkunde diskutiert). Daneben kann man aber auch Korrelationen betrachten, die sich über viele Jahre erstrecken. Durch die Autokorrelation wird es wahrscheinlicher, daß sich wärmere oder kältere Jahre an einem Ende einer Zeitreihe häufen, denn ohne Autokorrelation ist die Wahrscheinlichkeit, die 13 wärmsten Jahre auf den letzten 17 Plätzen einer Zeitreihe zu finden, 1,25 * 10^-14 (1,25:100.000.000.000.000).
In der Arbeit von Zorita et al. wurde beides getan, und in beiden Fällen trotzdem eine sehr geringe Wahrscheinlichkeit dafür gefunden, daß die drei Temperaturzeitreihen des Hadley Centres, von NASA-GISS und NOAA-NCDC seit 1880 rein zufällig so aussehen könnten, wie sie es tun. In allen Fällen liegen die Wahrscheinlichkeiten für die globalen Daten im Bereich zwischen 1:1000 und 1:10.000, und zwar recht robust für die Wahl der Parameter und die Wahl der Zahl der wärmsten Jahre aus einer gewählten Anzahl letzter Jahre. Interessant ist aber, daß bei Betrachtung regionaler Temepraturdaten diese Wahrscheinlichkeitsabschätzungen noch deutlich niedriger liegen, im extremen Fall der Betrachtung der wärmsten Jahre in den letzten 17 Jahren in Ostasien im Fall eines AR(1)-Prozeses (Autokorrelation nur im Folgejahr) der Größenordnung nach bei 1:1.000.000. Nimmt man alle Daten zusammen, ergeben sich daraus also starke Grenzen für die Wahrscheinlichkeit, daß einfach nur natürliche Variabilität die beobachtete Temperaturzeitreihe regional und global erzeugt haben könnte. Salopp gesagt: vergeßt es, von Menschen erzeugte Treibhausgase sind nach wie vor die einzige vernünftige Erklärung für die beobachtete globale Erwärmung.
Sonntag, 4. Januar 2009
Schneeball im Treibhaus – die Erde vor mehr als 500 Millionen Jahren
Tatsächlich gibt es wohl niemanden, der die Erde als Schneeball in der ersten Milliarde Jahre ihrer Existenz sehen würde. Aber es gab zumindest drei Phasen, in denen geologische Ablagerungen Hinweise auf eine weitgehende Vereisung der Erde geben (vor 2,22 Milliarden Jahren, vor 710 Millionen Jahren und vor 630 Millionen Jahren). Der vermutete Ablauf dahinter ist, daß einerseits die Vereisung von Teilen der Erde in eine selbstverstärkende Rückkopplung lief: je mehr Teile der Erde eisbedeckt sind, desto höher ist die Albedo der Erde und desto mehr Sonnenlicht wird reflektiert, statt die Erde zu erwärmen. Auf der kälter werdenden Erde dehnen sich dann die Eisflächen aus. Zugleich aber verhindert die Vereisung auch, daß Kohlendioxid sich weiter im Wasser lösen und dort abgelagert werden kann oder durch Verwitterungsprozesse in der Erde gebunden werden kann, über lange Zeiträume der Hauptprozess, um Kohlendioxid aus der Atmosphäre zu entfernen. Auf einer Zeitachse von 100.000en oder Millionen von Jahren kann sich Kohlendioxid, das aus Vulkanen abgegeben wird, in der Atmosphäre anreichern.
Nach neueren Ergebnissen von einer Gruppe um Bao und Fairchild (Bao, H., Fairchild, I.J., Wynn, P.M. and Spötl, C. 2009 Stretching the envelope of past surface environments: Neoproterozoic glacial lakes from Svalbard. Science, 323, 119-122) konnten aus der Isotopenanalyse von geologischen Formationen Hinweise gefunden werden, daß vor ca. 630 Millionen Jahren, beim letzten vermuteten Eintreten eines "Schneeballs Erde", tatsächlich gleichzeitig die Erde ganz oder weitgehend von Eis bedeckt war und in der Atmosphäre hohe Konzentrationen von Kohlendioxid vorlagen.
Bei allen Rekonstruktionen der Zusammensetzung der Erdatmosphäre und der Temperatur der Erde, die über Milliarden Jahre in die Vergangenheit reichen, ist natürlich große Vorsicht angebracht, weil nur sehr indirekte Schlüsse aus Isotopenzusammensetzungen in Sedimenten gemacht werden können, die möglicherweise selbst bereits chemischen Umwandlungen ausgesetzt waren. Selbst für die letzten 60 Millionen Jahre hat es in jüngster Zeit noch Überraschungen darüber gegeben, wann z.B. Eiskappen an den Polen existierten und seit wann die Antarktis vereist ist.
Das eigentlich erstaunliche war, daß nach all den Klimaschwankungen die Erde zwischendurch auch auf Werte kam, bei denen sich der Mensch entwickeln konnte. Seine Zeit war erst gekommen, als die Erde schon über 4 Milliarden Jahre existierte, nachdem CO2 unter die Schwelle gesunken war, die empfindliche Menschen krank machen kann, nachdem genug Sauerstoff in der Atmosphäre war, damit es eine Ozonschicht ausbilden und das Leben auf der Erde vor harter UV-Strahlung schützen konnte und nachdem die Erde in eine Folge von Eiszeiten und Zwischeneiszeiten gefallen war, die das Klima der letzten Millionen Jahre kennzeichnet. Ackerbau wurde überhaupt nur in einem schmalen Temperaturband entwickelt, das sich in der Zeit nach der letzten Eiszeit entwickelte. Dieses Band war wohl nur so breit wie die gesamte Temperaturentwicklung seit Beginn des 19. Jahrhunderts bis zum Ende des 20. Jahrhunderts. In diesem Jahrhundert werden wir dieses Band verlassen und zunächst in das Band eintreten, in dem Dinosaurier die Erde beherrschten. Nur daß wir jetzt unsere Landwirtschaft und die aktuellen Lebensformen in dieses Band hinüberretten wollen. Niemand weiß, ob das möglich ist.
Sollten wir gegen den CO2-Anstieg nichts unternehmen, wird das Mischungsverhältnis die vorindustriellen Werte mehr als verzehnfachen und die Temperatur in der Folge um mehr als 10 Grad steigen. Die Polkappen werden verschwinden und der Meeresspiegel wird um über 70 Meter steigen. Wir wissen es, weil es solche Verhältnisse auf der Erde schon mal gab. Wir wissen gar nicht, wie stabil das aktuelle Klimaregime ist und wie lange es gehalten hätte, aber wir wissen, daß wir dabei sind, es zu verlassen, wenn wir nicht drastische Maßnahmen durchführen.
Hinweise auf Verhältnisse, wie sie Professor Fairchild auf seiner Webseite darstellt, erwecken die Besorgnis, daß wir unsere Situation mit Geoengineering noch drastisch verschlimmern können. Würden wir hohe Kohlendioxidkonzentrationen in der Luft erzeugen und dann durch hohe Sulfatemissionen versuchen, die Erde wieder zu kühlen, könnten wir die Erde in einen erneuten "Schneeball im Treibhaus" hineintreiben, bei dem über die Albedorückkopplung die Erde zunehmend vereist und dabei zugleich den Weg abschneidet, über den Kohlendioxid langsam wieder aus der Atmosphäre in Wasser und Boden entfernt werden könnte. Daß die Erde in der meisten Zeit in der Vergangenheit für Menschen kein angenehmer Ort zum Leben war, sollte uns bei allem, was wir derzeit mit der Erdatmosphäre anstellen, zu denken geben.
Der Golfstrom kippte schon mal - oder?
Es gab eine Zeit, da sorgte man sich darum, ob nicht die globale Erwärmung auch den Golfstrom unterbrechen könnte mit der grotesken Wirkung, daß es auf einer sich erwärmenden Erde zugleich ein kühler werdendes Europa gibt. Die Sorge kommt von einem Mechanismus her, den man in Klimareihen seit der letzten Eiszeit erkannt zu haben glaubt. Demnach gab es wohl nach dem Ende der letzten Eiszeit vor ca. 12000 Jahren noch einmal einen dramatischen Kälteeinbruch. Der war anscheinend begleitet von einem starken Süßwasserzufluß zu dem Nordatlantik. Die Überlegung war, daß dieses Süßwasser das Salzwasser des Nordatlantik verdünnt hatte. Dieses so verdünnte Salzwasser hatte nun Auftrieb gegenüber dem salzigeren Tiefenwasser. Obwohl das Wasser im Nordatlantik aufgrund seiner Kälte spezifisch schwerer wird und absinken sollte, kann es das durch den geringeren Salzgehalt nicht. Dieses Absinken ist aber notwendig, um einen starken Strom dieses kalten Wassers in die Tiefe des Meeres und von dort nach Süden zu erzeugen. Dieser Strom pumpt am Ende auch Wasser in den Golf von Mexiko, wo das Wasser wieder an die Oberfläche kommt. In den Subtropen erwärmt, kann es nun an der Oberfläche als Golfstrom wieder nach Norden fließen. Das ganze ist als thermohaline Zirkulation bekannt und wird so in Lehrbüchern oder hier erläutert. Die Sorge ist also, daß ein starker Abfluß von Süßwasser im Norden diese Pumpe für kaltes Wasser in den Süden und warmes Wasser in den Norden unterbrechen könnte. Dieser Süßwasserzufluß würde zum Beispiel entstehen, wenn viel Eis im Norden, etwa auf Grönland schmelzen und ins Meer abfließen würde. Also etwas, was man als Folge einer globalen Erwärmung erwarten könnte.
Nun ist diese Sorge aber wohl nicht so begründet. Der Süßwasserzufluß müßte schon extrem stark sein, und die in naher Zukunft in Grönland zu erwartende Eisschmelze würde dafür wohl nicht ausreichen. Vor über 12000 Jahren aber, so glaubte man, müßte die Eisschmelze ausreichend gewesen sein. Zum Beispiel könnte man sich vorstellen, daß der Eisschild über Nordamerika, der sich in der letzten Eiszeit gebildet hatte, so weit geschmolzen war, daß er eine Lücke bildete, aus der dann ein gewaltiger Schmelzwassersee im Norden Kanadas sich in den Nordatlantik ergießen konnte, etwa da, wo heute der St. Lorenz Strom liegt. In den Sedimentdaten und in Eisbohrkernen erkennt man nämlich, daß es auf der Nordhalbkugel damals vor 12.000 Jahren kurzzeitig noch mal sehr kalt wurde, so kalt wie in der Eiszeit. Dieser Temperaturabfall wird aber in Eisbohrkernen aus der Antarktis nicht angezeigt – die Südhalbkugel wurde also zur gleichen Zeit nicht noch mal kälter. Das Ereignis war also nicht global, sondern auf den Norden beschränkt, könnte also genau mit einer Unterbrechung des Golfstroms als Wärmepumpe für den Norden zusammenhängen.
Doch die Interpretation der alten Daten ist schwierig, weil man aus lauter indirekten Anzeichen Schlüsse ziehen muß. Den Schmelzwasserabfluß aus Nordamerika hat keiner gesehen, er ist nur plausibel. Vielleicht gibt es auch andere Gründe dafür, daß vor über 12.000 Jahren die Eiszeit auf der Nordhalbkugel noch mal zurückkehrte. Und tatsächlich wird ein Verdächtiger genannt: es ist ein Komet, der die Erde vor 12.900 Jahren getroffen haben soll. Für jene Zeit werden nämlich verschiedene Anzeichen gefunden, die auf einen Kometen hindeuten: erhöhte Iridiumablagerungen, Nanodiamanten (also winzig kleine Diamanten als Anzeichen für eine extreme Erhitzung und Druckwirkungen auf Kohlenstoff) und Anzeichen für weitreichende Waldbrände im Norden. Einzelheiten diskutiert Tamino in seinem Block, der mich zu diesem Beitrag angeregt hat. Der Einschlag des Komets könnte also große Mengen an Staub über der Nordhalbkugel erzeugt haben. Die Waldbrände als Folge des Einschlags könnten dies noch verstärkt haben. Eine solche Menge an Staub in der Atmosphäre könnte aber eine starke Abkühlung auf der Nordhalbkugel bewirkt haben. Damit haben wir also einen zweiten Mechanismus, der auch plausibel ist und ebenfalls für eine Wiederkehr der Eiszeit vor über 12.000 Jahren im Norden gesorgt haben könnte.
Ergänzung: Es gibt eine Diskussion dazu bei RealClimate, in der eher Skepsis zu der Kometenthese vorherrscht. Das Hauptargument ist, daß es verschiedene Ereignisse einer raschen Abkühlung oder raschen Erwärmung in der Vergangenheit gab, die alle erklärungsbedürftig sind und bei denen es schwer vorstellbar wäre, daß jedesmal ein passender Komet als Auslöser zur Verfügung stand. Warum also sollte man ausgerechnet bei der Abkühlung vor 12900 Jahren auf eienn Kometen als Auslöser angewiesen sein?
Was ist also wirklich passiert? Wir müssen damit leben, daß die Forschung uns verschiedene plausible Möglichkeiten zeigen kann, daß aber Rekonstruktionen der Vergangenheit oft Unsicherheiten enthalten, die es uns (noch) nicht ermöglichen, zwischen mehreren plausiblen Möglichkeiten zu entscheiden. Deshalb ist es so wichtig, wenn man sich wissenschaftliche Ergebnisse anschaut, sauber zu entscheiden, was als plausibel diskutiert wird und was als sicher akzeptiert wird. In der Tagespresse wird man diesen sauberen Unterschied nicht finden. Genau aus diesem Grund geistert manchmal durch die Presse und durch die Blogs, daß die globale Erwärmung eine neue Eiszeit in Europa erzeugen könnte. Das ist sowohl falsch, denn diese Möglichkeit gilt als eher unwahrscheinlich, als auch stark übertrieben: der Unterschied der Temperaturen zwischen Sylt und Prince Rupert stellt den Unterschied zwischen angenehmen und stark verregneten Sommern dar, aber nicht zwischen normalem Klima und einer Eiszeit.