Dienstag, 28. April 2009
Schweinegrippe - Sorgen eines Vaters
Wenn man sich darüber informieren möchte, wie denn die Lage eigentlich ist und was man beachten sollte, gibt es eine Reihe von Schwierigkeiten.
Die Datenlage:
In Mexiko gab es zunächst geringe Bereitschaft, die Erkrankungen an die große Glocke zu hängen. Dadurch gibt es Zweifel an den mexikanischen Daten. Wenn sich Mexikaner in Blogs äußern, dann häufig mit dem Unterton, daß die Behörden die Epidemie unter den Tisch zu kehren versuchen und es in Wahrheit viel dramatischer sei, als offiziell zugegeben werden. Man kann aber vermuten, daß gerade das Misstrauen in die Behörden dazu führt, daß sich bei umgreifenden Infekten eine Hysterie entwickelt, die die tatsächliche Epidemie übertreibt. Immerhin ist es, gerade für den Laien, schwierig zu beurteilen, ob eine Atemwegserkrankung nun eine Grippe ist, und gar gerade dieser spezielle A/H1H1-Stamm, der für einige Tote gesorgt hat, oder eine andere Infektion. Sicherheit gibt erst ein Test im Labor, der einige Tage Zeit beansprucht. Die am besten greifbaren Daten sind die Zahl der Toten in Krankenhäusern, am besten zusätzlich bestätigt durch eine Laboranalyse auf den Virus, den die Leichen tragen.
Historische Vergleiche:
Was Menschen sehr besorgt macht, sind die Parallelen zur Spanischen Grippe, die je nach Schätzung zwischen 25 und 50 Millionen Menschen in drei Infektionswellen 1918 und 1919 tötete, dabei vorwiegend, und untypisch für Grippe, Menschen zwischen 20 und 40, statt wie sonst Kleinkinder und alte Menschen. Die ersten Zahlen aus Mexiko deuteten ebenfalls auf vorwiegend Menschen mittleren Alters, die nach einer Influenza starben. Und auch der Virusstamm ist der gleiche, wobei der aktuelle Virus genetisches Material von Schweine-, Vogel- und Humangrippe enthält. Die Spanische Grippe war vermutlich in Nordamerika entstanden und von Soldaten durch den 1. Weltkrieg nach Europa gebracht worden. Erst im neutralen Spanien, das im Gegensatz zu anderen Staaten während des 1. Weltkriegs eine freie Berichterstattung über steigende Erkrankungsfälle zuließ, wurde diese Form der Influenza bekannt, was dann den Namen für diese Grippepandemie prägte. Vergleiche sind jedoch auf den zweiten Blick viel schwieriger. In Wahrheit kann keiner sagen, wie viele Menschen tatsächlich von der Spanischen Grippe infiziert wurden, und wie viele Todesfälle es damals gab, denn damals gab es keine genetischen Tests auf den Virustyp. Zudem waren damals viele Menschen durch den Krieg geschwächt und schlecht genährt, Truppenkonzentrationen und -transporte an vielen Stellen machen die globale Verbreitung des Virus einfach und natürlich gab es damals keine effizienten Maßnahmen, z.B. Grippemedikamente wie Tamiflu oder Impfungen gegen Pneumokokken.
Die Bewertung der Lage:
Die WHO ist besorgt, weil man schon länger auf die nächste große Grippepandemie wartet. Der beobachtete Stamm wird offensichtlich gut von Mensch zu Mensch verbreitet und verbreitet sich bereits von Nordamerika nach Europa (bestätigt sind u.a. Spanien und Großbritannien). In Mexiko hatte man am Wochenende ca. 120 Tote auf ca. 1600 Erkrankte gemeldet. Das wäre eine Mortalität von ca. 7,5% (und ich runde hier die Zahlen mit Bedacht, weil hier wirklich viele Unsicherheiten eingehen), was durchaus im Rahmen dessen wäre, was manche für die Spanische Grippe annehmen (hier gibt es allerdings sehr unterschiedliche Meinungen, denn die Datenlage ist einfach zu schwach). Man sollte dabei aber berücksichtigen, daß die Zahl der Erkrankten unzureichend erfasst sein dürfte – gezählt werden wohl nur die Menschen, die mit schweren Symptomen die Krankenhäuser aufsuchen. Weiterhin ist die Sterblichkeit in Mexiko aus mehreren Gründen hoch. Die meisten Menschen sterben nicht direkt an der Grippe, sondern an den Komplikationen, insbesondere einer Lungenentzündung im Gefolge der Grippe, und die hohe Sterblichkeit bestand in Städten, die relativ hoch lagen und damit dünnere Luft hatten – ein Risikofaktor für Menschen mit Atemwegserkrankungen. Dazu kommt die geringere Qualität der Gesundheitsversorgung in Mexiko. Bei den US-Fällen wurden keine vergleichbaren Sterblichkeitszahlen gemeldet, das stellt eine Entwarnung dar.
Wie also soll man darauf reagieren? Zum einen muß man einfach abwarten. Das ist frustrierend, aber es liegen noch zu wenige Daten darüber vor, wie virulent der neue Erreger wirklich ist. Wenn es Verdachtsfälle in Deutschland gibt, sollte man tun, was grundsätzlich zur Vorbeugung bei einer Influenza empfohlen wird: häufig und gründlich die Hände waschen. Die Impfung gegen Pneumokokken und Haemophilus Influenza ist hilfreich, denn begleitende Superinfektionen sind der eigentliche Risikofaktor bei einer Influenza. Grippeimpfungen hingegen werden für diese Grippewelle nichts bringen, weil es mindestens 4 Monate dauert, bis ein passender Impfstoff für die mexikanische Grippe in großer Menge produziert werden kann. Generell kann aber empfindlichen Menschen nur dazu geraten werden, bei den jährlichen Grippeimpfungen mitzumachen, weil dies dafür sorgt, daß große Kapazitäten für die Impfstoffproduktion aufrecht erhalten werden, die uns dann helfen, wenn es mal richtig kritisch wird und eine große Grippepandemie kommt. Sollten die typischen Grippesymptome auftreten (plötzliches hohes Fieber, trockener Husten oder Beklemmung, Schwäche und Muskelschmerzen), sollte eine Therapie schon in den ersten 2 Tagen einsetzen, damit eine Behandlung auch sinnvoll ist. Und da eine Pandemie sich in mehreren Wellen um die Welt bewegt, wird für mich das Thema auch nicht erledigt sein, wenn im Sommer keiner mehr über die mexikanische Grippe reden sollte. Wenn der neue Impfstoff da ist, wird das im Herbst die Gelegenheit sein, die Familie impfen zu lassen. Ansonsten aber halte ich diese Grippe für nicht gefährlicher als die saisonale Grippe, es sei denn, es kämen doch noch Meldungen, die auch für entwickelte Länder eine überdurchschnittliche Mortalität angeben.
Aktualisierung: Seit dem 29.4. gibt es nun auch in Deutschland einen bestätigten Fall nahe Regensburg.
Wo gibt es mehr Informationen? Eigentlich überall, das Problem ist nur, Quellen widersprechen sich teilweise, hinken der Entwicklung hinterher oder sind so technisch und speziell, daß man nicht wirklich von den Informationen profitiert. Hilfreich fand ich den Blog einer Professorin für Epidemiologie hier (auf Englisch).
Einen informativen deutschen Blog finde ich hier.
Eine Karte für deutsche Fälle (bisher gibt es keinen bestätigten Fall in Deutschland zum 28.4.) gibt es hier.
Ansonsten kann man bei der WHO vorbeischauen
und insbesondere beim Robert-Koch-Institut.
Montag, 27. April 2009
Der Unterschied zwischen Irrtum und Lüge
Ein Beispiel sieht man hier, wo in der Klimalounge eine Pressemitteilung des Gesamtverbandes Steinkohle auseinander genommen wird. Was die New York Times am 24. April berichtet hatte, ist aber noch drastischer. Die Global Climate Coalition (GCC) ist eine Lobbyvereinigung der Industrien, die sich von Klimaschutzmaßnahmen betroffen sehen: Energieunternehmen und Autoindustrie machten den Kern dieses Verbandes aus, der sich bewußt gegen die Feststellungen zu einem globalen Klimawandel stellten. Dieser Verband hat eigene Wissenschaftler eine Analyse zum Klimawandel erstellen lassen, um sich Argumentationsmaterial für die Beeinflussung der Politik zu beschaffen. Der Entwurf der Analyse kam 1995 heraus und enthält schon in der Zusammenfassung auf der ersten Seite (Seite 3 im verlinkten Dokument) einen wichtigen Absatz: „Die wissenschaftliche Basis für den Treibhauseffekt und die potentiellen Auswirkungen der menschlichen Emissionen der Treibhausgase wie CO2 auf das Klima sind klar erkannt und können nicht geleugnet werden. - The scientific basis for the Greenhouse Effect and the potential impact of human emissions of greenhouse gases such as CO2 on climate is well established and cannot be denied.” Dieser Absatz in dem Entwurf drang nie bis zur Öffentlichkeit – bis vor kurzem im Rahmen eines Gerichtsverfahrens zur Regulierung von Autoabgasen das Papier an die Presse durchsickerte.
Offiziell hatte die GCC immer verbreitet, daß die Rolle der Treibhausgase in der Atmosphäre nicht gut untersucht sei und die Wissenschaftler sich darüber uneinig seien. Das war nicht einfach ein Irrtum, es war eine platte Lüge der Lobbyisten. Nun ist das eigentlich nicht besonders überraschend – Lobbyisten lügen, wenn es sein muß. In diesem Falle aber hält die zersetzende Tätigkeiten von Lobbyisten und ihren Helfern seit über 20 Jahren an und behindert Maßnahmen zum Schutz des Klimas. In den USA war die GCC durchaus erfolgreich, denn als Ziel sieht sie gar nicht, ihre Ansichten durchzusetzen, sondern nur, dafür zu sorgen, daß in der Öffentlichkeit der Eindruck herrscht, daß der Klimawandel, seine Ursachen und seine Folgen noch umstritten seien. Unterstützt wurde dies immer wieder auch durch ein Versagen der Medien, die sich verpflichtet sahen, neutral zu berichten. Neutrale Berichterstattung wurde aber damit verwechselt, daß man einfach immer beide gegensätzlichen Sichtweisen zu einer Sache berichtete, so lange sich jemand mit abweichender Meinung meldete. So erhielten die Leugner des Klimawandels bis in die jüngste Vergangenheit insbesondere in den USA einen unverhältnismäßig großen Anteil an Berichterstattung, was dort die öffentliche Meinung in einem Zustand allgemeiner Ignoranz hielt – noch heute gibt es dort keine Mehrheit für die Auffassung, daß ein menschengemachter Klimawandel bereits läuft und dramatische Auswirkungen haben wird, wenn man keine erheblichen Gegenmaßnahmen beschließt.
Wenn aber eine Seite konsistent die Öffentlichkeit belügt, ist es keine neutrale Berichterstattung, beide Sichtweisen unkommentiert gegenüber zu stellen. Schon lange hätten die Leugner entweder in der Berichterstattung ausgelassen werden müssen oder es hätte darauf hingewiesen werden müssen, daß hier Lobbyinteressen von Teilen der Industrie geäußert werden, die dem wissenschaftlichen Erkenntnisstand widersprechen.
Mittwoch, 22. April 2009
Die große Lüge
Für Menschen, die wissen, daß sie mit plumpen Lügen konfrontiert werden, ergibt sich immer ein Dilemma. Zum einen ist es einfach Zeitverschwendung, sich mit offensichtlich falschen Darstellungen zu befassen. Zum anderen führt jede Befassung mit Lügen dazu, daß diese erneut bekannter werden. Wer diese Lügen nicht sofort selbst als solche erkennt, wird auch nach einer fachlichen Befassung damit nicht unbedingt aufgeklärt werden, denn es bedarf schon erheblicher Defizite in Logik und naturwissenschaftlichem Denken, um die üblichen Leugnerlügen zu glauben. Andererseits ist es gefährlich, solche Lügen unwidersprochen stehen zu lassen, weil es immer wieder Menschen gibt, die sich zum ersten Mal mit dem Thema befassen und die in möglichst kurzer Zeit (der kurzen Aufmerksamkeitsspanne des Internet-geschädigten Menschen gemäß) zu jeder Lüge auch die Widerlegung finden sollten. Weiteres dazu hier.
Worum geht es hier also? Im Fernsehen und seither in Videoportalen wie Youtube vagabundieren Ausschnitte des Propagandafilms „The Great Global Warming Swindle“, auf Deutsch produziert als „Der Klimaschwindel“. Das Propagandawerk, das es in mehreren Versionen gibt, wiederholt fast alle wichtigen Leugnerthemen, läßt entsprechend auch fast nur Leugner zu Wort kommen, mit Ausnahme des Wissenschaftlers Carl Wunsch, der hinterher gegen das Machwerk protestierte, weil er sich hintergangen fühlte – man hätte ihm nicht gesagt, daß sein Kommentar selektiv zusammengeschnitten in einem Propagandawerk verwendet würde. In einer späteren Version des Films wurde sein Beitrag daher herausgeschnitten.
In der deutschen Ausgabe findet man in den ersten 9 Minuten z.B. bekannte Gestalten wie den Meteorologen Thüne, der praktisch jeder bekannten Forschung zum Klimawandel widerspricht, Gerd-Rainer Weber, beschäftigt beim Gesamtverband des Deutschen Steinkohlenbergbaus, der im Film eine Verschwörungstheorie vertritt, auf die ich gleich zurückkomme oder den Journalisten Maxeiner, der schon oft mit unseriösen Darstellungen aufgefallen ist und wohl eine bestimmte politische Agenda vertritt, nach der Umweltschutz generell auf Hysterie basiert. Außerdem äußern sich als „Wissenschaftler“ Roy Spencer, John Christy, Patrick Michaels und Richard Lindzen – die Anführungsstriche rechtfertigen sich hier, weil die Wortbeiträge dieser Personen hier ziemlich neben der Spur sind und sie ihre Behauptungen nicht mit nachvollziehbaren Argumenten belegen. Später wird unter anderem auch eine falsche Korrelation von Friis-Christensen als „Beleg“ herangezogen, daß Änderungen der Sonnenaktivität der einzige Grund für Klimaänderungen auf der Erde seien.
Welche Verschwörungstheorie habe ich angesprochen? Sie lautet, die Klimaforschung würde die globale Erwärmung nur behaupten, weil sie sich so Forschungsgelder sichern könnte. Nach dieser These wären also sämtliche Wissenschaftler im Feld Beteiligte einer großen Verschwörung, und ihre Geldgeber entweder ahnungslos oder Komplizen. Wie besteht diese Behauptung den Logiktest?
- Zum einen ist Wissenschaft eine mühevolle Angelegenheit, um ein gemessen an der Ausbildung unterdurchschnittliches Gehalt zu erzielen. Es gibt viele weitaus ertragreichere Möglichkeiten, wenn es einem darum geht, an Geld zu kommen. Das gilt besonders für viele Wissenschaftler auf Zeitstellen, die allenfalls daran interessiert sein könnten, auf gut dotierte Posten in der freien Wirtschaft zu wechseln.
- Weiterhin ist das Wissen um die globale Erwärmung das gewachsene Ergebnis zahlreicher wissenschaftlicher Arbeiten, die über das gesamte Jahrhundert hinweg geschrieben wurden. Wie hätte eine Arbeit in den 50er, 60er oder 70er Jahren von einer Wissenschaftlerverschwörung profitieren können, die sich erst in den 80er Jahren entwickelt haben soll?
- Es gibt mehrere Kommissionsarbeiten aus den USA von 1979 bis 1983, (JASON-Report, Charney-Report, Nierenberg-Report), die alle bezüglich der globalen Erwärmung zu ähnlichen Resultaten kommen. Die am JASON-Report beteiligten Wissenschaftler hatten teilweise keine eigenen Forschungsinteressen in der Klimaforschung.
- Institutionen, die ihr Geld auf jeden Fall bekommen, unabhängig davon, ob es einen Klimawandel gibt oder nicht, wie die nationalen Wetterdienste, stellen in ihren Berichten fest, daß es eine globale Erwärmung gibt und schließen aus, daß diese allein durch natürliche Ursachen erklärt werden kann.
- Wissenschaftler publizieren zum Klimawandel in gleicher Weise unabhängig davon, ob sie in Ländern arbeiten, in denen die Politik den menschengemachten Klimawandel als Problem ansehen oder es leugnen (insbesondere die USA unter Reagan 1980-1988 und G.W.Bush 2000-2008). In letzterem Fall wäre es für Wissenschaftler doch nach der Verschwörungslogik einträglicher, Mittel dafür zu bekommen, daß sie behaupten, der Klimawandel sei kein Problem.
- Die meisten relevanten Arbeiten auf dem Gebiet nehmen gar nicht explizit Stellung zum Klimawandel, sondern erstellen oder analysieren Daten oder entwickeln Modelle. Diese Arbeiten fallen an und werden gefördert unabhängig davon, ob Staaten das Klima als ein Problem ansehen oder nicht. Es wird auch Forschung gefördert, in der nach Planeten bei anderen Sternen gesucht wird, ohne daß die Wissenschaftler vorbringen müssten, daß fremde Planeten ein Umweltproblem auf der Erde wären.
- Der Verschwörungstheorie fehlt das wichtigste: die Verschwörer. Das heißt, Dokumente, die belegen, daß tatsächlich Wissenschaftler in großer Zahl und im gegenseitigen Übereinkommen in Fachpublikationen Falsches behauptet haben.
- Leugner wie Patrick Michaels, Bob Carter, Fred Singer, Richard Lindzen, Roy Spencer oder John Christy leben offensichtlich ganz gut davon, daß sie die üblichen Ansichten zum Klimawandel bestreiten. Sie selbst sind die Gegenbeweise dafür, daß es für das Einkommen eines Wissenschaftlers eine Rolle spielt, welche Ansichten er vertritt.
Obwohl diese Verschwörungstheorie so offensichtlich absurd ist, taucht sie immer wieder auf. Für mich ist sie ein klares Zeichen, daß ich ab hier nicht mehr zuzuhören brauche. Ein vernünftiger Mensch kann so etwas nicht glauben, er kann höchstens die Verschwörungstheorie benutzen, weil er seinen Glauben mit unsauberen Mitteln verbreiten will. Zur Einordnung von Christy und Spencer siehe hier, zu Lindzen siehe da.
Ein weiterer oft verbreiteter Punkt ist die Temperaturentwicklung der letzten 2000 Jahre. Mit ihr soll verschiedenes belegt werden. Zum einen, daß es schon mal so warm war wie derzeit und die derzeitige Erwärmung daher kein Grund zur Sorge sei. Zum zweiten, daß die jetzige globale Erwärmung natürliche Ursachen habe. Beides ist in der Logik leidend. Die globale Erwärmung wird keineswegs weniger besorgniserregend dadurch, daß auch natürliche Faktoren diese Erwärmung verursachen könnten. Dann könnte ja auch in der Zukunft eine natürliche Erwärmung auf die menschengemachte oben drauf kommen – das wäre sogar eine noch viel schlimmere Aussicht. Hohe Variabilität des Klimas in der Vergangenheit bedeutete zudem, daß das Klima sehr stark positiv rückgekoppelt wäre. In dem Fall müsste uns jede Störung des Klimas durch den Menschen besonders besorgt machen, weil wir bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre nicht mehr von ca. 3 Grad, sondern eher von ca. 6 Grad globaler Erwärmung reden müssten. Es kann auch nicht beruhigend sein, darauf hinzuweisen, daß es im Mittelalter vielleicht mal so warm war wie in den letzten 20 Jahren (wenngleich Paläodaten nahe legen, daß es im Mittelalter wohl eher nicht wärmer wurde als in der Mitte des 20. Jahrhunderts, und das sind Temperaturen, die wir bereits hinter uns gelassen haben), weil das eigentliche Problem ist, daß es in der Zukunft immer wärmer wird und zwar um so mehr, je länger Treibhausgasemissionen anhalten, und wir dann definitiv und auf Dauer den Temperaturbereich verlassen, in dem sich die Landwirtschaft und unsere Zivilisation entwickelt hat.
Und natürlich kann man mit vergangenen Klimaschwankungen nicht begründen, warum es jetzt wärmer wird. Die sogenannte kleine Eiszeit (auf Englisch gerne als LIA für little ice age abgekürzt) war ja nicht aufgrund innerer Variabilität des Klimas entstanden, sondern hatte nachvollziehbare Ursachen dadurch, daß die Sonnenaktivität zeitweilig nachließ und außerdem im 19. Jahrhundert gehäuft Vulkanausbrüche durch Sulfataerosol in tropischen Breiten die Erde kühlten. Weniger Vulkanausbrüche im 20. Jahrhundert und ein Anstieg der Sonnenaktivität bis ca. 1950 sind durchaus dokumentiert und auch erforderlich, um den Temperaturanstieg auf der Erde bis zu den 40er Jahren zu erklären. Aber es gibt kein Erdgedächtnis, das dazu führen würde, daß die Erde sich nach eine kühlen Phase ein Jahrhundert lang stetig erwärmen müsste. Dafür muß es immer auch einen Klimaantrieb geben, für die mittelalterliche Warmzeit, für die kleine Eiszeit und natürlich auch für die aktuelle Erwärmung. Der seit 1970 dominierende Klimaantrieb ist mit dem Anstieg der Treibhausgase klar identifiziert.
Grundsätzlich ist das Problem mit Propagandawerken, die Lügen verbreiten, daß die Erörterung, was darin alles falsch ist, viel mehr Platz einnimmt, als das ursprüngliche Machwerk selbst. Daher verweise ich für weitere Kritik auf andere Stellen, die sich näher mit den Inhalten der Propaganda befassen und insbesondere auch die konkreten Lügen herausstellen, um die es mir hier noch gar nicht besonders ging. Zum Beispiel hat sich Professor Rahmstorf näher mit dem Film befasst. Über Wikipedia findet man einen Beitrag zu dem Film, und darüber findet man weitere Links. Nicht gelistet ist ein Link zu dieser Gegendarstellung beim australischen CSIRO, wo man weitere Links zu Dokumenten findet, die weiter in die Tiefe gehen, insbesondere dieses hier.
Dienstag, 21. April 2009
Je aussichtsloser die Lage, desto mehr Gefolgschaft: Geoengineering
Redet man jedoch über Geoengineering, meint man meistens Maßnahmen damit, einzelne Folgen des Klimawandels zu dämpfen, ohne an der Ursache des Problems etwas zu ändern. Künstliche Abkühlung der Erde durch Spiegel im All, Verstärkung der Albedo am Boden oder Sulfat-Aerosol in der Stratosphäre ändert zum Beispiel nichts am sinkenden pH-Wert der Meere - im Extremfall droht sogar (allerdings auf geologischer Zeitachse) eine vereiste Erde mit versauerten Meeren und hohem CO2-Gehalt in der Atmosphäre. Da ist es besorgniserregend, wenn in Fachkreisen die Verzweiflung über die erwartete Tatenlosigkeit bei Emissionsminderungen so groß ist, daß trotzdem ernsthaft über das Geoengineering geredet wird.
In diesem Sinne diskutiert diesen Monat die American Meteorological Society ein Positionspapier zum Geoengineering, obwohl eigentlich eine informierte Position nur sein kann: wenig effektiv, mit potentiell gefährlichen Nebenwirkungen und vermutlich kontraproduktiv, da die Diskussion von Ersatzmaßnahmen zu Emissionsminderungen dazu verführt, letztlich gar nichts zu tun. Um fair zu sein, dies deutet die AMS in der Einleitung zum Positionspapier auch an, was ich weiter unten darstellen werde. Das Extrem bei uninformierter Unterstützung des Geoengineerings und warnendes Beispiel ist Freeman Dyson, ein Physiker, der zugibt, auf dem Gebiet kein Experte zu sein, aber genau das für einen Vorteil hält und als wesentlichen Grund dafür angibt, daß man sich über die CO2-Emissionen keine Sorgen machen sollte, da man ja genetisch veränderte Bäume pflanzen könnte, die das überschüssige CO2 auffangen könnten. Zwar gibt es solche Bäume noch nicht, wird sie vielleicht auch nie geben und selbst wenn sie im Labor je gezüchtet würden, wer soll denn eigentlich zig Millionen Bäume wo und auf wessen Kosten pflanzen?
Im Positionspapier hält die AMS zunächst fest, daß es einen Klimawandel gibt, der in den letzten 50 Jahren sehr wahrscheinlich überwiegend von Menschen verursacht wurde, und daß es dagegen drei mögliche Maßnahmen gibt: Emissionsminderungen (Mitigation), Anpassungsmaßnahmen an den Klimawandel (Adaption) und Manipulierung des globalen Klimas (Geoengineering). Geoengineering könnte schnelle und zielgerichtete Möglichkeiten zur Klimakontrolle eröffnen, beinhaltet aber auch Risiken. Nach dem aktuellen Forschungsstand gibt es keine Maßnahme, bei der der erwartete Nutzen größer wäre als die vermuteten Risiken.
Danach werden verschiedene Möglichkeiten und ihre Risiken vorgestellt.
- Die Kontrolle der Treibhausgase z.B. durch Meeresdüngung oder das Einfangen und Einlagern von CO2 (Sequestration).
- Kühlung der Erde über Spiegel oder Albedo.
- Moderation einzelner Klimaeffekte (z.B. Lagerung von Wasser an Land als Maßnahme gegen den Anstieg des Meeresspiegels).
Die Risiken könnten z.B. darin bestehen, daß durch eine Kühlung der Erde bewirkte Zirkulationsänderungen in der Atmosphäre einzelne Länder klimatisch begünstigen oder benachteiligen könnten. Außerdem würden bei der Entwicklung des Geoengineerings Mittel von der Entwicklung von Mitigations- und Adaptionsmaßnahmen abgezogen, was kontraproduktiv wäre. Letztlich würden Maßnahmen, die das Klima kühlen, andere Wirkungen der Treibhausgase (sinkender pH-Wert der Ozeane) nicht auffangen.
Daher empfiehlt die AMS in dem Entwurf:
- Verstärkte Forschung in dem Gebiet, inklusive der Nebenwirkungen
- Zusätzliche Studien der historischen, ethischen, rechtlichen, politischen, usw. Aspekte
- Entwicklung und Analyse von Entscheidungsmöglichkeiten, um Transparenz und internationale Zusammenarbeit bei der Erforschung von Geoengineering-Möglichkeiten zu fördern zusammen mit Restriktionen rücksichtsloser Versuche, das Klimasystem zu beeinflussen.
Es wird sicher eine spannende Frage, wie das Papier Ende des Monats nach der Abstimmung aussehen wird. Doch auch hier läuft der politische Prozess schon längst den Experten davon. Die EU unterstützt die CO2-Abscheidung und –lagerung bei zukünftigen Kohlekraftwerken mit Pilotprojekten und in den USA redet der zuständige Minister für Energiefragen Chu von „sauberer“ Kohle bei solchen Kraftwerken mit CO2-Abscheidung. Möglicherweise passiert hier das gleiche, wie schon beim Biosprit – man legt sich politisch fest, bevor man sich über alle Nebenwirkungen einer Entscheidung informiert hat und vergißt dabei, daß wir noch viele kosteneffiziente Maßnahmen zum Energiesparen und zur Emissionsminderung wie auch zum Schutz von Wäldern erst mal beschließen sollten.
Der Pazifik sagt: die globale Erwärmung darf aufdrehen
Politisch aber sind Temperaturanomalien auf Monatsbasis von Relevanz, leider. Politiker und erst recht die Wähler sind keine Wissenschaftler, statistisch meistens unbeleckt und reagieren daher auf die Fieberkurve der Erde. Für sie war das Abrutschen der globalen Temperaturanomalie auf nahe 0,3 Grad 2008 (nach dem Datensatz des Hadley Centres) teilweise eine Unterbrechung der globalen Erwärmung. 2009 ist aber ein weiteres kritisches Jahr für die Weltgemeinschaft, um Beschlüsse zu fassen, die zu wirksamen Emissionsbeschränkungen führen. Im Dezember 2009 ist der große Klimagipfel in Kopenhagen, auf dem Beschlüsse gefasst werden sollen, die das zahnlose Kyoto-Abkommen ersetzen sollen. Obwohl wissenschaftlich völlig bedeutungslos, ist es psychologisch bedeutsam, ob die globale Temperatur 2009 wieder in Rekordhöhen steigt.
Der größte Schaden ist bereits geschehen. Seit 2007 waren wiederholt Bedingungen im Pazifik, die eine größere Abkühlung der Meeresoberflächentemperaturen dort und generell einen Rückgang der globalen Oberflächentemperatur begünstigten. Zeitweilig gab es einen La Nina und bis zuletzt Bedingungen, die über einen längeren Zeitraum fortgesetzt zu einem La Nina führen würden. (Zum Thema El Nino/La Nina/Southern Oscillation findet man übrigens auf dieser Seite recht viel Information auf Deutsch.) Das hat bereits das Jahr 2008 zu einem relativ wenig warmen Jahr des laufenden Jahrzehnts gemacht, obwohl es gleichwohl wärmer war, als die an sich schon warmen 90er Jahre. So sehr haben wir uns bereits an die globale Erwärmung gewöhnt, daß uns ein Jahr als kühl erscheinen kann, das 0,7 Grad wärmer war als der Beginn des 20. Jahrhunderts. Mit diesem einen Jahr im Rücken läuft die Propaganda der Leugner auf Hochtouren, um bindende Emissionsminderungsbeschlüsse zu sabotieren.
Daher ist es für die Konferenz im Dezember wichtig, ob die La-Nina-ähnlichen Bedingungen weiter anhalten. Wirft man einen Blick auf die ENSO-Daten (z.B. in den USA bei der National Oceanic and Atmospheric Administration (NOAA), der zuständigen Behörde) in der wichtigen ENSO 3,4-Region (einem großen Streifen im äquatorialen Pazifik), so fällt einem auf, daß die Meeresoberflächentemperatur (im Schaubild oben) ebenso wie der Wärmegehalt des Meerwassers in der obersten 300-Meter-Schicht konsistent in den neutralen Bereich zwischen El Nino (warm) und La Nina (kalt) wandern und gleichzeitig die Modellvorhersagen mehrheitlich auf neutrale Bedingungen in den nächsten Monaten hindeuten. Das heißt, die Jahrestemperaturen 2009 dürften in Richtung auf das schmale Band zwischen 0,4 und 0,5 Grad laufen, in dem die Temperaturen in diesem Jahrzehnt normalerweise lagen. Neue Rekordtemperaturen für das Gesamtjahr sind 2009 aber noch nicht zu erwarten, sondern frühestens 2010, da es noch nicht so aussieht, als ob sich mit dem Ende des La Nina direkt ein starker El Nino entwickeln könnte, der einen starken Effekt auf die globale Temperatur haben könnte.
Donnerstag, 16. April 2009
Anzeichen für 2 – 3 Meter Meeresspiegelanstieg in 50 Jahren?
Eine der großen Unbekannten des Klimawandels ist der Anstieg des Meeresspiegels. In diesen Anstieg gehen mehrere Komponenten ein.
Da ist die thermische Ausdehnung des Wassers: Wasser, das wärmer ist als etwa 4 Grad Celsius, dehnt sich weiter aus, wenn es erwärmt wird. Die meiste Zeit im vergangenen Jahrhundert war das der wichtigste Beitrag zum Meeresspiegelanstieg. In den letzten 10 oder 20 Jahren waren aber auch andere Beiträge sehr bedeutend und dominierten zeitweilig.
Da ist die Umverteilung von Wasser zwischen der Atmosphäre, dem Wasser an Land (Grundwasser, Flüsse und Seen) und dem Meer, unter anderem davon beeinflusst, wie stark Flüsse reguliert werden und schneller oder langsamer ihr Wasser zum Meer transportieren und wie stark Stauseen gebildet und aufgefüllt werden.
Schmelzen oder Anwachsen von Festlandeis und –schnee, insbesondere Gletscher in den Gebirgen.
Diese beiden Beiträge trugen in den letzten 10 Jahren wohl mehr als die Hälfte zum Meeresspiegelanstieg bei.
Schließlich der Beitrag der großen Eisschilde, an erster Stelle auf Grönland und in der Westantarktis. Wann, wie und wie schnell diese Eisschilde abschmelzen können, ist die große Unbekannte, denn dies hängt von der Stabilität dieser Eisschilde ab, über die man immer noch wenig weiß.
Bisher weiß man nur, daß der Meeresspiegel steigt, am oberen Rand der Modellschätzungen, aber bislang mit einer Rate von 31 cm pro Jahrhundert. (Dazu empfehle ich einen Blick in die Klimalounge.) Außerdem weiß man, daß in der Vergangenheit die Eispanzer von Grönland und der Westantarktis wiederholt in Warmzeiten abgeschmolzen sind bei Temperaturen, die kaum 2 Grad über den heutigen liegen, also den für 2100 erwarteten Werten. (Auch dazu empfehle ich einen Blick in die Klimalounge.) Der Punkt ist, daß die Erwärmung der Erde sich mit einiger Verzögerung in ein Abschmelzen der Eisschilde umsetzen wird. Wie lange kann es dauern?
Das wissen wir nicht. Deshalb sind indirekte Hinweise darauf wichtig, wie schnell in der Vergangenheit so ein Meeresspiegelanstieg erfolgen konnte. Im Prinzip ist das einfach. Man schaut sich z.B. ein Korallenriff an, aber nicht ein heutiges, sondern eines aus der fernen Vergangenheit, als der Meeresspiegel höher stand als heute. Dann schaut man, ob bei so einem Korallenriff das Wachstum abgebrochen wurde und sich einige Meter höher eine weitere Riffkante ausgebildet hat. Das würde nämlich darauf hinweisen, daß hier in einer überschaubaren Zeit der Wasserspiegel entsprechend angestiegen war. Kritisch dabei ist, daß man beide Riffkanten möglichst genau datieren muß. Genau das ist das Problem, denn bei Ereignissen, die mehr als 100.000 Jahre zurückliegen, ist es eine große Herausforderung, auf ein Jahrzehnt genau eine radiochemische Datierung der Proben hinzubekommen, auch wenn die Datierung einer Zeitdifferenz zwischen zwei gut vergleichbaren Proben genauer bewerkstelligt werden kann als die absolute zeitliche Datierung jeweils unabhängiger Proben.
Der Artikel von Blanchon, Paul, Eisenhauer, A., Fietzke, J., Liebetrau, V., Rapid sea-level rise and reef back-stepping at the close of the last interglacial highstand, Nature 458, 881-884 (16 April 2009), scheint nun eine unangenehme Antwort zu liefern. Prähistorische Riffkanten, etwa 121.000 Jahre alt, auf Yukatan, deuten auf einen Meeresspiegelanstieg von etwa 2,5 Metern in 50 Jahren hin. Die Zeitspanne ergibt sich aus der Thorium-Datierung, daraus, daß die Verfassung der Riffkanten darauf hindeutet, daß die Veränderung in einer ökologischen Zeitskala normaler Lebenszyklen des Riffs stattfand und aus dem Vergleich der Schichtungen innerhalb des Riffs mit anderen Riffs z.B. auf den Bahamas.
Die Schlussfolgerungen der Autoren sind recht mutig, denn es gibt durchaus Angriffspunkte für die angegebene Zeitspanne, etwa aufgrund der Unsicherheiten der Thorium-Datierung und der Frage, ob die Vergleichbarkeit mit Schichtungen an anderen Riffen wirklich so gegeben ist. Im National Geographik wird der Beitrag z.B. eher kritisch diskutiert. Aber es ist doch ein ernst zu nehmender Hinweis darauf, daß ein plötzliches Abschmelzen der großen Eisschilde bei Temperaturen möglich ist, die wir im Laufe des Jahrhunderts wohl erreichen werden. Niemand aber weiß, wie wir global darauf reagieren könnten, wenn der Meeresspiegel in weniger als 50 Jahren um 2-3 Metern ansteigen sollte. Selbst wenn diese Publikation sich in ihren Schlussfolgerungen als voreilig erweisen sollte, worauf wir nun alle hoffen müssen, ist das Thema wohl so lange nicht erledigt, bis nicht entweder genaue Modellstudien der Eisdynamik verfügbar sind, die uns erlauben, vorherzusagen, wie z.B. die Westantarktis auf eine weitere Erwärmung reagiert, und durch die wir ein so rasches Abschmelzen ausschließen können, oder der endgültige Nachweis gelingt, daß in einer der letzten Warmzeiten tatsächlich der Meeresspiegel innerhalb weniger Jahrzehnte um mehr als 2 Meter gestiegen ist.
Kurze Blogliste zum Abbruch des Wilkins-Eisschelfs
- Die richtige Perspektive gibt William M. Connolley auf Stoat.
- Schöne Bilder zeigt die Klimalounge (auf Deutsch).
- Sehr lehrreich auch in Bezug auf kleinere Details (warum auch schwimmendes Meereis einen Beitrag zum Meeresspiegelanstieg leisten kann) ist Grumbine.
- Die umfangreichste Diskussion findet man bei RealClimate.
Ist der Klimawandel nicht nachrangig zum Hauptproblem der Überbevölkerung?
Die Hälfte des Energieverbrauchs der Erde, der Emissionen von Kohlendioxid und des Verbrauchs vieler anderer Ressourcen bringen EU und USA zusammen zustande, die aber kaum 11% der Erdbevölkerung umfassen. Würde die Erdbevölkerung also um diese 11% erneut steigen auf ca. 7,7 Milliarden, wären der Ressourcenverbrauch und die Umweltbelastung um 50% gestiegen und die wahrscheinliche Folge wäre der Zusammenbruch der Erde als Lebensraum für Menschen. Andererseits verbrauchen die ärmsten 50% der Erdbevölkerung weniger als 10% der Ressourcen. Würde bei diesen armen Menschen sich die Bevölkerung verdoppeln, wäre die Erdbevölkerung über die 10 Milliarden-Grenze gewachsen, aber der Verbrauch an Ressourcen wäre um kaum 10% gestiegen. Diese 10% aber könnte man bereits allein dadurch erwirtschaften, daß die verschwenderischsten der reichen Länder (z.B. die USA), ihre Verbrauchsmuster an die ressourcenschonenderen Länder (z.B. Skandinavien, Schweiz) anpassen würden.
Im Sinne solcher Abschätzungen ist ein Blogbeitrag von Fred Pearce im Blog Environment 360. Ein Blog, den anzuschauen übrigens immer mal wieder lohnt. Er macht eine ähnliche Überlegung und verweist auf Stephen Pacala, Director des Princeton Environment Institute. Der hat berechnet, daß die reichsten 7% der Erdbevölkerung gerade 50% der CO2-Emissionen der Welt verursachen, hingegen die ärmsten 50% der Erdbevölkerung gerade 7% der CO2-Emissionen. Diese Rechnung mag, je nachdem, wie man sie durchführt und was man betrachtet, zu etwas anderen Ergebnissen kommen, aber im Prinzip läuft es darauf hinaus, daß unser Ressourcenverbrauch in der Vergangenheit weniger vom Bevölkerungswachstum, sondern zunehmend vom wachsenden Verbrauch einer kleinen Minderheit auf der Erde getrieben wurde. Der Bevölkerungswachstum findet bei den Menschen statt, die nur einen vernachlässigbaren Anteil am Ressourcenverbrauch haben.
Erhellend ist auch der Verweis auf die ökologische Fußspur des Menschen in verschiedenen Ländern. Der Verbrauch eines Amerikaners (USA) übersetzt sich zu einem Flächenbedarf auf der Erde von 9,5 Hektar, eines Deutschen von 4,2 Hektar. Indien und Afrika liegen bei unter 1 Hektar. Demnach wäre es für die Welt als Ressourcenproblem gleich, ob es weitere 100 Millionen Amerikaner gibt oder 200 Millionen Europäer oder ein bis zwei Milliarden Inder oder Afrikaner. Ist also das Bevölkerungswachstum das überschätzte Problem?
Es ist gefährlich, gleich in das andere Extrem zu fallen und zu behaupten, daß das Problem allein darin bestünde, daß Europäer, Japaner und Amerikaner den Gürtel enger zu schnallen hätten. In den vergangenen 20 Jahren haben wir gesehen, wie die chinesische Ökonomie auf Wachstumskurs gegangen ist und es in dieser Zeit geschafft hat, zu einem globalen Umweltproblem zu werden. Ein wichtiger Teil des Wachstums der CO2-Emissionen nach 2000 kam aus China. Aerosole aus der chinesischen Industrie beeinflussen die Luftqualität über den gesamten Nordpazifik hinweg und tragen vermutlich zu einem bedeutenden Teil dazu bei, die Arktis so zu verdunkeln (indem der Niederschlag die Albedo von Eis und Schnee verringert), daß dies einen Teil der regionalen Erwärmung über den Beitrag der globalen Erwärmung hinaus erklärt. Die Gefahr liegt nicht so sehr in der absoluten Zahl der vorhandenen Menschen, sondern in dem Wohlstandsniveau, das diese Menschen anstreben.
Insofern haben wir in den reichen Ländern auch das Mittel, das eigentliche Überbevölkerungsproblem zu lösen. Es liegt an dem Lebensstil, den wir als erstrebenswert für die Armen der Erde vorführen. Je mehr wir uns an Zielen der Nachhaltigkeit orientieren und ressourcenschonende Technologien entwickeln und nachhaltige Lebensweisen einführen, desto mehr wird dies auch zum Vorbild für die sich entwickelnde Welt. Der Effekt für die Umwelt wird damit weitaus größer als der Effekt verstärkter Familienplanung in Afrika. Gleichwohl spricht aber nichts dagegen, für Familienplanung außerdem zu sorgen – es gehört immerhin zu den billigsten Maßnahmen überhaupt, die wir verfolgen können. Die Lösung des Problems des Klimawandels liegt aber in erster Linie in den USA, Europa und Japan – direkt als Hauptverbraucher, indirekt als Investor und Konsument in den Schwellenländern und indirekt als Vorbild für Schwellen- und Entwicklungsländer.
Mittwoch, 15. April 2009
Wird die Klimapolitik scheitern?
Die Frage ist, ob die damit befassten Wissenschaftler eigentlich glauben, daß dieses Klimaziel erreicht wird. Es setzt immerhin voraus, daß noch vor 2050 die Emissionen von Treibhausgasen massiv gesenkt werden – je nach Rechnung um mehr als 70%, in den entwickelten Ländern um mindestens 80%. Das setzt sehr starken politischen Willen voraus und in naher Zukunft global einsetzende, drastische Maßnahmen zur Emissionsreduzierung.
Wie der Guardian in UK berichtet, ist die überwiegende Mehrheit der Wissenschaftler aber überzeugt, daß die Klimaziele nicht erreicht werden und der Temperaturanstieg bis 2100 eher bei 3 bis 4 Grad liegen wird. In diesem Falle aber sind schwerwiegende Veränderungen bis hin zu katastrophalen Dürren, einem Umkippen von Teilen der Meere und einer einsetzenden Instabilität großer Eisschilde (Grönland und Westantarktis) sehr wahrscheinlich.
Am Rande der Klimakonferenz in Kopenhagen wurden 261 Experten (200 davon Wissenschaftler in der Klimaforschung) befragt. 186 Experten nahmen Stellung zur Frage, welche globale Erwärmung bis 2100 sie für wahrscheinlich hielten. Nur 7% hielten die Erreichung des 2-Grad-Zieles für wahrscheinlich, 46% den Bereich von 3-4 Grad, 26% von 2-3 Grad, 13% 4-5 Grad, einige wenige auch mehr als 5 Grad. 60% meinten aber, technisch wäre es möglich, die globale Erwärmung auf maximal 2 Grad zu begrenzen.
Warum aber sind viele Wissenschaftler so zurückhaltend dabei, deutlich auszusprechen, wie düster sie die Zukunft bereits einschätzen? Weil sie glauben, daß es demotivierend wäre, zuzugeben, daß die politischen Klimaziele unerreichbar sind. Wenn aber die Menschheit aufgibt, das 2-Grad-Ziel anzustreben, wird sie den 3-4 Grad Bereich auch verfehlen und möglicherweise in den Bereich von 5-6 Grad gelangen. Wenn das Ziel von 2 Grad dabei hilft, das tatsächliche Eintreten von 5-6 Grad zu vermeiden, wäre der öffentliche Optimismus bereits lohnend. Die Gefahr dabei ist, daß Wissenschaftler je nach Temperament mehr oder weniger stark die anstehenden Risiken betonen und dadurch in der Öffentlichkeit uneinig über die möglichen Klimafolgen erscheinen.
Dienstag, 14. April 2009
Ich habe Klimawandelleugner unterschätzt, denn...
Den Gedankengang dahinter enthüllen Links in den Kommentaren zum Blogbeitrag, die auf einen gewissen Richard Courtney verweisen, von dem zwar keinerlei wissenschaftliche Publikationen vorliegen, der aber gerne in vielen Diskussionsboards präsent ist, um gegen den Stand der Wissenschaft anzureden und sich dabei auch mit Phantasietiteln schmückt, insbesondere des IPCC Expert Reviewers. So kann sich jeder nennen, der mal einen Brief an das IPCC zu einem der anstehenden Assessment Reports mit mehr oder weniger sinnvollem Inhalt geschrieben hat. Dieser Courtney meinte also, nachdem ihm die ersten 4 Monate mit Temperaturen in 2008 vorlagen, daß das Jahr nicht wärmer sei als 1940, denn das Mittel der ersten 4 Monate 2008 sei nur ca. 0,23 Grad wärmer als das Mittel von 1940, also weniger wärmer als die Unsicherheit der Daten von angeblich 0,2 Grad (das Hadley Centre gibt für seine Daten eine Unsicherheit im Bereich von derzeit etwa 0,05 Grad an). Schlimm genug, daß man von 4 Monaten schlecht auf das Jahresmittel schließen kann: das Jahresmittel 2008 lag über 0,1 Grad über dem Mittel der ersten 4 Monate und knapp 0,3 Grad über dem Mittel von 1940. 1940 wiederum gehörte zusammen mit 1939 und 1941 zu den wärmsten Jahren der Jahrzehnte vorher und nachher und war absolut untypisch, ebenso wie 2008 als am wenigsten warmes Jahr der laufenden Dekade auch untypisch in der anderen Richtung war. Gerade darum, was die typische Temperatur eines repräsentativen Zeitraums ist, geht es aber in der Klimatologie.
Courtney setzt aber noch einen drauf. 1940 und 2008 hätten seiner Meinung nach die selbe Temperatur, weil der wärmste Monat 1940 wärmer gewesen sei als der kälteste Monat 2008. Das ist technisch richtig, aber im klimatologischen Kontext Schwachsinn. Wie ich schon schrieb: "Februar 2009 lag die globale Temperaturanomalie bei 0,345 Grad und damit niedriger als vor genau 131 Jahren, als der Februar 1878 0,364 Grad anzeigte." Nach Courtneys Logik könnte man beweisen, daß die Temperaturen seit Beginn der Aufzeichnungen konstant waren, weil man für jedes Jahr einen Monat finden kann, dessen Temperatur sich mit einem gewählten Monat in irgendeinem anderen Jahr überschneidet. Ich bin nun absolut zuversichtlich, daß früher oder später dieses Argument ernsthaft von Leugnern vertreten wird, vielleicht sogar schon, von mir noch nicht bemerkt, irgendwo vertreten wurde.
Samstag, 11. April 2009
Warum es egal ist, ob es eine mittlere globale Temperatur gibt
Ich möchte die Frage aber von einer anderen Seite aufdröseln. Warum ist es eigentlich egal, ob man eine mittlere globale Temperatur festlegen kann oder nicht?
Jede Temperatur, die gemessen wird, kann man sich vorstellen als eine Summe verschiedener Anteile. Da ist zunächst der Anteil der Temperatur aus dem Tagesgang. Ich nenne ihn mal D. Der hat sein Minimum beim Sonnenaufgang und sein Maximum am Nachmittag. Dann ist da der Anteil aus dem Jahresgang. Im Sommer ist die Temperatur hoch, im Winter niedrig und dazwischen – naja, dazwischen. Den Anteil nenne ich S. Dann gibt es einen Anteil aufgrund der Lage des Meßortes. Je höher ich gehe, desto niedriger ist die Temperatur (etwa 0,6 – 0,8 Grad je 100 Meter, abhängig von der Luftfeuchtigkeit). Aber auch Südhanglage gegen eine schattige Lage nördlich einer Anhöhe, kühl am Waldrand oder an einem See gegenüber aufgeheizt auf einer Geröllhalde machen alle unterschiedliche Lagen aus, die die Temperatur im Mittel höher oder niedriger sein lassen. Heiße und kalte Lagen können manchmal nur wenige 100 Meter auseinander liegen. Diesen Anteil nenne ich L. Weiterhin gibt es einen Wetteranteil. Ist es bewölkt oder sonnig, regnet es oder nicht, kommt ein heißer Süd- oder ein kalter Nordwind. Der Anteil wird W genannt. Dann gibt es noch Meßfehler – einen konstanten Anteil, den Bias (mit B gekennzeichnet) und einen zufälligen Anteil (jawohl, der heißt Z). Die Temperatur T ist also:
Das alles interessiert mich nicht. Weg damit.
Mich interessiert nur ein ganz kleiner Anteil, den wir jetzt beinahe vergessen hätten. Angenommen, ich mittele gemessene Temperaturen über einen langen Zeitraum. Über das Jahr hinweg ist der Mittelwert aus D=0. Zumindest kann ich D so festlegen, daß der Tagesgang aufsummiert 0 ergibt. Über das Jahr hinweg passiert das gleiche mit S. Nach einem Jahr ist S=0. W wird ebenfalls zu Null, wenn ich nur lange genug mittele und es halt so lege, daß es sich zu 0 mittelt und keiner anderen Zahl. Z wird sowieso beim Mitteln zu Null, denn es ist ja ein zufälliger Fehler – der mittelt sich raus. B und L sind die einzigen Komponenten, die einen festen Wert ungleich Null behalten. B ist ein Fehler, den ich klein zu halten versuche. Und L ist typisch für den Meßort und interessiert mich nicht. L ziehe ich ab.
Was dann übrig bleibt, ist eine kleine Zahl, die ich bisher noch gar nicht erwähnt habe. Es ist die klimatische Änderung, K. K sieht man erst, wenn man so lange mittelt, bis man alle anderen Komponenten heraus geschmissen hat. Praktisch erledigt man das, indem man Temperaturanomalien berechnet. Ich mittele die Temperatur für einen ganzen Monat (D wird zu 0, Z wird zumindest sehr klein), dann nehme ich die Mittelwerte des gleichen Monats aus 30 verschiedenen Jahren. Die Information über S steckt nun in den verschiedenen Monatsmitteln, Z und W werden herausgemittelt. Jeder über 30 Jahre gemittelte Monat ist also:
wobei der Index M30 verdeutlicht, daß der Wert über 30 Jahre für diesen Monat gemittelt wurde.
Wenn ich also die Anomalie A bilde, dann ist mit i als Index für ein bestimmtes Jahr i:
Nun kann ich über die Eigenschaften der verschiedenen Anteile der Temperatur und auch der Anomalien einiges sagen. Genauso, wie L absolut typisch für einen bestimmten Standort ist, ist K andererseits über große Gebiete hochkorreliert - messe ich es an einem Ort, ist es in weitem Umkreis ganz ähnlich. Ich muß mir nur gut überlegen, wie ich den Fehleranteil BRest möglichst klein kriege (da drin stecken z.B. der Wärmeinseleffekt, Instrumenten- und Zeitablesefehler oder Standortänderungen, durch die plötzlich ein Teil von L Teil des Fehlers wird).
Es mag also unphysikalisch sein, eine mittlere Temperatur der Erde zu messen, es ist aber definitiv pragmatisch sinnvoll, einen klimatischen Trend durch Bildung von Temperaturanomalien für Regionen und letztlich die ganze Erde zu bestimmen. Es gibt Arbeiten, in denen gezeigt wird, wie die Temperatur über große Strecken korreliert, z.B. in dieser Arbeit von Hansen und Lebedeff, Global Trends of Measured Surface Air Temperature, Journal of Geophysical Research, 92, 13345-13374 (1987). Die Autoren erläutern hier, wie eigentlich die globalen Temperaturanomalien für den GISS-Datensatz gebildet werden, und weisen dabei darauf hin, daß über 1200 km Entfernung hinweg die Temperaturen deutlich korrelieren. Das Bild oben links ist aus dieser Arbeit und zeigt die Temperaturkorrelationen aus dem globalen Meßnetz für verschiedene Bänder der geographischen Breite (anklicken vergrößert).
Das Wissen darüber hat man, wenn man sich mit tatsächlichen Temperaturmessungen aus einem Meßnetz beschäftigt. Es läßt sich nicht durch abstrakte thermodynamische Betrachtungen gewinnen. Genau aus diesem Grund ist die Frage, ob es eine globale Temperatur gibt, in einem beliebigen Journal in der Physik schlecht aufgehoben und erfordert, daß sich damit Meteorologen oder Geophysiker in einer ihrer Fachzeitschriften auseinandersetzen. Dort hätte man Essex, McKitrick und Andresen darüber aufklären können, daß ihre theoretischen Erwägungen, abgesehen von einigen sehr dummen Fehlern, auch völlig an der Sache vorbeigehen.
Davon abgesehen sollte das sehr deutlich machen, warum durchweg mit Temperaturanomalien gearbeitet wird und warum diese so genau sein können, wenn doch die Temperaturen selbst so stark vom Meßort abhängen und so stark von Wetter, Tageszeit und Jahreszeit beeinflußt werden. Letztlich macht das auch deutlich, warum es nicht lohnt, auf Monatsmittel oder Jahresmittel zu schauen, wenn man etwas über den klimatischen Trend wissen will, denn der Trend ist nun einmal klein gegenüber dem Auf und Ab der Temperatur, der einzelnen Ki, zwischen einzelnen Jahren.
(08.11.2011: der nicht mehr belegte Link zum Artikel von Essex et al. wurde durch eine Alternative ersetzt.)
Donnerstag, 9. April 2009
Rosinenpicken mit Monatsmitteln
Welchen Unfug man mit den Monatswerten treiben kann, möchte ich mal spaßeshalber mit den Daten des Hadley Centres vorführen und mich dabei zugleich wundern, was die Kreativität politischer Klimawandelleugner bisher übersehen hat.
Man kann sich etwa auf die Temperaturen des Februars konzentrieren (weil die Märztemperaturen beim Hadley Centre noch nicht heraus sind). 1862 lag die Temperaturanomalie im Februar bei -0,784 Grad. 1878 war sie auf 0,364 Grad gestiegen. Da könnte man staunen: ein Temperaturanstieg um 1,05 Grad in 16 Jahren, mehr als der gesamte Klimawandel des 20. Jahrhunderts. Das ist jedoch noch weniger als die globale Abkühlung danach: 1893 lag die Februartemperatur bei -0,750 Grad. Innerhalb von 15 Jahren -1,11 Grad, fast schon der Auftakt zu einer neuen Eiszeit. Bis 1944 ging es aber schon wieder 0,86 Grad aufwärts, schon wieder mindestens so viel, wie die gesamte globale Erwärmung des Jahrhunderts, nämlich auf 0,107 Grad. Und das war nicht nur wärmer als die Januartemperatur von 0,030 Grad 2008, sondern auch fast so warm wie die Februartemperatur 2008 von 0,194 Grad über den Zeitraum hinweg, in dem doch die menschengemachte globale Erwärmung stattgefunden haben soll. Februar 2009 lag die globale Temperaturanomalie bei 0,345 Grad und damit niedriger als vor genau 131 Jahren, als der Februar 1878 0,364 Grad anzeigte. Über 131 Jahre hinweg wurde es demnach 0,02 Grad kälter.
Ist das alles an den Haaren herbeigezogen? Leider nicht. Weil der Januar 2008 bei 0,03 Grad stand, haben Leugner bis in die Printmedien hinein getitelt, daß die gesamte globale Erwärmung damals verschwunden sei. Leugner nahmen die niedrigen Temperaturen zum Auftakt von 2008 als Zeichen, daß jetzt die globale Abkühlung begonnen habe. Nach wie vor wird in Leugnerblogs wie Wattsupwiththis.com das Erscheinen von Monatstemperaturen in Hinblick auf Abweichungen der verschiedenen Datenquellen und Anzeichen auf eine Abkühlung kommentiert. Es ist geradezu ein Wunder, daß die Wellen von Erwärmung und Abkühlung, die man sich aus den Februardaten konstruieren könnte, bisher noch nicht in Leugnerkreisen auftauchten – bei der Ausdehnung des arktischen Meereises wurde dies nämlich allen Ernstes getan und behauptet, 2009 sei die Meereisbedeckung nicht größer als 1979 gewesen – hier handelte es sich gar nur um einige Tage, an denen das der Fall war.
Welcher Monat war eigentlich der kälteste? Der Januar 1893 stand bei -0,970 Grad, gefolgt vom Januar 1864 mit -0,948 Grad. Der wärmste Monat war aber 1998 – auch ein Februar mit 0,749 Grad. Damit schwankte die Monatstemperatur in 105 Jahren um 1,72 Grad, doppelt so viel wie der gesamte klimatologische Trend in diesem Zeitraum. Wenn Monatsmittel für irgendetwas taugen, dann einfach nur um zu zeigen, wie stark sie um die klimatischen Trends schwanken können.
Dienstag, 7. April 2009
Wie wahrscheinlich ist es denn nun, daß das nächste Jahrzehnt doch kühler wird?
Ich hatte eine Milchmädchenrechnung aufgemacht, wie die Temperatur im Mittel des nächsten Jahrzehnts aussehen könnte. Mein Ergebnis war, daß ich die mittlere Temperaturanomalie 2011-2020 im Band von 0,42 - 0,74 verorte, wenn ich offensichtliche Trends aus der Temperaturzeitreihe herausnehme und die Standardabweichung für die verbliebene Zeitreihe der Daten von 1890 bis 2008 berechne. Denn dann kann ich eine Annahme darüber machen, wie stark wohl die Mitteltemperatur eines Jahrzehnts um den aktuellen Trend herum schwanken könnte.
Es ist eine Milchmädchenrechnung aus mehreren Gründen. Zum einen gehe ich von einem festen Anfangspunkt aus, nämlich der mittleren Temperaturanomalie dieses Jahrzehnts. Tatsächlich ist aber auch dieser Wert nicht unbedingt genau auf dem laufenden Trend, sondern auch durch die innere Variabilität der Erde und eine Abweichung von der mittleren Häufigkeit der Vulkanausbrüche sowie vom exakten Mittelwert der solaren Einstrahlung für einen längeren Zeitraum davon verschieden. Ich müßte also auch für den Anfangswert, von dem aus ich die Temperaturanomalie des nächsten Jahrzehnts berechne, eher eine Verteilung annehmen als einen konkreten Wert.
Außerdem sind meine Abschätzungen dafür, wie stark denn die Jahrzehnte jeweils um den Trend schwanken, sehr grob, weil sie auf viel zu wenig Daten basieren, die auch noch von einem System abgeleitet werden, daß gar nicht in einem stationären Zustand ist, so daß sich feste Werte für die innere Variabilität einstellen könnten.
Und die Variabilität des Trends habe ich auch nur sehr ungefähr angegeben, eben weil sich dieser Trend stetig verändert, da ja der Antrieb für die Klimaänderung mit dem Anstieg der Treibhausgaskonzentrationen wächst.
Wesentlich sauberer wäre es, in einem Modell wiederholt das laufende Jahrhundert zu simulieren mit leicht variierten Anfangszuständen und Randparametern und dann zu schauen, wie denn die Verteilung der Temperaturdifferenzen für verschiedene Jahrzehnte aussieht. Das ist ungefähr, wenn auch nicht genau, darstellbar über eine Verteilung der 10-Jahrestrends für solche Modelläufe. Zufällig wurde dazu gerade eine Arbeit publiziert. Easterling, D. R., and M. F. Wehner (2009), Is the climate warming or cooling?, Geophysical Research Letters, doi:10.1029/2009GL037810, im Druck (derzeit nur Zugriff für Abonnenten oder gegen Bezahlung).
Immerhin hat Chris Colose bereits in seinem Blog die Arbeit kommentiert, außerdem gibt es einen Beitrag von James Hrynyshyn in seinem Blog. Gegen Ende des Beitrags von Chris Colose ist eine Abbildung mit der Verteilung der Temperaturtrends für ein Jahrzehnt aufgrund von Messungen (hier die Zeitreihe des National Climate Data Center NCDC in den USA) und von Modellergebnissen für das 20., die erste Hälfte des 21. und das 21. Jahrhundert. Die Wahrscheinlichkeit, in der ersten Hälfte des 21. Jahrhunderts eine Abkühlung über ein Jahrzehnt hinweg zu beobachten, ist selbst für ein Szenario mit starkem Anstieg der Treibhausgase nicht Null, aber eher unter 5%. Die Milchmädchenrechnung von oben paßt recht gut in diese Verteilung hinein, denn auch hier nehme ich eine Wahrscheinlichkeit von ca. 5% an, daß das nächste Jahrzehnt kühler werden könnte als das laufende. Im Zweifelsfalle sage ich mal, daß die Fehler, die ich in meiner Milchmädchenrechnung gemacht habe, sich so gut gegenseitig aufheben, daß ich nahe an die Verteilung komme, die man aus den Modellrechnungen erhält. ;)
PS.: Easterling und Wehner schreiben unter anderem, nachdem sie anmerkten, daß es etwa in Zeitungen Kommentare zu einer angeblichen globalen Abkühlung seit 1998 gibt: "Der ungewöhnlich starke 1997-1998 El Niño trug zur ungewöhnlichen Erwärmung in der globalen Temperatur für 1998 zum Start dieser Periode [der letzten 10/11 Jahre] bei und bewirkte einen kleinen, statistisch nicht signifikanten positiven Trend. Wenn wir gleichwohl eine Trendlinie an die gleichen jährlichen globalen Land-See-Temperaturen für die Zeit von 1977-1985 oder 1981-1989 anpassen, erhalten wir auch keinen Trend, obwohl diese Zeitabschnitte in die 1975-2008-Periode eingebettet sind, die insgesamt eine erhebliche Erwärmung zeigen. Noch mehr, wenn wir 1998 fallen lassen und den Trend zum Zeitabschnitt 1999-2008 anpassen, erhalten wir tatsächlich einen starken, statistisch signifikanten positiven Trend." Das ist der Auftakt einer Arbeit zu den Problemen des Rosinenpickens in den Daten, wenn die fluktuierende Natur der globalen Erwärmung nun einmal zwangsläufig immer wieder auch Zeitabschnitte von mehreren Jahren erzeugt, in denen die Temperatur trotz der unterliegenden Erwärmung fällt.
Montag, 6. April 2009
Milchmädchenrechnung dafür, wie warm das nächste Jahrzehnt wird
Es ist eine Trivialität, aber trotzdem ein kurzer Blick auf etwas, was jeder ganz leicht nachrechnen kann. Wenn man Datensätze wie den des Hadley Centres nimmt, kann man leicht mittlere globale Temperaturanomalien für ein Jahrzehnt berechnen. Das Jahrzehnt von 1991 – 2000 lag z.B. bei 0,23 Grad, davor waren es 0,10 Grad, die 70er brachten -0,06 Grad, die 60er -0,12 Grad und die 50er -0,15 Grad in dieser Rechnung. Das laufende Jahrzehnt ist noch nicht abgeschlossen. Selbst wenn es 2009 und 2010 etwas kühler wäre als im Mittel des Jahrzehnts, wäre die mittlere Temperatur dieses Jahrzehnt 0,42 Grad. Der Unterschied zum vorherigen Jahrzehnt wäre größer als für jedes andere Jahrzehnt der letzten 100 Jahre, bzw. sogar seitdem es solche Aufzeichnungen gibt.
Trotzdem verbreiten Leugner des Klimawandels munter weiter, daß es seit 1998 oder seit 2003 einen Abkühlungstrend gäbe. Wenn man das ernst nehmen wollte, was müsste eigentlich geschehen, damit dieses Jahrzehnt nicht wärmer wird als das vorhergehende? Eine einfache Rechnung ergibt, daß dieses Jahr die Temperatur um volle 0,85 Grad sinken müsste (was in den Wetteraufzeichnungen bisher noch nie vorkam) und auf dem Niveau auch 2010 bleiben müßte. Erst dann wäre dieses Jahrzehnt nicht wärmer als das vorhergehende. Noch schlimmer, da die ersten zwei Monate dieses Jahres bereits eine höhere Temperatur zeigten als das Vorjahr insgesamt, müsste die Temperatur für das Restjahr bereits um über 1,1 Grad absinken. Das laufende Jahrzehnt ist bereits dazu verurteilt, erheblich wärmer zu sein als das Vorjahrzehnt.
Auch das folgende Jahrzehnt hat nicht viel Spielraum, denn der unterliegende Trend einer Erwärmung von 0,014 – 0,018 Grad pro Jahr ist ja sehr robust. Dagegen steht die natürliche Variabilität. Eine Häufung von La-Nina- oder El-Nino-Ereignissen oder eine Ausprägung anderer Fluktuationen des Wärmeaustausches der Erde könnte die Temperatur eines Jahrzehntes nach oben oder nach unten schieben. Auch Vulkanausbrüche mit ausreichendem Ausstoß von Schwefeldioxid und einer Lage in niederen Breiten könnten ein Jahrzehnt kühler machen. Der Einfluß der Sonne ist klein, aber nicht zu vernachlässigen. Das alles sind unvorhersagbare Einflüsse. Wie bekommt man die in den Griff?
Es gibt viele Methoden, alle haben Stärken und Schwächen und mit einigen bin ich nicht vertraut. Eine Möglichkeit wäre es, die Variation zwischen den Jahrzehnttemperaturen als Standardabweichung zu berechnen, und diese als Unsicherheitsbereich auf das Ergebnis meiner Trendschätzung aufzuschlagen. Die Schwäche ist, daß der aktuelle Trend in der Standardabweichung drinsteckt. Der Trend vergrößert die mittlere Abweichung zwischen den Jahrzehnten. Ich könnte vorher den Trend abziehen. Aber welchen? Tatsächlich gibt es in den letzten über 100 Jahren mindestens 3 zu berücksichtigende Trends. In der ersten Jahrhunderthälfte stiegen die globalen Temperaturen wegen fehlender Vulkanausbrüche und einer steigenden Aktivität der Sonne. Diesen Trend können wir in der Analyse behalten, weil wir ja nicht wissen, wie sich die Sonne in der Zukunft entwickelt und welche Vulkanausbrüche in der Zukunft erfolgen oder ausbleiben. In der Mitte des Jahrhunderts ergibt sich kein signifikanter Trend. Und ab ca. 1970, vielleicht auch früher, steigt die globale Temperatur. Das aber auch nicht linear. Diesen Trend aber würden wir gerne herausnehmen, weil wir den bereits dazurechnen wollen. Nehme ich nur den Trend der gesamten Daten seit 1850 heraus, erhalte ich für die Jahrzehnttemperaturen eine Standardabweichung von ca. 0,12 Grad (ohne die Berücksichtigung des Trends wären es 0,24 Grad). In 68% der Fälle schwankt die Temperatur nicht stärker von Jahrzehnt zu Jahrzehnt als um diesen Betrag. Geht es mir um den Bereich mit 90% Wahrscheinlichkeit, nehme ich die doppelte Standardabweichung. Damit erhalte ich 0,32 – 0,84 Grad als wahrscheinlichen Bereich der nächsten Jahrzehntstemperatur (0,42 +(0,14 bis 0,18) + oder – 0,24). Das ist mir zu grob. Nehme ich dann doch sowohl den Trend bis 1940 als auch den ab 1970 heraus, sinkt die Standardabweichung der Residuen auf 0,08 Grad. Damit reduziert sich die Spanne auf 0,40 – 0,76 Grad.
Eine weitere Möglichkeit wäre, die Verteilung der Differenzen der Temperatur von Jahrzehnt zu Jahrzehnt zu betrachten. Wegen der geringen Wertezahl ist die Verteilung nicht besonders aussagekräftig. Doch was bei fast jeder Klasseneinteilung auffällt, ist eine Struktur der Verteilung mit zwei Maxima. Entweder liegt das nächste Jahrzehnt nahe beim vorherigen oder einen deutlichen Schritt entfernt. Das liegt an der oben angegebenen Dreiteilung der letzten 158 Jahre mit entweder deutlichem oder praktisch fehlendem Trend. Da wir den Trend ja zu kennen glauben, schätze ich die restliche Variabilität im Datensatz besser ab, wenn ich den kleinen Schritt wähle. Wie groß der ist, sehe ich in der Verteilung natürlich nur sehr, sehr grob, nehme aber etwa 0,05 Grad als Standardabweichung an. Ich komme auf den Schätzbereich für das nächste Jahrzehnt von 0,46 – 0,7 Grad. Kann ich behaupten, daß mit 90% Wahrscheinlichkeit die mittlere Temperatur des kommenden Jahrzehnts in diesem Bereich liegt? Leider nicht. Meine Schätzungen sind allesamt statistisch unsauber und berücksichtigen weder Änderungen im Erwärmungstrend noch die wahre Variabilität beim Auftreten von Vulkanausbrüchen oder der solaren Aktivität. Leider helfen uns auch die Modelle nicht weiter. Seriöse „Wettervorhersagen“ für die Erde über 12 Jahre hinweg sind derzeit noch nicht möglich. Trotzdem bekomme ich ein Gefühl dafür, was möglich ist, was extrem unwahrscheinlich und wie sehr doch die interne Variabilität des Systems den vermuteten Trend überlagern kann, wenn ich einen so kurzen Zeitraum wie ein Jahrzehnt betrachte.
Beispiele für Histogramme der Temperaturdifferenzen zwischen Jahrzehnten seit den 1850er Jahren im HadCRUT-Datensatz
xx
xx
xx
xx x x x x
xx x x x x x x
xx x x x x x x
xx x x x x x x
-------------------
.05 .10 .15 .20 .25
xx x x x x x x
xx x x x x x x x x
xx x x x x x x
xx x x x x x x x x
xx x x x x x x
xx x x x x x x
xx x x x x x x x x
-------------------
.04 .08 .12 .16 .20
Mittwoch, 1. April 2009
Welcher globale Temperaturanstieg würde Lindzen eigentlich widerlegen?
Sehr schwierig ist es hingegen, von Seiten der Leugner und Skeptiker Aussagen zu finden, bei denen man untersuchen könnte, ob diese eingetroffen sind. Man trifft immer zumeist auf Erklärungen der Art, warum die Beobachtungen der Vergangenheit gerade die wissenschaftliche Sicht des Klimawandels nicht bestätigen, sondern hohe natürliche Variabilität, den Einfluß der Sonne oder kosmischer galaktischer Strahlung bestätigen, während Treibhausgase keinen oder nur einen geringen Einfluß gehabt hätten.
Unter den widersprüchlichen Aussagen findet man solche, daß eine globale Abkühlung bevorstünde (ab wann, für wie lange, wie stark?) oder daß die globale Erwärmung nur geringfügig sei (wie viel ist „geringfügig“?). Zwar ist schon jetzt die globale Klimaentwicklung ein Schlag ins Gesicht von Menschen, die noch in den achtziger Jahren meinten, daß Hinweise auf eine starke globale Erwärmung bestenfalls übertrieben wären. Aber Aussagen wurden immer so vage gemacht, daß die gleichen Leute, die 0,1 bis 0,2 Grad Temperaturanomalie Ende der achtziger Jahre nicht als nennenswerte globale Erwärmung ansahen, dies auch über 0,4-0,5 Grad nach 2000 behaupten konnten. Halbwegs fündig wurde ich bisher nur bei Richard Lindzen, der von manchen immer noch nicht zu den Leugnern, sondern den Skeptikern gezählt wird und der tatsächlich Fachpublikationen zur Klimaforschung vorweisen kann. In Fachpublikationen gibt Lindzen allerdings keine Zahl für die globale Erwärmung bis 2100 an, sondern versucht nur, alle Hinweise zu sammeln, die auf negative Rückkopplungen mit der globalen Temperatur zur Dämpfung von Klimaänderungen hinweisen. Lindzen glaubt, daß es negative Rückkopplungen im Klimasystem gibt, die die globale Temperatur stabilisieren.
Die Quelle für das folgende ist "THE HEAT IS ON:The warming of the world's climate sparks a blaze of denial" von Ross Gelbspan im HARPER'S MAGAZINE/December, 1995.
Im Mai 1995 gab es im amerikanischen Bundesstaat Minnesota eine Anhörung dazu, ob der Staat weitere Kohlekraftwerke zulassen sollte. Bezahlte Experten für die Seite der Energieversorger waren dabei Richard Lindzen, Patrick Michaels und Balling, die Stellungnahmen über die Folgen weiterer CO2-Emissionen abgaben. Lindzen erklärte, bis 2100 würde die globale Temperatur bei einer Verdopplung der CO2-Mischungsverhältnisse um 0,3 Grad steigen. (Dieses Temperaturziel hat er kürzlich wieder in einem Beitrag zum Klimawandelleugnerblog Wattsupwiththis.com bekräftigt, in dem er Satellitenmessungen für niedere Breiten der Erde irrtümlich für ein globales Strahlungsbudget mißbraucht.) Die globale Temperaturanomalie war laut dem Hadley Centre 1994 0,16 Grad, in den letzten 5 Jahren bis 1994 im Mittel 0,15 Grad und über die letzten 10 Jahre bis 1994 0,12 Grad. 1998 und 2005 lag die globale Temperatur bereits jeweils um mehr als 0,3 Grad über dem Wert von 1994. Die mittlere Anomalie der letzten 5 Jahre bis 2008 ist mit 0,41 0,26 Grad über dem letzten 5-Jahresmittel, auf das Lindzen sich beziehen konnte, die mittlere Anomalie der letzten 10 Jahre liegt bei 0,39 und ist 0,27 Grad über dem letzten Dekadenmittel, auf das sich Lindzen beziehen konnte. Nach allen Gradmessern haben wir also bereits fast das Niveau erreicht, das Lindzen für 2100 bei einer Verdopplung des CO2-Mischungsverhältnisses vorhergesehen hat.
Man kann berücksichtigen, daß diese Verdopplung des CO2-Mischungsverhältnisses noch nicht stattgefunden hat. Die Strahlungswirkung der Treibhausgase wächst etwa logarithmisch mit ihrem Anstieg, und nach einem Anstieg von 40% ist bereits die Hälfte des Klimaeffektes erreicht, der bei einer Verdopplung eintritt. Das CO2-Mischungsverhältnis ist seit vorindustriellen Zeiten von 280 ppm um 40% auf grob gerundet 390 ppm angestiegen. Die Temperaturänderung sollte daher bisher 0,15 Grad von den angenommenen 0,3 Grad für eine Verdopplung von CO2 betragen, die globale Temperaturanomalie sollte also bei ca. 0,3 Grad liegen. Von den letzten 8 Jahren lagen 8 darüber, selbst das von einem La Nina beeinflusste Jahr 2008 ist bereits oberhalb der Lindzen-Marke. Seit 8 Jahren liegt Lindzen konsistent falsch, ohne dies zuzugeben.
Was könnte ihn dazu bewegen, sich nicht widerlegt zu fühlen? Das 20. Jahrhundert zeigte einige Varianz. Die globale Temperatur lief in der ersten Hälfte des 20. Jahrhunderts um 0,3 Grad hoch, ohne daß hier der Mensch einen signifikanten Einfluß genommen haben konnte. Die Frage ist daher, ab welchem Niveau muß man Lindzens 0,3 Grad rechnen? Doch wohl addiert zu einer natürlichen Variation, zu der Lindzen sich nicht konkret äußert. Genau solche Immunisierungen von Aussagen machen aber Pseudowissenschaft aus – Glaubensaussagen, die sich als Wissenschaft verkleiden, aber ihre Widerlegung mit konkreten Daten nicht zulassen.
Tatsächlich gibt es keinen Anlaß dazu zu glauben, daß die Temperaturentwicklung zwischen 1900 und 1994 ausschließlich durch natürliche Variabilität erzeugt wurde.
Schon der Begriff der natürlichen Variabilität ist irreführend. Solche Änderungen der Temperatur durch die Umverteilung von Wärmen zwischen verschiedenen gekoppelten Teilen der Erde (Ozeangebiete und -schichten plus die Atmosphäre) nehmen wir etwa als ENSO wahr mit warmen El Nino- und kalten La Nina-Jahren. Diese und andere Schwankungen der globalen Temperatur mitteln sich aber über lange Zeiträume weitgehend heraus. Von Jahr zu Jahr können Unterschiede von 0,2 oder gar 0,3 Grad auftreten. Betrachten wir aber 10, 20 oder 30-Jahresmittel, werden diese Schwankungen zum größeren Teil weggemittelt. Es bleiben Klimaänderungen, die zwangsläufig auch eine Ursache haben müssen. Dazu gehören Änderungen der solaren Einstrahlung und die Häufung oder Abwesenheit von Vulkanausbrüchen. Mit solchen externen Antrieben kann man das Klimageschehen bis 1950 erklären. Das 19. Jahrhundert war aufgrund von einer Häufung von Vulkanausbrüchen eher kühl, und die solare Einstrahlung stieg bis ca. 1950 tendenziell an (nach anderen Rekonstruktionen blieb sie praktisch unverändert). Genauer gesagt, im Jahrzehnt 1901-1910 war die mittlere Temperaturanomalie nach HadCruT -0,43, 1951-1960 -0,15 Grad, Differenz 0,28 Grad. Danach aber gibt es Probleme: die solare Einstrahlung geht zurück, aber die Temperatur steigt erneut von einem bereits hohen Stand 0,28 Grad über der Temperatur nach der Jahrhundertwende. Von den mindestens 0,3 Grad zwischen den fünfziger Jahren und 1994 dürfte der größere Teil von dem Anstieg der Treibhausgase herrühren. Berücksichtigt man einen Rückgang des solaren Beitrags zur Temperatur, sind auch 0,4 oder 0,5 Grad als menschengemachte Erwärmung seit den fünfziger Jahren bis 1994 realistisch. Als Lindzen 1994 also davon sprach, daß die menschengemachte Erwärmung bei einer Verdopplung des CO2-Mischungsverhältnisses 0,3 Grad betragen sollte, war das Kontingent bereits aufgebraucht. Jede weitere Erwärmung nach 1994 widerlegt Lindzens Behauptung. Und das sind für die ersten 8 Jahre des 21. Jahrhunderts bereits 0,26 Grad.