Posts mit dem Label Klimawandel werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Klimawandel werden angezeigt. Alle Posts anzeigen

Sonntag, 3. Januar 2016

Vertrag von Paris, Problem gelöst?

In der Medienwelt der kurzen Aufmerksamkeitsspannen ist bereits wieder anderes interessant, aber am 12. 12. 2015 wurde in Paris von den Vertretern der Staaten der United Nations Framework Convention on Climate Change ein Vertrag zur Begrenzung des Klimawandels unterzeichnet, der von vielen Beobachtern als historisch gepriesen wird. Historisch ist der Vertrag auch deshalb, weil es so lange gedauert hatte, ihn zu erreichen, dass man schon kaum daran glauben wollte. Dass der Klimawandel ein Problem ist, ist schon seit spätestens 1979 bekannt und seit Ende der achziger Jahre ist bekannt, dass der Klimawandel nachweisbar ist. Seit 1992 wurde versucht, ein Abkommen zu erreichen, doch Lobbyaktivitäten dagegen sorgten dafür, dass das Problem heruntergespielt wurde und nur ein Rumpfabkommen (das Kyoto-Protokoll 1997) zustande kam, das nur einen geringen Effekt haben konnte. Der Kampf der Leugner war sogar so erfolgreich, dass nacheinander das Märchen einer Erwärmungspause plaziert werden konnte, dass die Motive der Klimaforscher und die Ergebnisse des 4. IPCC-Berichts von 2007 in Zweifel gezogen werden konnten und die Konferenz von Kopenhagen 2009 scheiterte. Im Grunde wurden 2 Jahrzehnte verschenkt, in denen wirksame Klimaschutzmaßnahmen getroffen werden mußten, mit denen man zu erträglichen Kosten die globale Erwärmung unter 2 Grad bis 2100 hätte halten können. Der Vertrag in Paris erreicht zu wenig zu spät und ist doch immer noch besser als alles, was man nach so viel Widerstand der Energielobby und der Leugner des menschengemachten Klimawandels erwarten konnte. Ich schaue in den Vertrag hinein und frage nach, was aus den Leugnermärchen der ausbleibenden Erwärmung wurde.
Temperaturanstieg nach Daten aus HadCrut4-Zeitreihe (2015 geschätzt aus Daten bis Oktober). Blau: angebliche Erwärmungspause seit 1998 aus Sicht 2009, rot: Temperaturanstieg der letzten 22 Jahre als Kontext dazu. In den jeweiligen Farbei die linearen Regressionsgleichungen, die angebliche Erwärmungspause hat immer noch einen Trend von 0,008 Grad pro Jahr, mit den umliegenden Daten ergibt sich ein Trend von 0,014 Grad pro Jahr.

Samstag, 28. November 2015

Was beim Klimagipfel in Paris auf dem Spiel steht

Am 30. 11. 2015 beginnt in Paris schon wieder eine Konferenz von Staaten zu Maßnahmen gegen den Klimawandel. In den Medien wird schon im Vorfeld breit über das Thema berichtet, erst recht parallel zur Klimakonferenz in Paris. Als Beobachter fragt man sich natürlich, warum es schon wieder eine solche Konferenz gibt, was man überhaupt davon erwarten kann und ob es überhaupt eine Rolle spielt, wenn eigentlich im Ergebnis solcher Treffen der Staaten vor allem unverbindliche Absichtserklärungen herauskommen.

Bei den Klimakonferenzen muss man unterscheiden zwischen Fachkonferenzen, in denen Wissenschaftler das Thema diskutieren und zu Berichten und Empfehlungen kommen, Klimakonferenzen zur Vorbereitung von Entscheidungen im Rahmen der verschiedenen bestehenden Verträge oder Rahmenkonventionen und die eigentlichen Klimagipfel im Rahmen der Unterzeichner der Klimarahmenkonvention (United Nations Framework Convention on Climate Change, UNFCCC) oder des Kyotoprotokolls. Letzteres ist das, was jetzt in Paris stattfindet. Es geht darum, einen Nachfolgevertrag zum Kyotoprotokoll zu beschließen, der ab 2020 in Kraft treten soll und auch Staaten zu verbindlichen Emissionsbegrenzungen für Treibhausgase verpflichten soll, die bisher keine Begrenzungen akzeptiert hatten. Einerseits hatten jene Staaten das Kyotoprotokoll nicht ratifiziert, wie die USA, oder sie waren als Schwellenländer oder zu entwickelnde Staaten von Emissionsbegrenzungen ausgenommen.

Die globale Temperatur steigt - Leugnen zwecklos. Die Staaten wollen einen Anstieg um mehr als 2 Grad gegenüber 1880 verhindern. Aber dazu muss man starke Einschnitte beschließen. Daten und Abbildung von NASA-GISS.

Dienstag, 20. Januar 2015

Gilt es nicht?

Im Laufe des Jahres gab es noch Zweifel, insbesondere durch das Ausbleiben des zu Beginn des Jahres noch erwarteten El Nino, doch am Ende stand plötzlich fest, dass 2014 das nächste Jahr mit einem Rekord der Temperaturanomalie wurde. Demnächst sollte auch für die britische Hadcrut4-Zeitreihe der Jahreswert gemeldet werden, aber schon mit dem November-Wert liegt auch diese Zeitreihe auf Rekordniveau für 2014. Doch plötzlich lese ich bei den Leugnerblogs, dass das gar nicht gilt. Wie denn das?

Zeitreihe der globalen Jahresmittelwert der Temperaturanomalie. Quelle: GISS.

Freitag, 27. September 2013

5. IPCC-Report - jetzt wird es offiziell

In den vergangenen Monaten wurde über den 5. IPCC-Report vor allem von den Menschen geschrieben, die damit nichts anfangen können. Leugner des wissenschaftlichen Sachstandes versuchten sich die Deutungshoheit dadurch zu erringen, dass sie nicht freigegebene Texte aus dem Zusammenhang rissen und ihre eigene, böswillige Interpretation unterschoben. Wenn jetzt erst die Zusammenfassung für Entscheidungsträger (am 27.09.2013), dann die Berichte der wissenschaftlichen Arbeitsgruppen freigegeben werden, kann man sich auch ein Bild davon machen, wie absurd Leugner teilweise die Realität verfälscht hatten. Vor allem aber macht der IPCC-Bericht deutlich, dass die Menschheit nun schon seit Jahrzehnten Chancen versäumt, zu vertretbaren Kosten den Klimawandel und seine Folgen zu bewältigen. Die Inhalte des Berichtes kann man in einem Blog-Beitrag nicht annähernd angemssen diskutieren. Doch ich möchte ein paar Dinge kommentieren, die mir besonders ins Auge fallen.

Mittwoch, 11. August 2010

Händler des Zweifels

Von Naomi Oreskes und Erik Conway gibt es das Buch „Merchants of Doubt“. Das bislang nur auf Englisch erhältliche Buch erzählt die Geschichte, wie einige Wissenschaftler im Interesse der Wirtschaft für die Öffentlichkeit den Anschein herstellen, es gäbe eine wissenschaftliche Debatte bei bereits entschiedenen Fragen. Es ist irritierend und frustrierend, wenn man miterleben muß, daß einzelne Wissenschaftler so tun, als wüßte man noch nicht, daß Rauchen oder Passivrauchen schädlich ist, daß FCKW der Ozonschicht schaden, daß Schwefel- und Stickoxidemissionen Wälder und Seen schädigen können oder daß Treibhausgase zu einer globalen Erwärmung führen – die Folgen sehen wir in Rußland und Pakistan. Unter diesen Wissenschaftlern und solchen Menschen, die dafür angesehen werden wollen, gibt es verschiedene Motivationen, und es wäre falsch, dies allein unter dem Stichwort der bezahlten Lobbyisten zu fassen. Es gibt auch andere Gründe dafür, überholte oder falsche Meinungen als Wissenschaftler zu vertreten. Es kann darum gehen, daß man politisch oder religiös einem Standpunkt verbunden ist, man kann genießen, daß man mit einer Außenseitermeinung erhöhte Aufmerksamkeit und Zuspruch einer eigenen Anhängerschaft genießt oder man kann sich einfach in eine Ansicht verrannt haben und davon nicht mehr loskommen. Doch Oreskes und Conway nehmen sich eine bestimmte Gruppe von Wissenschaftlern heraus und erzählen, wie sie zur Leugnung des Standes der Wissenschaft kamen. Kürzlich gab es dazu einen Gastbeitrag bei Joe Romms Blog und aus dem möchte ich einige Punkte herausziehen und kommentieren. Es gibt übrigens auch ein kurzes Interview dazu in der Schweizer Sonntagszeitung.

Mittwoch, 2. Juni 2010

Anscheinend unwiderlegbar

Leugner sind anscheinend unwiderlegbar. Vor kurzem wieder hatte ein Besucher dieses Blogs damit argumentieren wollen, dass es seit 1995 keine signifikante Erwärmung gäbe, ein Blödsinn, der von der Leugnerszene im Rahmen ihre politischen Kampagne gestreut wird. Andere reden sogar immer noch von Abkühlung oder fehlender Erwärmung der Meere. Und in einer britischen Zeitung wird behauptet, die britische Royal Society wolle ihre Stellungnahme zum Klimawandel nach Kritik von "Skeptikern" (das heißt, Leugnern) überarbeiten. Egal wovon die Rede ist, die Realität sieht genau anders herum aus. Nicht nur ist eine globale Temperaturzeitreihe seit 1995 grundsätzlich nicht signifikant, weshalb man nur längere Zeitreihen betrachtet und die, das ist auch allgemein bekannt, zeigen eine globale Erwärmung in dem Umfang an, wie sie sich auch nach Modellrechnungen ergibt. Mehr noch, das laufende Jahr verspricht in mindestens einer der großen Temperaturzeitreihen einen neuen Rekord zu ergeben. Im laufenden Mittel der letzten 12 oder 13 Monate hat die GISS-Zeitreihe bereits einen neuen Rekord erreicht und in den Satellitenmessungen sind wir nicht mehr weit von einem neuen Temperaturrekord. Leugner sollte man daher immer wieder fragen: wo ist denn die globale Abkühlung, von der ihr 2008 und 2009 permanent geredet habt? Selbst die inkompetente Wissenschaftsredaktion des Spiegels hat ja der Abkühlungslüge der Leugner das Wort geredet.

Inzwischen konnten auch die Temperaturmessungen in den Ozeanen, mit denen die Wärme in den Meeren bestimmt wird, von Lyman und seinen Kollegen überarbeitet und korrigiert werden und zeigen nun über lange Zeiträume im Rahmen der Ungenauigkeit die erwartete Erwärmungsrate. Wissenschaftler wie Trenberth weisen darauf hin, daß die Messungen der Strahlungsdifferenz am Oberrand der Atmosphäre aufgrund des Treibhauseffektes und die gemessene Erwärmungsrate der oberen 700 Meter der Ozeane für kurze Zeiträume noch nicht zusammenpassen. Die Erwärmung war in den letzten Jahren zu langsam. Es fehlt nicht an Mutmaßungen, wie man die Daten in Übereinstimmung bringen kann. Die mittlere Tiefe der Ozeane liegt bei ca. 3700 Metern, und die Abdeckung der Ozeane durch Messsonden ist möglicherweise noch nicht ausreichend, um den räumlichen Fehler der Messungen genügend zu reduzieren. Schon bei einer Erfassung von einer 2000 Meter tiefen Schicht der Ozeane erhält man in den letzten Jahren eine stärkere Erwärmung als bei Betrachtung nur der oberen 700 Meter. Vielleicht geht mehr Wärme in tiefere Meeresschichten, als wir vermuten. Natürlich gibt es auch einen Fehler bei der Strahlungsdifferenz zwischen eingehender und abgehender Strahlung am Oberrand der Atmosphäre. Immerhin konnte eine Arbeitsgruppe um Susan Solomon feststellen, daß eine schwankende Konzentration von Wasser in der Stratosphäre die Erwärmungsraten vor der Jahrtausendwende beschleunigt und nach der Jahrtausendwende verzögert haben könnte. Den Effekt hat Georg Hoffmann in seinem Blog näher erläutert. Auch der Effekt der Aerosole kann zu einer Ungenauigkeit in der Strahlungsbilanz beitragen. Diese ganze Diskussion geht aber nicht über den langfristigen Trend, sondern nur darum, wie gut wir kurzzeitige Schwankungen der globalen Erwärmung und der globalen Temperatur verstehen.

Wenn man angestrengt nicht verstehen will, bieten die Feinheiten der Diskussion der globalen Erwärmung Leugnern viel Stoff, aber die für sie unangenehme Wahrheit ist, daß es global in erwarteter Weise wärmer wird und keine der Vorhersagen der Leugner über eine geringere Klimasensitivität oder globale Abkühlung eingetroffen ist.

Nun versuchen die Leugner, wo sie bei den Fakten nur Nieten ziehen, doch zumindest über Skandalisierungen und eingebildete Kontroversen in der Wissenschaft zu punkten. Immer kräftig unterstützt von inkompetenten Journalisten, wie z.B. die völlig unfähige Wissenschaftsredaktion des Spiegels oder ganz oben zitiert, die Times. Was die Times da aber schreibt, ist das exakte Gegenteil dessen, was wirklich passiert. Kurz gesagt, wenn der Leser maximal desinformiert sein möchte, muß er nur Artikel bevorzugt angelsächsischer Medien lesen - oder, ich muß leider immer wieder in die Kerbe hauen, die Ergüsse der naturwissenschaftlich unbeleckten Wissenschaftsjournalisten beim Spiegel (bei allen Ungenauigkeiten habe ich bei der FAZ, beim Fokus und, mit Ausnahme des Kommentarteils, bei der Welt eine deutlich bessere Trefferquote ausmachen können). Die Times streut also, die Royal Society wolle ihren Standpunkt zum Klimawandel überarbeiten? Das will sie wirklich, aber nicht in dem Sinne, daß man den sogenannten "Skeptiker"-Standpunkt einarbeiten möchte, sondern im Gegenteil in dem Sinne, daß man die Ergebnisse der Wissenschaft in den letzten drei Jahren berücksichtigen und einige Punkte klarer fassen möchte. Was soll denn in den letzten drei Jahren passiert sein, was irgendetwas an der Einschätzung geändert haben könnte, daß die Klimasensitivität für eine Verdopplung des CO2-Äquivalents bei 3 Grad liegt und ohne Gegenmaßnahmen die Summe der Klimaantriebe der Treibhausgase deutlich mehr als diese Verdopplung betragen wird? Im Gegenteil kamen ja in der publizierten Literatur nur Bestätigungen der Theorie und Widerlegungen der Leugner.

Und dies alles ist ja der Grund, warum ich das Wort "Leugner" immer ausschreibe. Diese Menschen mögen jeweils sehr verschieden argumentieren. Das reicht von Verschwörungstheorien über die Clownphysik nach dem Muster von Gerlich, Tscheuschner und Kramm, bei der der Treibhauseffekt geleugnet wird, über absurde Thesen einer exklusiven Steuerung des Erdklimas durch die Sonne bis zu der Behauptung einer geringen Klimasensitivität, wie es z.B. Lindzen behauptet. Gemeinsam ist ihnen allen nur eines: sie nehmen den Stand der publizierten Wissenschaft nicht zur Kenntnis und tun so, als wären sie nicht in den vergangenen Jahrzehnten widerlegt worden. Das erinnert an den schwarzen Ritter bei Monty Python, der selbst nach dem Verlust aller Gliedmaßen seine Niederlage nicht eingestehen wollte.



Leugner finden es beleidigend, "Leugner" genannt zu werden. Diese Bezeichnung ist genauso hart und unbarmherzig wie die Realität der globalen Erwärmung, aber auch genauso zutreffend. Und genau deshalb tut sie den Leugnern so weh.

Montag, 26. April 2010

Informatiker will die Klimaforschung belehren

Es gibt ein durchgängiges Schema beim Thema Klimawandel. Irgendein Akademiker einer fremden Fachrichtung stellt fest, daß mehrere tausend Wissenschaftler in der Klimaforschung in den letzten Jahrzehnten durchgängiger Forschung irgendetwas falsch gemacht haben müssen. Es ist egal, ob es ein Wirtschaftswissenschaftler, ein Physiker oder ein Informatiker ist, aber irgendwie kommen da immer wieder Menschen auf, die einen privilegierten Zugang zu Wissen zu haben scheinen, der es ihnen ermöglicht, an tausenden von Fachpublikationen vorbei ein Thema beurteilen zu können. Der neueste in dieser Reihe selbsterklärter Genies ist David Gelernter, Professor für Informatik in Yale und in der Forschungsabteilung von Mirror Worlds Technologies tätig. Im konservativen Spektrum gilt er oft als Universalgenie und äußert sich zu Informatik, Kunst, Religion und Geschichte. Außerdem ist er in den USA als überlebendes Opfer des UNA-Bombers bekannt.

In einem Kommentar bei der FAZ warnt Gelernter davor, daß angeblich Computermodelle unkritisch zu Entscheidungsträgern gemacht würden. Laut Überschrift geht es in dem Kommentar um ein Nachdenken über die Reaktion auf die Vulkanaschewolke. Und der Titel ist sehr plakativ „Die Aschewolke aus Antiwissen“. Der Titel ist sogar unfreiwillig treffend, denn Gelernter pustet uns eine solche Aschewolke des Antiwissens in das Gesicht. Er behauptet, ausgeklügelte Computerprogramme hätten Europas Flugverkehr in ein Chaos gestürzt. Doch das Chaos entstand dadurch, daß die Flugaufsicht nicht die Verantwortung dafür übernehmen konnte, daß Vulkanasche in jedweder Konzentration kein Risiko für die Luftfahrt darstellt. Die Entscheidungen darüber, welche Flugräume gesperrt wurden, kamen eben nicht aus Computermodellen, wie Gelernter es suggerieren will, sondern waren politische Entscheidungen, die man auf der Basis traf, daß schon ein einziges Flugzeug, das womöglich Schäden erleidet und dadurch jetzt oder später abstürzt, ein vermeidbarer Unfall zuviel ist. Das war den Entscheidungsträger ein Milliardenschaden bei Flugausfällen wert, denn wenn man die Lufträume nicht gesperrt hätte und auch nur eine Maschine abgestürzt wäre, wäre der Aufschrei der Öffentlichkeit viel größer geworden. Diesem Dilemma wurde Gelernter nicht gerecht.

Aber wollte er dem gerecht werden? Er schreibt hier über ein Thema, mit dem er sich offensichtlich nur oberflächlich beschäftigt hatte. Denn er unterstellt, es hätte keine Messungen der Vulkanaschewolke gegeben. Doch, die gab es. Die Datenlage hätte besser sein können, aber grundsätzlich waren die verwendeten Ausbreitungsmodelle validiert und nachfolgende Messungen bestätigten, daß tatsächlich die simulierten Vulkanaschewolken vorhanden waren. Schon der Journalist Schirrmacher, auf dessen Kommentar bei der FAZ sich Gelernter bezieht, hatte da reichlich unbedarft falsche Behauptungen in die Welt gesetzt, die einige Leser in den Kommentaren auch angreifen – erstaunlich, daß hier die Leugnertruppe, die in ihrer üppigen Tagesfreizeit sonst zu allem mit Klimabezug relevante Beiträge auf rot und Unfug auf grün klickt, sich hier noch nicht ausgetobt hatte.

Worum es eigentlich ging, merkte man in den folgenden Absätzen, als unvermittelt das Thema Klimawandel auftauchte. Nun hat Professor Gelernter auch von der Klimaforschung offensichtlich keine nennenswerten Kenntnisse, aber als amerikanischer Konservativer eine sehr bestimmte Meinung. Er ist davon überzeugt, daß wir nicht wissen, ob Kohlendioxidemissionen eine Erderwärmung erzeugen können. Doch, wir wissen es, weil es elementare Physik ist und weil wir es beobachten. Wir wissen seit Jahrzehnten, daß Kohlendioxidemissionen zu einer Erderwärmung führen können und wir sind zunehmend in der Lage, den Effekt zu quantifizieren und dies durch Beobachtungen zu bestätigen, und es gibt Anhaltspunkte dafür, daß wir den Modellen hinreichend weit trauen können. Er behauptet, ganz im Sinne vieler Amerikaner mit republikanischer Prägung, wir wüssten nicht, ob die Erwärmung gefährlich sein könnte. Auch dies wissen wir definitiv. Man kann sich darüber streiten, wie schnell und ab wann und wo genau die Folgen der Erderwärmung gefährlich genannt werden müssen. Aber eine Erwärmung von mehreren Grad Celsius ist unvermeidbar, wenn wir Kohlendioxidemissionen überhaupt nicht regulieren und bei einem solchen Temperaturanstieg ist das Abschmelzen der Eisbedeckungen von Grönland und der Westantarktis auf Dauer unvermeidbar. Ein Meeresspiegelanstieg, der in wenigen Jahrhunderten, vielleicht sogar eher, im globalen Mittel bei über 10 Metern liegt, ist aber definitiv eine gefährliche Auswirkung. Ein Absterben der tropischen Korallenriffe im Zuge einer Erwärmung um mehrere Grad und einem Abfall des pH-Wertes um 0,3 Punkte ist ganz sicher eine sehr gefährliche Folge der Kohlendioxidemissionen. Gelernter meint, man solle der zivilisationsbedingten Erwärmung als wissenschaftlicher Hypothese mit Skepsis gegenübertreten, aus zwei Gründen, die beide nicht einsichtig sind. Zum einen, weil man allen „derartigen Hypothesen mit Skepsis begegnen sollte“. Mit „derartigen“ meint er wohl alle Hypothesen, bei denen Computermodelle als Arbeitsinstrument dienen können. Das sind, so wie sich die Wissenschaft entwickelt hat, heutzutage praktisch alle. Einerseits ist das trivial – ein Wissenschaftler muss immer ein Skeptiker sein. Aber das meint Gelernter nicht. Was er meint, ist auch nicht feststellbar. Er weiß es wohl selbst nicht. Denn eigentlich geht es ihm um den anderen Punkt, eine ganz typische Argumentationsfigur der Leugnerszene: menschengemachter Klimawandel könne nicht gefährlich sein, weil das Klima schon immer geschwankt habe. Das ist ein Satz, der in seiner Dummheit geradezu klassisch ist. Klimaforscher und Geologen können sehr ausführlich erläutern, wie das Klima in der Erdgeschichte geschwankt hat, aufgrund jeweils bestimmter externer Antriebe. Sie können zusammen mit Biologen auch einiges über das Aussterben von Arten erzählen, und wie dieses in katastrophalen Ereignissen kulminieren konnte, wenn ein großer Prozentsatz aufgrund von radikal veränderten Lebensbedingungen auf der Erde verschwand. Was uns die Erdgeschichte lehrt ist vor allem, daß kein Mensch wünschen kann, daß es schnelle Klimaveränderungen auf der Erde gibt, und es absurd ist, mit dem Verweis auf die Erdgeschichte unser Klima bedenkenlos zu verändern.

Was bei Gelernter auffällt ist, daß er seinen Kommentar darauf aufbaut, daß er sein Resultat fertig hatte, bevor er darüber nachdachte – bei seinen politischen Einstellungen kein Wunder. Denn bei ihm kommen Risiken und Skepsis immer nur in einer Richtung vor. Für ihn ist ein Argument, daß Maßnahmen gegen den Klimawandel Milliarden kosten können. Für ihn ist seltsamerweise aber kein Argument, daß das unbeschränkte Emittieren von Treibhausgasen selbst Milliarden an Schäden verursachen wird. Er meint, man müsse die Aussagen der Klimaforschung mit Skepsis aufnehmen. Er sieht aber keinen Grund, die Aussagen der Leugnung der Ergebnisse der Klimaforschung mit Skepsis aufzunehmen inklusive seinem Strohmann, daß das Klima schon immer geschwankt hätte und ein Klimawandel daher unbedenklich sei.

In seinem Text findet man immer wieder vage Allgemeinplätze. Die Klimamodelle hätten bei einigen einschlägigen Testläufen die Vergangenheit nicht vorausberechnen können. Gelernter gibt hier nicht an, was er meint, um welche Elemente es geht und welche Relevanz das für das aktuelle Problem hat. In der Fachliteratur findet man hingegen, daß wesentliche Elemente der Klimaentwicklung der Vergangenheit mit den aktuellen Modellen reproduziert werden konnten. Die Literaturangaben dazu kann man zum Beispiel in den Kapiteln 6, 8 und 9 des 4. Sachstandberichts der WG 1 des IPCC nachlesen. Was also erzählt uns Gelernter da eigentlich? Er behauptet, die Zukunft könnten die Modelle erst recht nicht vorausberechnen. Daß sie das können, stellen die Modelle seit 1988 unter Beweis. Alle Modelle haben ihre Grenzen und ihre Fehler. Doch entscheidend ist, ob man unter Beachtung dieser Grenzen relevante Aussagen gewinnen kann. Und da können wir Klimamodelle als wichtige Entscheidungshilfe nutzen.

Gelernter meinte, Milliarden für den Klimaschutz wären doch womöglich besser angelegt für ganz andere Projekte, und sehr plakativ kommt da auch die Trinkwasserversorgung eines afrikanischen Dorfes ins Spiel. Möglicherweise schaffen wir mit dem Klimawandel hier erst die Probleme, die Gelernter dann lösen will. Oder auch nicht, denn das Dorf ist nur hypothetisch zu sehen, weil es diese Alternative nicht gibt – Gelernter, wie viele marktradikale Republikaner, nehmen solche Verweise nur als Vorwand, nichts zu tun, was er am Ende des Absatzes bereits andeutet. Wir geben Milliarden aus, um Banken zu retten, Milliarden, um Waffen zu kaufen, Milliarden, um Bauern zu subventionieren, Milliarden hier, Milliarden da. Wenn der politische Wille da ist, geben wir Milliarden für den Klimaschutz aus und gleichzeitig auch Milliarden für die Wasserversorgung in Entwicklungsländern. Bisher hat noch kein Leugner, der nach Manier des Sozioökonomen Björn Lomborg andere Entwicklungsprojekte ins Feld führte, denen angeblich der Klimaschutz das Wasser abgräbt, nachweisen können, daß auch nur ein Cent mehr in diese Projekte fließt, wenn wir keinen Klimaschutz betreiben. Da wäre Gelernters Skepsis mal angebracht.

Gelernter behauptet auch, daß wir reichlich Zeit zum Nachdenken hätten, bevor wir Entscheidungen treffen, das CO2-Experiment zu stoppen. Auch hier weiß niemand, wie Gelernter darauf kommt. Da er den Modellen nicht trauen will, muß er ja irgendwie beurteilen können, wieso wir noch lange Zeit weiter Treibhausgase in der Luft anreichern können, ohne daß das gravierende Auswirkungen hätte. Auch hier wäre Skepsis gegenüber Gelernters Urteilsvermögen angebracht, denn in den Fachpublikationen findet man eher Belege, gerade aus der Paläoklimatologie, die darauf aufbaut, daß das Klima schon immer geschwankt hat, daß wir bereits in einem Bereich der Treibhausgaskonzentrationen sind, bei dem gravierende unumkehrbare Wirkungen auftreten können. Wir haben demnach eben keine Zeit mehr, das CO2-Experiment fortzusetzen, dem Gelernter frei von jeder Skepsis eine vorläufige Unbedenklichkeit bescheinigen wollte.

Was Gelernter aber wirklich als Leugner, als Wissenschaftsgegner und als Polemiker kennzeichnet, ist seine Unterstellung, daß Wissenschaft auf Basis von Modellen, also praktisch die gesamte heutige Wissenschaft, eine religiöse Veranstaltung sei. Er schreibt von der „ehrwürdigen Imprimatur der wissenschaftlichen Priesterschaft“, von „Softwaregläubigkeit“, von „blindem Vertrauen auf die Kafka-Computer des wissenschaftlichen Mysterium-Staates“. Da schreibt jemand, der keine Argumente hat, der ablehnen will, was er nicht versteht, aber trotzdem sein Leben beeinflusst und dies nur dadurch kann, daß er Wissenschaft mit Religion gleichsetzt. Tut er das, braucht er sich nicht mehr mit den Fachargumenten auseinandersetzen, denn eine Religion ist ja nur Glaubenssache. Genau deshalb kommen so gerne religiöse Metaphern und Unterstellungen von Leugnern wissenschaftlicher Erkenntnisse.

Gelernter behauptet, er warne vor der Gefahr, daß Politiker gläubig den Output von Modellen in politische Entscheidungen umsetzen würden. Doch hier stimmen schon zwei Punkte nicht. Zum einen diese Vision nicht, denn viel öfter beobachten Fachleute in der Politik ausgeprägte Beratungsresistenz. In den USA liegen seit 1979 Studien vor, daß Treibhausgasemissionen das Klima verändern werden und ein Risiko darstellen werden. Das hatte bisher erschreckend wenig Folgen. Zum anderen nimmt Gelernter einfach so an, daß die mögliche Fehlbarkeit von Modellen bedeutet, daß Entscheidungen ohne den Einsatz von Modellen weniger fehlerhaft wären. Diese Erwartung ist geradezu absurd. Modellbasierte Entscheidungen setzen sich ja gerade deshalb durch, weil man dadurch Fehlerraten absenken kann, nicht weil die Menschheit heimlich zur Computerreligion konvertiert wäre. Gelernter mag vom schönen 19. Jahrhundert träumen, als das Leben noch einfach war und man mit Bauchentscheidungen ein Gemeinwesen lenken konnte. Aber heute nutzen wir Internet, Flugzeuge, Autos, globale Warenströme und moderne Pharmazie. Nichts davon würde ohne Computereinsatz funktionieren, und Modelle werden in immer mehr Bereichen wichtige Arbeitswerkzeuge nicht nur in der Forschung, sondern in der Betriebssteuerung. Der Gedanke daran mag Gelernter verstören, trotzdem ist es kein Grund, wissenschaftliche Ergebnisse zu leugnen und Wissenschaftler zu diffamieren. Der nächste, bitte.

Sonntag, 21. März 2010

Gesetz des Dschungels regiert bei Amazonas-Streit

Einer der Folgen des Klimawandels ist eine Änderung des Niederschlagsmusters über der Erde. Diskutiert wird unter anderem die Möglichkeit, daß die Niederschlagsmenge über dem Regenwald am Amazonas nachläßt. Wir wissen, daß im Zuge von El-Nino-Ereignissen Dürreperioden am Amazonas auftreten. Möglicherweise bedeutet eine globale Erwärmung, daß wir verstärkt mit solchen Ereignissen rechnen müssen und daß dadurch Teile des Regenwaldes absterben und durch Savanne ersetzt werden. Das Schaubild zeigt die mittleren Ergebnisse der Modelle zu Temperatur- und Niederschlagsänderungen in Südamerika. Bemerkenswert ist vor allem der Rückgang der Niederschläge im Amazonasgebiet im Quartal Juni bis August.
Im Bericht der zweiten Arbeitsgruppe des IPCC zu den Folgen des Klimawandels werden diese Auswirkungen ebenfalls diskutiert. Dort steht: "Up to 40% of the Amazonian forests could react drastically to even a slight reduction in precipitation; this means that the tropical vegetation, hydrology and climate system in South America could change very rapidly to another steady state, not necessarily producing gradual changes between the current and the future situation (Rowell and Moore, 2000). - Bis zu 40% des Amazonasregenwaldes könnten drastisch auf sogar geringfügige Verringerungen der Niederschläge reagieren, indem tropische Vegetation, Wasserkreislauf und Klimasystem in Südamerika rasch in einen anderen stationären Zustand wechseln könnten, ohne dabei unbedingt Zwischenschritte zwischen der aktuellen und der künftigen Situation einzunehmen (Rowell und Moore, 2000)." Das Zitat bezieht sich auf einen Bericht des World Wildlife Fund WWF, auf dem auf Seite 15 allerdings dafür ein entsprechender Nature-Artikel zitiert wird (D. C. Nepstad, A. Veríssimo, A. A l e n c a r, C. Nobre, E. Lima, P. Lefebvre, P.S c h l e s i n g e r, C. Potter, P. Mountinho, E. Mendoza, M. Cochrane, V. Brooks, Large -scale Impoverishment of Amazonian Forests by Logging and Fire, Nature, 1999, Vol 398, 8 April, pp505).

Ein Blogger namens North hatte die Lüge verbreitet, der Eintrag im IPCC-Bericht sei nicht durch die Fachliteratur gestützt. Das ging insbesondere nach Verbreitung durch den britischen Reporter Jonathan Leake als "Amazongate" durch die Leugnerblogs, in denen diese Lüge nie korrigiert wurde. Für Tim Lambert im Blog Deltoid war dies Anlaß, einer ganzen Serie von Lügen von Leake und seinem Kollegen Rose nachzugehen.

Gerade, als man glaubte, daß man so langsam diese Lügen zu den Akten legen könnte, passierte aber etwas, was nicht ohne Präzedenz ist. Eine Wissenschaftler (Samanta) hatte mit Kollegen Satellitenaufnahmen der Veränderungen des Amazonasregenwaldes nach einer Dürre von 2005 ausgewertet und im wesentlichen die gleichen Ergebnisse erhalten wie Kollegen (Scott Saleska und Kollegen 2007) zuvor. Das wäre ziemlich langweilig. Aber man kann seine Pressestelle eine Meldung herausgeben lassen, die das Ganze interessanter macht. Erstens behauptet man, man habe ein anderes Ergebnis erhalten als die Kollegen - eine Version, der Saleska bei Real Climate widerspricht, und dann kann man noch behaupten, daß dieses Ergebnis im Widerspruch zum IPCC-Bericht sei, auch wenn dies gar nicht der Fall ist. Dieses Verhalten von Samanta ist klar unethisch. Es bedeutet natürlich, daß der Öffentlichkeit suggeriert wird, daß schon wieder ein Fehler im IPCC-Bericht aufgedeckt worden sei, wenn im Gegenteil der Bericht bestätigt wurde. Man fällt damit Kollegen in den Rücken. Und da im Fachartikel etwas anderes steht, kann sich Samanta auch noch damit aus der Affäre ziehen, daß ja fachlich alles korrekt sei, nur die Pressemitteilung sei leider "ein bißchen mißverständlich formuliert".

Mir ist diese Taktik schon bei Hans von Storch aufgefallen. Er macht einen normalen Artikel dazu, daß man aus einer zu kurzen Vergleichszeitreihe keine Langzeitkorrelationen zwischen globaler Temperatur und Meeresspiegelanstieg ableiten kann und meiert dann in einer Presseerklärung auf gröbste Weise Rahmstorf ab, als ob dieser etwas ganz anderes herausgefunden hätte und er nun widerlegt wäre. Rahmstorf betrachtet jedoch nur eine relativ kurzzeitige Antwort des Klimasystems (bis 2100). Er diskutiert 2009 erneut das einfache Modell. Auch hier steht in der Presseerklärung von Hans von Storch eine Widerlegung einer anderen Arbeit, die man im Fachartikel nicht wiederfindet. Kreativ war auch Bob Carter in einer Presseerklärung zu einem Artikel mit McLean und Kollegen. Der Artikel zeigte im Grunde nur, daß auf kurzer Zeitskala Temperatur und ENSO-Zyklen korrelieren. Die Presseerklärung behauptet, man habe gefunden, daß die globale Erwärmung nicht von Menschen verursacht werde. Das steht aber nicht im Artikel.


Diese Taktik, mittelmäßige Arbeiten durch überzogene Presseerklärungen aufzuhübschen und dabei auch noch Politik zu machen, gar Leugnerrhetorik in der Presseerklärung zu transportieren, die man nicht durch die Fachbegutachtung bekäme, ist unethisch und sollte, wie Eli Rabett meint, Auswirkungen auf die Annahme von Drittmittelanträgen solcher Wissenschaftler haben. Weiteres dazu auch hier und in den Links des Beitrags - die Geschichte dürfte noch viele unappetitliche Weiterungen erhalten.

Dienstag, 19. Januar 2010

Ein Fehler im IPCC-Report – Himalaya Gletscher

Der IPCC-Report ist eine umfassende Zusammenfassung der wissenschaftlichen Literatur zu den Ursachen, dem Ablauf, den möglichen Entwicklungen und den Folgen des Klimawandels und möglicher Vermeidungs- und Anpassungsstrategien. Ein so umfassender Bericht wird zwangsläufig auch Fehler enthalten. Die Frage ist, wie viele solcher Fehler gibt es und wie gravierend können sie sein? Ich würde vermuten, daß es sich mit der Zahl der Fehler im IPCC-Report so verhält wie mit der Zahl fehlerhafter Publikationen, die es durch einen Peer Review schaffen. Fehler passieren dann, wenn man an einer Stelle nicht mit der üblichen Sorgfalt gearbeitet hat. Bei einigen tausend Arbeiten, auf die der IPCC-Bericht beruht, und einer Fehlerquote von mindestens einem Prozent würde ich davon ausgehen, daß man mehr als ein Dutzend Fehler im IPCC-Bericht finden sollte, die über die Qualität eines Druckfehlers oder einer falsch bezeichneten Graphik hinausgehen. Gerade bei Details auf Spezialgebieten am Rande der Hauptstoßrichtung des Reports würde ich erwarten, daß man ein paar echte sachliche Fehler findet. Jetzt ist man fündig geworden…

Wie unter anderem der New Scientist berichtet (kostenfreie Registrierung erforderlich), haben Glaziologen Anstoß darauf genommen, daß unter den Feststellungen des IPCC-Berichts auch die Behauptung war, daß es sehr wahrscheinlich (>90 %) sei, daß bis 2035 Gletscher des Himalaya bei einer anhaltenden globalen Erwärmung abgeschmolzen sein können. Dieser Satz wurde z.B. vom indischen Glaziologen Vijay Raina als unglaubwürdig angegriffen wie auch die Behauptung, daß die Gletscher im Himalaya schneller abschmelzen würden als irgendwo anders auf der Welt. Der IPCC-Vorstand Rajendra Pachauri verteidigte aber die Feststellungen des IPCC-Berichts als Ergebnis fachbegutachteter Forschung. Das war voreilig.

Geht man in den IPCC-Bericht, findet man normalerweise wirklich Feststellungen, die durch fachbegutachtete Artikel abgesichert sind. Auch zu der Lage der Gletscher findet man eine große Zahl von Literaturangaben und vorsichtige Feststellungen. Als ich von dem Satz las, daß die Gletscher im Himalaya bis 2035 verschwinden könnten, hatte ich allerdings zunächst große Schwierigkeiten, ihn zu finden. Üblicherweise schaue ich zuerst in die Ergebnisse der Arbeitsgruppe 1 (WG 1) zum naturwissenschaftlichen Stand des Klimawandels. Im Kapitel 4 findet man auch den Stand zu Beobachtungen: Änderungen bei Schnee, Eis und gefrorenem Boden. Abschnitt 4.5 enthält Feststellungen zu Gletschern und 4.5.3 auch einen Satz zu Gletschern in Asien, die demnach mit unterschiedlichen Raten abschmelzen, wobei einige in Karakorum auch Zuwachs zeigen, belegt mit 5 verschiedenen Artikeln. Das war wohl nicht der Punkt, also suche ich weiter bei dem Bericht der Arbeitsgruppe 2 (WG 2) Auswirkungen, Anpassung und Verletzlichkeit und finde unter Kapitel 10 die Feststellungen zu Asien. Unter 10.2.4.2 finde ich einige Feststellungen zum Abschmelzen der Gletscher in Zentralasien und der Auswirkungen auf den lokalen Wasserhaushalt, die jedoch durch eine Reihe von Literaturzitaten gesichert sind und offensichtlich auch keine beanstandete Stelle enthalten.

Im Abschnitt 10.6.2 über Himalaya Gletscher hoffe ich endlich, die kritische Textstelle zu finden. Und da steht es, direkt vor einer Tabelle über Abschmelzraten ausgewählter Gletscher „Glaciers in the Himalaya are receding faster than in any other part of the world (see Table 10.9) and, if the present rate continues, the likelihood of them disappearing by the year 2035 and perhaps sooner is very high if the Earth keeps warming at the current rate.” „Gletscher im Himalaya gehen schneller zurück als irgendwo auf der Erde (siehe Tabelle) und, wenn die gegenwärtige Geschwindigkeit der globalen Erwärmung anhält, ist die Wahrscheinlichkeit bei der gegenwärtigen Abschmelzrate sehr groß, daß sie bis 2035 oder früher verschwinden.“ Das ist eine sehr weitgehende Behauptung und die einzige Referenz dafür ist ein Bericht des World Wildlife Fund WWF von 2005.

Unter der Tabelle kommen weitere Feststellungen zu Gletschern im Himalaya, die dann allerdings durch zwei weitere Literaturstellen abgedeckt sind. Aber zurück zum Zitat aus dem WWF-Bericht. Das ist nun gerade keine fachbegutachtete Literatur. Durfte man sich denn darauf berufen? Die Antwort lautet, ja, schon, aber… Der WWF-Bericht selbst ist gut recherchiert und faßt seinerseits fast 200 Literaturstellen zusammen, meistens aus der fachbegutachteten Literatur. Ein Überblick über Gletscher, Gletscherrückzug und die resultierenden Auswirkungen in Nepal, Indien und China ist eine gute Quelle für die Aussagen im IPCC-Bericht. So weit, so gut.

Die Aussagen im IPCC-Bericht dazu, wann es im Himalaya keine Gletscher mehr gibt, wird man im WWF-Bericht aber so nicht finden. Jedenfalls nicht im Textkörper. Nur in der Einleitung und Zusammenfassung findet man einen Abschnitt „Überblick über das Problem“ auf Seite 2, wo eine Motivation gegeben wird, sich mit dem Problem des Gletscherrückgangs im Zusammenhang mit der globalen Erwärmung zu beschäftigen. Da beruft man sich auf einen Artikel im New Scientist vom 5. Juni 1999, in dem der Glaziologe Syed Hasnain zitiert wird, der behauptet, die meisten Gletscher der Himalaya Region werden aufgrund der globalen Erwärmung innerhalb der nächsten 40 Jahre (also bis 2039) verschwinden. Der WWF-Bericht hatte sich diese Aussage keineswegs zu Eigen gemacht, sondern sie als apokalyptische Vision angeführt. Es wäre auch ein Fehler gewesen, diese Aussage als gesicherte Feststellung zu nehmen, denn sie war nur eine Meinung Hasnains in einem Telefoninterview und keineswegs ein publiziertes wissenschaftliches Ergebnis. Diese Aussage hat Hasnain inzwischen zurückgezogen. Im IPCC-Bericht ist also aus grauer Literatur, immerhin aber einer respektablen Quelle, aus einem Aufmacher für den eigentlichen Bericht eine Aussage genommen worden, die selbst nur Hörensagen aus einer Zeitung darstellte und dann war diese Aussage auch noch falsch zitiert worden, denn Hasnain redete nur von einigen und nicht von allen Gletschern im Himalaya und noch nicht mal der Zeitrahmen bis 2035 stammte aus dieser Quelle. Eine Grundlage dafür, dieser Aussage eine bestimmte Wahrscheinlichkeit zuzuordnen, gab es auch nicht.

Was für Folgen hat das nun? Eigentlich keine. Diese Aussage im IPCC-Bericht der WG 2 war nicht die Basis für weitergehende Schlussfolgerungen und tauchte auch nicht in der Zusammenfassung für die politischen Entscheidungsträger auf. Fast alle anderen Aussagen zu Gletschern im allgemeinen und Gletschern in Asien im besonderen sind fundiert und können auf Fachliteratur zurückgeführt werden. Und doch hat es viele Folgen. Leugner des Klimawandels können aufgrund einer Aussage aus vielen hundert Seiten IPCC-Berichten sagen, daß das alles Mist sei – haben sie doch gleich gewußt. Pachauri als Vorstand des IPCC, der sich massiv gegen Angriffe auf diese Aussage eingesetzt hatte, hat eine peinliche Niederlage erlitten, die zudem vermeidbar gewesen wäre, wenn er für sich akzeptiert hätte, daß selbstverständlich auch der beste Bericht einzelne Fehler enthalten wird. Entscheidend ist immer, ob diese Fehler Grundaussagen betreffen. Im IPCC-Bericht 5, dessen Erstellung derzeit beginnt, wird man den Fehler korrigieren müssen, was Murari Lal, der leitende Autor für das Kapitel über Gletscher, auch in Aussicht stellt. Für Politiker ergibt sich eine Ausrede, den IPCC-Bericht insgesamt anzugreifen, obwohl keine der Grundaussagen zur globalen Erwärmung betroffen sind. Wie gesagt, ich mußte erst ziemlich suchen, um in dem riesigen Bericht diesen einen falschen Absatz zu finden. Die Lehre für die Autoren der Arbeitsgruppe 2 sollte aber sein, zurückhaltend mit grauer Literatur umzugehen und sorgfältiger weitgehende Aussagen zu überprüfen, ob sie belastbar sind. Leider muß man aber auch sagen, daß es unvermeidlich ist, daß im fünften IPCC-Bericht neue, eben andere Fehler auftreten werden, daß man im vierten IPCC-Bericht bestimmt noch weitere Aussagen finden, hinter denen sich Schlampigkeit oder Fehler verbergen und daß auch beim bestmöglichen Bericht es immer genug Vorwände geben wird, um anhand einer Aussage den ganzen Bericht aller drei Arbeitsgruppen abzulehnen.

Hier diskutiert James Hrynyshyn diesen Fall als wirklich peinlich für das IPCC.

In Leugnerblogs wird man selbstverständlich eine intensive Diskussion des Falls finden, wenn auch kaum mit der richtigen Gewichtung und brauchbaren Details. Symptomatisch die vergleichsweise seriöse Klimazwiebel mit der folgenden Wertung von Rainer Grundmann: „Such are the dangers of alarmism. There can be no doubt that as a result the IPCC and climate science will loose credibility. Is it a consolation that in this case we see some ready admission of mistake and not an endless circling of wagons?” „Das sind die Gefahren des Alarmismus. Es kann keinen Zweifel geben, daß als ein Ergebnis das IPCC und die Klimawissenschaft Glaubwürdigkeit verlieren werden. Ist es ein Trost, daß wir in diesem Fall ein teilweise bereitwilliges Zugeben des Fehlers sehen und nicht den endlosen Aufbau einer Wagenburg?“
Womit der Absatz gleich mal wieder festgelegt hätte, daß der IPCC-Bericht den Gefahren des Alarmismus unterliegt und daß ein fehlerhafter Satz in einem Abschnitt über ein Spezialthema in einem Bericht die Glaubwürdigkeit des ganzen IPCC und sogar der ganzen Klimaforschung beeinträchtigt. („honest broker“ von Storch meldet sich dann auch in der Diskussion und will aufgrund Lals Aussage in der Presse ihn auch noch aus dem IPCC kicken – na so was…) Auf Grundmanns Planeten ist das Zugeben eines Fehlers anscheinend bei Wissenschaftlern etwas ungewöhnliches und der Bau von Wagenburgen üblich. Auf meinem Planeten allerdings ist es üblich, daß man, wenn man Fehler feststellt, sie eben korrigiert und daß die Glaubwürdigkeit auch nicht daran hängt, ob Fehler passieren, sondern, ob man bereit ist, daraus zu lernen, und daß die einzigen, die ihre Fehler gar nicht aufgeben wollen und Wagenburgen bauen, keine Wissenschaftler sind, sondern jene, die seit den 80er Jahren konsequent leugnen, daß es eine globale Erwärmung aufgrund des Treibhauseffektes gibt, daß sie menschengemacht durch unsere Emission von Treibhausgasen ist, daß sie potentiell schädliche Auswirkungen haben kann und daß wir etwas dagegen unternehmen können.

Unter die Gürtellinie geht es dann, wenn Roger Pielke Jr. behauptet, daß Pachauri, der gar nicht Autor in der entsprechenden Arbeitsgruppe war, und Hasnai, der wenig dazu kann, wenn eine Zeitungsaussage von 1999 über einen falsch zitierten Bericht wieder im IPCC-Bericht auftaucht, aufgrund ihrer Mitarbeit im The Energy & Ressources Institut TERI ein monetäres Interesse an einer Falschaussage im IPCC-Bericht gehabt hätten, weil TERI einen Auftrag zu eben diesem Thema akquiriert hätte. Ein Zusammenhang, der an den Haaren herbeigezogen ist, den man aber Verschwörungstheoretikern auch nie wird ausreden können. Weder kann man annehmen, daß sich die Autoren in der entsprechenden Arbeitsgruppe hätten von Pachauri anweisen lassen, was da im IPCC-Bericht stehen soll, noch hätte man annehmen können, daß diese eine Aussage ausschlaggebend für die Auftragsvergabe an TERI war. In dem Sinne wird man sicher noch andere weitgehende Schlußfolgerungen finden, die nur zeigen, was man so alles an den Haaren herbeizerren kann.

Nachtrag: Inzwischen berichtet auch Spiegel Online und - man muß das dazu schreiben, korrekt. Die Leserdiskussion dazu ist, wie üblich, grottig.

Sonntag, 20. Dezember 2009

Klimagipfel in Kopenhagen – sind wir überrascht?

Wenn ich die Frage schon so stelle, natürlich nicht. Der Klimagipfel war dazu verurteilt, genau die Ergebnisse zu bringen, die er erbracht hat. Voraussetzung für den Erfolg eines solchen Gipfels ist, dass alle Beteiligten eine Interesse an Ergebnissen haben. Es sind aber mehrere Akteure in den Gipfel hineingegangen, die ein Ergebnis explizit nicht wünschen konnten.

Die USA konnten ein Ergebnis nicht wünschen, weil die Binnenverhältnisse das gar nicht zulassen. Die Amerikaner sehen die Dringlichkeit einer Bekämpfung des Klimawandels nicht. Zwar hält trotz einer massiven Desinformationskampagne in den amerikanischen Medien die Mehrheit der Amerikaner den Klimawandel für ein Problem und Maßnahmen dagegen für erforderlich. Aber sie gewichten andere Probleme wie Gesundheitsreform und Finanzkrise deutlich höher. Und die Minderheit, die nicht an einen menschengemachten Klimawandel glaubt, ist immerhin stark genug, bei Wahlen eine entscheidende Rolle zu spielen. Daher kann eine amerikanische Regierung nicht die Maßnahmen beschließen, die eigentlich erforderlich wären: eine massive Verteuerung der Energiepreise in den USA. Denn billige Energie in den USA ist der entscheidende Grund, warum Amerikaner doppelt so viel Energie und doppelt so viele CO2-Emissionen brauchen, um den gleichen Lebensstandard zu erreichen wie in reichen europäischen Ländern. Mit unserer perversen Braunkohleverbrennung brauchen wir uns in Deutschland zwar nichts einzubilden, aber in Europa und den USA stehen sich zwei komplett verschiedene Lebenskonzepte gegenüber, die bis auf weiteres nicht vereinbar sind. Jeder Präsident, jedes Parlament, dass den Amerikanern verordnete, dass die Benzinpreise verdoppelt werden müssen, könnte gleich zurücktreten, denn darauf würde es hinauslaufen. Wer an die Marktwirtschaft glaubt, der muss auch einsehen, dass billige Energie und Energieeinsparung sich widersprechende Ziele sind. Wie Nachrichten aus einem Paralleluniversum kommen einem dabei die Reaktionen in den USA vor, in denen Obama Führungsstärke unterstellt wird oder behauptet wird, es wäre ein Durchbruch erzielt worden.

Doch auch mit China, dem anderen größten Emittenten, war ein brauchbares Ergebnis nicht zu machen. China konnte grundsätzlich nicht zustimmen, dass international Emissionen in China überwacht werden. Es wäre nur eine von vielen Zumutungen, die diese Diktatur nicht akzeptieren kann. Überwachung der Menschenrechtssituation, Überwachung der Aufrüstungspolitik, Überwachung von Lohndumping und menschlichen Arbeitsbedingungen, Überwachung der Umweltpolitik? Alles Felder, in denen China, und andere Diktaturen, Wert darauf legen, die Karte der Souveränität auszuspielen, weil Interessen der eigenen Oberschicht geschützt werden müssen – Machtinteressen oder finanzielle Interessen.

Es gibt Kritik, die ziemlich an der Realität vorbeigeht. Merkel hätte als „Klimakanzlerin“ versagt. Wie bitte? Was hätte sie denn an den Realitäten in den USA, in China, in Indien, in den arabischen Staaten oder in Rußland ändern können? Der andere Vorwurf: Die EU hätte den Entwicklungsgeldern mehr Geld zusagen sollen und gleich eine Reduktion der Emissionen statt um 20% auf 30% zusagen sollen. Was hätte das gebracht, wenn schon jetzt ein Resultat ist, daß die USA nur ein Drittel der Finanzierungszusage der EU oder Japans macht? Man bringt die Amerikaner nicht ins Spiel, wenn man ihnen zu verstehen gibt, daß man ihre Pflichten gleich mit übernimmt. Im Gegenteil, dann werden sie sich erst recht zurücklehnen und andere machen lassen. Es ist besser, wenn nach wie die EU in der Position sind, daß sie ihren Teil an der Milderung des Klimawandels aufstocken können. Insofern stimmt es schon, daß wir unsere Hoffnungen auf die Vorbereitungskonferenz im Juni in Bonn und den nächsten Gipfel in Mexiko setzen müssen. Die EU allein sind nicht in der Lage, am Klimawandel etwas zu ändern. Vielmehr müßen zugleich auch Rußland, die USA, Kanada, Australien, Japan Korea, China, Indien, Brasilien, Mexiko, Indonesien und der Iran ihre Emissionen massiv begrenzen. Und selbst das wird auf Dauer noch nicht reichen, da nach und nach viele weitere Länder in die Rolle großer Emittenten wachsen können.

Wie weit der Weg noch ist, den wir gehen müssen, zeigt deutlich der Climate Action Tracker (auf den ich durch einen Beitrag bei der Klimalounge aufmerksam wurde). Das Gebiet zwischen durchgezogener und gestrichelter schwarzer Kurve ist das Gebiet, in das die Emissionen von CO2 hineinfallen müssen, damit die globale Temperatur unter 2 Grad Celsius bleibt (die gestrichelte Linie gehört zum 1,5 Grad-Ziel, aber man sollte im Hinterkopf behalten, daß auch bei den niedrigeren Emissionen eine gewisse Chance besteht, daß die Temperatur doch um mehr als 2 Grad ansteigt, da diese Aussagen immer einen Unsicherheitsbereich haben). Das Gebiet zwischen grauer und roter Kurve zeigt an, wie weit wir uns durch die Ergebnisse des Kopenhagener Gipfels nach subjektiver Einschätzung mit den Emissionen auf ein wünschenswertes Szenario zu bewegt haben – nicht viel. Nach Einschätzung der Betreiber dieser Seite streben wir auch nach dem Gipfel eine globale Erwärmung von 3,5+0,8-0,7 Grad Celsius bis 2100 an – und entsprechend mehr danach. Es gibt übrigens weitere ähnliche Seiten, die zu etwas anderen, aber im Prinzip gleichen Ergebnissen kommen.

PS.: Eine sehr kurze Zusammenfassung der Ergebnisse der Klimakonferenz von Kopenhagen findet man unter anderem hier. Viele sagen dazu ja, besser ein schlechter Kompromiß als gar kein Ergebnis. Ich sage mal dazu: virtuell nicht unterscheidbar von keinem Ergebnis. Aber es war schön, mal darüber gesprochen zu haben...

Freitag, 16. Oktober 2009

Wie die Abkühlungslüge die BBC-Nachrichten infizierte

Es sind noch einige Monate, bis offiziell die globalen Temperaturen für das Jahr 2009 bekannt gegeben werden. Und damit schließt sich so langsam die Tür für die Leugner, die mit der platten Lüge, man beobachte eine globale Abkühlung, ihre Propaganda verbreiten können. Man muß dabei realistisch sein: den Leugnern geht es dabei nicht darum, recht zu bekommen. Ihr strategisches Ziel ist es, Zweifel zu verbreiten. So lange der Eindruck besteht, grundsätzliche Fragen des Klimawandels seien noch in der Diskussion und nicht etwa schon lange abschließend geklärt, so lange kann man noch Medien und Politik verunsichern und in Beschlag nehmen. Letztendlich geht es darum, Maßnahmen gegen den Klimawandel zu blockieren.

  • Zum einen, weil manche Leugner damit Ängste vor einem übermächtigen Staat und neuen Steuern verbinden oder aus schlechten Erfahrungen mit Umweltaktivisten heraus, die sie an dieser Stelle treffen wollen,
  • zum zweiten aus wirtschaftlichen Interessen, wie etwa Vertreter der Grundstoffindustrien und der Autoindustrie, Geologen und Mineningenieure sowie Mitarbeiter von Thinktanks, so genannten Denkfabriken, die aus Spendengeldern finanziert werden von Leuten oder Firmen, die selbst wiederum in einer dieser Kategorien hier fallen,
  • zum dritten aus religiösen Gründen („Da Gott nach der Sintflut versprochen habe, die Menschheit nicht mehr in dieser Weise auslöschen zu wollen, könne es gar nicht zu katastrophalen Änderungen des Klimas oder einem Meeresspiegelanstieg kommen, egal was der Mensch tut, weil dies allein in Gottes Hand sei.“ Nicht lachen – das ist eine kleine, aber nicht unbedeutende Gruppe, insbesondere in den USA.),
  • zum vierten aus allgemeiner Wissenschaftsfeindlichkeit, wie zum Beispiel der Fall bei Vertretern der Tabakindustrie, evangelikaler Gruppen, extrem konservativer Gruppen, die alle versuchen, gegen naturwissenschaftliche Ansätze anzukämpfen, wo vermeintlich Schwachpunkte auftreten, um so indirekt Umwelt-, Gesundheits- und Erziehungsbehörden anzugreifen,
  • zum fünften aus Geltungsbedürfnis (viele pensionierte Professoren, Lehrer und Behördenmitarbeiter können noch mal öffentliche Aufmerksamkeit gewinnen, wenn sie eine Außenseitertheorie vertreten, über Vorträge, Bücher oder einen Blog) und
  • zum sechsten, weil es überall Querulanten und Spinner gibt, die ihre Spezialtheorie gegen die Welt vertreten müssen – das ist noch nicht mal eine Frage der Intelligenz.

In ihrer Wirkung sind Leugner Verzögerer – sie halten notwendige und unvermeidliche Umweltschutzmaßnahmen auf und machen sie dadurch erheblich teurer und weniger effektiv. Sie sind insofern Saboteure, vergleichbar den Interessengruppen, die Planfeststellungsmaßnahmen aufzuhalten versuchen, wenn bereits klar ist, daß die Baumaßnahme auf jeden Fall kommt. Sie nehmen dabei auch selbstverständliche Rechte wahr: es muß jedem gestattet sein, seine Meinungs- und Demonstrationsfreiheit einzusetzen und vorhandene Rechtsmittel auszuschöpfen. Allerdings kann dabei die Fairness auf der Strecke bleiben – darauf muß man hinweisen können. Dazu gehört, wenn permanent mit dem Mittel der Lüge gearbeitet wird. Zum Beispiel mit der Sprechfigur: „Wo ist die globale Erwärmung?“ Immer wieder muß man darauf hinweisen, daß man die globale Erwärmung sehr wohl sieht, etwa in der kontinuierlichen Erwärmung der Ozeane. Durch die ständige Umverteilung von Wärme zwischen Meeren und Atmosphäre kann die globale Temperatur zwischen den Jahren um den Trend schwanken. Der Trend ist aber etwas anderes als die Daten einzelner Jahre oder Monate oder, um zu zeigen, wie grotesk es werden kann, Tage. Der Trend ergibt sich erst in der Gesamtschau einer ausreichenden Zahl von Jahren. Welche Zahl von Jahren ausreicht, sagt die Statistik. Man braucht genug Jahre, um einen signifikanten Trend zu erhalten, im allgemeinen etwa 24 Jahre, mit 30 Jahren ist man auf der sicheren Seite. Allerdings wird man selbst für die letzten 10 Jahre keine Abkühlung in den Temperaturdaten finden.

Auftritt eines lokalen BBC-Wetterreporters namens Paul Hudson, der einen freundlichen Redakteur bei der BBC fand, der aus seinem Blogbeitrag eine BBC-Nachricht machte. Nachdem die Diskussion über die angebliche globale Abkühlung nun schon seit Jahren mit den immer gleich falschen Argumenten der Leugner geführt wird, fragt dieser schon wieder, wo denn die globale Erwärmung sei. Nichts, was in dem Beitrag steht, ist neu. Trotzdem gab es in Blogs von Leugnern ein großes Hallo bei dem Beitrag. Warum?

Die BBC ist auch bekannt für ihre naturwissenschaftlichen Reihen. Und dazu gehörten auch Informationen zum Klimawandel. Also ein Hassgegner für Menschen, die Aufklärung und Wissenschaft bekämpfen und Außenseitermeinungen verbreiten wollen. Aber was steht drin?

1. Es steht nichts Neues im Artikel - sämtliche darin erwähnten Leugnerversatzstücke sind bereits seit Monaten bekannt oder sogar noch älter.

2. Der Reporter zitiert zwar die Temperaturzeitreihe des Hadley Centres, widerspricht aber komplett der Interpretation des Hadley Centres, das immer wieder in seinen Verlautbarungen darauf hinweist, daß die globale Temperatur unverändert einen ansteigenden Trend aufweist und daß das Hadley Centre erwartet, daß in den Jahren von 2010 bis 2015 die Hälfte der Jahre wärmer sein werden als 1998.

3. Er zitiert einen gewissen Piers Corbyn, der keine einzige wissenschaftliche Publikation in Fachzeitschriften vorweisen kann. Jener behauptet, daß galaktische kosmische Strahlung, gesteuert von der Sonne, alleine das Klima bestimmen würde. Seine Behauptungen dazu, daß er mit seiner Firma das langfristige Wetter vorhersagen könnte, werden kritiklos weitergegeben, obwohl dieser nur Behauptungen macht, die nicht nachprüfbar sind, da seine Methode (falls er eine hat) von ihm nicht veröffentlicht wurde. Hingegen wurde von vielen Wissenschaftlern (ich verweise dazu gerne auf Lean und Rind und auf Lockwood und Frohlich) nachgewiesen, daß die globale Erwärmung der letzten Jahrzehnte sich nicht durch die Sonneneinstrahlung oder galaktische kosmische Strahlung erklären läßt, durchaus aber durch steigende Treibhausgaskonzentrationen, Aerosoleinflüsse, Vulkane und interne Variabilität, hier an erster Stelle ENSO.

4. Er zitiert außerdem einen Don Easterbrook, einen Geologen - kein Klimatologe, dessen Behauptung, unser Klima würde durch die PDO (Pacific Decadal Oscillation) gesteuert, bereits widerlegt wurde (eben durch Lean und Rind unter anderem). Die Behauptung ist auch ohne Basis, weil im Laufe des Jahrhunderts Klimaänderungen ohne die PDO erklärt werden können, weil die PDO weiterhin keine Klimaänderungen verursachen kann, sondern nur als Folge von Klimaänderungen selbst Veränderungen durchmachen kann.

5. Schließlich gibt er auch Latif falsch wieder, ein von Leugnern gerne aus dem Zusammenhang gerissenes Versatzstück. Latif spricht über die Möglichkeit, daß interne Variabilität des globalen Wetters dazu führen könnte, daß eine globale Erwärmung auch über 10 oder 20 Jahre verdeckt sein könnte, ohne aber dies auf einen bestimmten Zeitraum zu beziehen. Das mag stimmen oder auch nicht, bestätigt aber nicht im geringsten die Behauptungen von Easterbrook, Corbyn oder diesem Reporter und bedeutet auch nicht, daß es etwa jetzt gerade kälter werden müßte. Latif macht insbesondere auch klar, daß der globale Erwärmungstrend irgendwann dann auch dafür sorgen würde, daß zum Ausgleich die globale Temperatur erheblich stärker steigt.

6. Der Reporter Paul Hudson kann außerdem Wetter und Klima nicht auseinander halten, und bezieht sich auf einzelne Jahre oder einen 11-Jahreszeitraum als maßgeblich für klimatische Veränderungen. Er gehört auch zu denen, die meinen, es sei sinnvoll, ausgerechnet mit dem Jahr 1998 eine Zeitreihe für eine Trendberechnung zu starten, obwohl dieses Jahr durch einen sehr starken El Nino einen Ausreißer darstellt, der statistische Berechnungen verfälscht. Und es ist schon seltsam, wenn man 2008 unbedingt 10-Jahrestrends berechnen wollte und 2009 11-Jahrestrends. Anscheinend werden die gleichen Leute nächstes Jahr unbedingt auf 12-Jahrestrends pochen.

7. Das hilft aber alles nichts. Die lineare Regression ergibt bei dem Datensatz des Hadley Centres für die kombinierten jährlichen Temperaturanomalien aus dem Meßnetz und über den Ozeanen für die letzten 10 Jahre (1999-2008) einen Anstieg von 0,0107 Grad pro Jahr, für die letzten 11 Jahre einen Anstieg von 0,0021 Grad pro Jahr, die letzten 12 Jahre von 0,0033 Grad pro Jahr. Wo ist die globale Abkühlung? Die gleichen Zahlen bezogen auf 2009 als letztes Jahr, wobei ich die letzten 4 Monate gleich dem Augustwert setze als einfachste Persistenzannahme geben für 10 Jahre 0,0068, für 11 Jahre 0,0117 und für 12 Jahre 0,0043 Grad pro Jahr. Signifikant ist erst der 30 Jahrestrend von 0,0152 Grad pro Jahr (bis 2008) oder 0,0156 Grad pro Jahr (bis 2009). Wo ist die globale Abkühlung? Man kann auch darauf verweisen, daß das laufende Jahrzehnt (2000 – 2009, mit einem vorläufigen Wert der Temperaturanomalie für 2009 aus den ersten 8 Monaten plus Persistenz) mit 0,41 Grad 0,18 Grad wärmer ist als das Jahrzehnt 1990-1999 mit einem Durchschnitt von 0,23 Grad (inklusive dem El Nino-Jahr 1998). Wo ist die globale Abkühlung? Man kann darauf hinweisen, daß das laufende Jahr (erste 8 Monate plus Persistenz) 0,12 Grad wärmer ist als 2008, und auch wärmer als 2007 und 2006 und wohl das drittwärmste Jahr insgesamt. Wo ist die globale Abkühlung?

8. Englisch kann der Mann wohl auch nicht, wenn er schreibt:

"One thing is for sure. It seems the debate about what is causing global warming
is far from over." - "Eine Sache ist sicher. Es scheint so, als wäre die Debatte
darüber, was die globale Erwärmung verursacht, bei weitem noch nicht zu Ende."

Ist es nun sicher oder scheint es so? Mal abgesehen davon, daß es keine wissenschaftliche Debatte darüber gibt, daß der Anstieg von Treibhausgasen zu einer globalen Erwärmung führt.

Man kann es positiv sehen: wenn Leugner nur auf die Wiederholung bekannter, widerlegter Behauptungen eines Reporters zurückgreifen können als angebliches Argument, haben sie wirklich ihre Munition verschossen. Aber leider stimmt auch das: das Geraune in der Medienlandschaft geht weiter und wird weiterhin die Arbeit sabotieren, schnell zu bezahlbaren Maßnahmen für den Klimaschutz zu kommen. Zumindest die Öffentlichkeit und die Politik in den USA reagieren auf solchen Unfug, dabei sind es weiterhin die USA, die derzeit am wenigsten für den Klimaschutz tun und mit den größten Beitrag zum Problem leisten.

Montag, 22. Juni 2009

Klimabericht zur Kopenhagener Konferenz März 2009

Leider habe ich eine längere Blogpause machen müssen (Arbeit, Familie...). Das heißt aber nicht, daß sich in dieser Zeit nichts beim Thema Klimawandel getan hätte. Im Gegenteil. Als 2007 der 4. Bericht des IPCC herauskam, der auch noch auf Literatur basierte, die bis 2005 erstellt wurde, und Erkenntnisse aus 2006 wegen der langen Dauer des Beratungs- und Referenzprozesses kaum noch berücksichtigen konnte, war klar, daß dies nun für mindestens 6 Jahre die Basis für den politischen Prozess bleiben würde, der zum globalen Handeln führen sollte. Ausgerechnet nach Erscheinen des Berichts kamen jedoch weitere Erkenntnisse ans Licht, die deutlich machten, daß der ohnehin schon politisch weichgebügelte und viel zu konservative IPCC-Bericht den Klimawandel viel zu harmlos darstellte.

Was fehlte denn hauptsächlich? Es fehlte eine Abschätzung, wie stark der Meeresspiegelanstieg aufgrund des Abschmelzens der Eisschilde sein könnte.

Es fehlte die Berücksichtigung der Tatsache, daß der Meeresspiegel schneller ansteigt als zuvor vom IPCC geschätzt.

Es fehlte ein Überblick über die verschiedenen Kippunkte des globalen Klimas aufgrund von Empfindlichkeiten des Systems, wie die Eisalbedorückkopplung in der Arktis, die Freisetzung von Methan bei tauendem Permafrostboden oder erhöhte CO2-Emissionen durch ein Umkippen des Amazonasgebietes.

Es fehlte die Berücksichtigung des beschleunigten CO2-Anstieges seit 2000 aufgrund der Emissionsentwicklung in China.

Neuere Modellrechnungen geben zudem stärkere Temperaturanstiege an.

Diese Punkte zusammengenommen führten bereits zu einer Wahrnehmung der Klimaforschung, daß die Lage wohl dramatischer ist, als es der IPCC-Bericht darstellt und sogar Zweifel bestehen, ob wir eigentlich die Wende schaffen, um den globalen Temperaturanstieg auf 2 Grad bis 2100 zu begrenzen, damit er mit vertretbarem Aufwand bewältigt werden kann.

Die Lücke füllt nun ein Konferenzbericht zur Klimakonferenz am 10.-12. März in Kopenhagen (Graphik oben dem Bericht entnommen), der Literatur bis Anfang 2009 beinhaltet. Ich finde den Bericht in seiner Form lesenswert, weil er stärker akzentuiert und viel kürzer als die IPCC-Berichte ist. Aufgrund der Zusammensetzung der Teilnehmer musste keine Rücksicht auf die USA, China, Russland und arabische Länder genommen werden, die in der Regel führend dabei sind, die IPCC-Berichte durch beharrliche Vetos weichzuspülen, und der Review-Prozeß war viel kürzer, was den Bericht aktuell macht. Man findet sogar die Graphik über die Gefährdungsbereiche der verschiedenen Erdsysteme durch die steigende Temperatur wieder, die beim 4. IPCC-Bericht durch die Lobbyarbeit einiger Staaten gestrichen wurde.

Wie die Graphik oben zeigt, liegen übrigens die Modelle, die für den 3. IPCC-Bericht ihre Projektionen ab dem Jahr 1990 laufen ließen, weiterhin richtig, obwohl 2008 die globale Temepratur deutlich unter dem Jahrzehntmittel lag. Einzelne Jahr können deutlich aus dem Unsicherheitsbereich der Modellergebnisse herausstreuen, der Trend aber liegt bisher innerhalb des Unsicherheitsbereiches. 1998 rauschte zudem weiter nach oben heraus, als 2008 von der mittleren Entwicklung nach unten abwich. Und wenn der nächste El Nino kommt, könnte es innerhalb von 1 - 2 Jahren schnell wieder in den oberen Bereich der Modellunsicherheit gehen.

Erläuterungen gibt Prof. Stefan Rahmstorf in der Klimalounge.

Den direkten Link auf den Bericht findet man hier.

Auf einzelne Punkte des Berichts würde ich gerne bei Gelegenheit zurückkommen.

Mittwoch, 1. April 2009

Welcher globale Temperaturanstieg würde Lindzen eigentlich widerlegen?

Es ist relativ einfach, konkrete Aussagen der Wissenschaft zu den möglichen Auswirkungen weiter steigender Emissionen von Treibhausgasen zu finden. Die IPCC-Berichte, aber auch andere Publikationen machen spezifische Aussagen. Das heißt auch, daß man ständig sehen kann, wie gut diese Aussagen zutreffen. Ich habe bereits auf solche Verifizierungen hingewiesen.

Sehr schwierig ist es hingegen, von Seiten der Leugner und Skeptiker Aussagen zu finden, bei denen man untersuchen könnte, ob diese eingetroffen sind. Man trifft immer zumeist auf Erklärungen der Art, warum die Beobachtungen der Vergangenheit gerade die wissenschaftliche Sicht des Klimawandels nicht bestätigen, sondern hohe natürliche Variabilität, den Einfluß der Sonne oder kosmischer galaktischer Strahlung bestätigen, während Treibhausgase keinen oder nur einen geringen Einfluß gehabt hätten.

Unter den widersprüchlichen Aussagen findet man solche, daß eine globale Abkühlung bevorstünde (ab wann, für wie lange, wie stark?) oder daß die globale Erwärmung nur geringfügig sei (wie viel ist „geringfügig“?). Zwar ist schon jetzt die globale Klimaentwicklung ein Schlag ins Gesicht von Menschen, die noch in den achtziger Jahren meinten, daß Hinweise auf eine starke globale Erwärmung bestenfalls übertrieben wären. Aber Aussagen wurden immer so vage gemacht, daß die gleichen Leute, die 0,1 bis 0,2 Grad Temperaturanomalie Ende der achtziger Jahre nicht als nennenswerte globale Erwärmung ansahen, dies auch über 0,4-0,5 Grad nach 2000 behaupten konnten. Halbwegs fündig wurde ich bisher nur bei Richard Lindzen, der von manchen immer noch nicht zu den Leugnern, sondern den Skeptikern gezählt wird und der tatsächlich Fachpublikationen zur Klimaforschung vorweisen kann. In Fachpublikationen gibt Lindzen allerdings keine Zahl für die globale Erwärmung bis 2100 an, sondern versucht nur, alle Hinweise zu sammeln, die auf negative Rückkopplungen mit der globalen Temperatur zur Dämpfung von Klimaänderungen hinweisen. Lindzen glaubt, daß es negative Rückkopplungen im Klimasystem gibt, die die globale Temperatur stabilisieren.

Die Quelle für das folgende ist "THE HEAT IS ON:The warming of the world's climate sparks a blaze of denial" von Ross Gelbspan im HARPER'S MAGAZINE/December, 1995.

Im Mai 1995 gab es im amerikanischen Bundesstaat Minnesota eine Anhörung dazu, ob der Staat weitere Kohlekraftwerke zulassen sollte. Bezahlte Experten für die Seite der Energieversorger waren dabei Richard Lindzen, Patrick Michaels und Balling, die Stellungnahmen über die Folgen weiterer CO2-Emissionen abgaben. Lindzen erklärte, bis 2100 würde die globale Temperatur bei einer Verdopplung der CO2-Mischungsverhältnisse um 0,3 Grad steigen. (Dieses Temperaturziel hat er kürzlich wieder in einem Beitrag zum Klimawandelleugnerblog Wattsupwiththis.com bekräftigt, in dem er Satellitenmessungen für niedere Breiten der Erde irrtümlich für ein globales Strahlungsbudget mißbraucht.) Die globale Temperaturanomalie war laut dem Hadley Centre 1994 0,16 Grad, in den letzten 5 Jahren bis 1994 im Mittel 0,15 Grad und über die letzten 10 Jahre bis 1994 0,12 Grad. 1998 und 2005 lag die globale Temperatur bereits jeweils um mehr als 0,3 Grad über dem Wert von 1994. Die mittlere Anomalie der letzten 5 Jahre bis 2008 ist mit 0,41 0,26 Grad über dem letzten 5-Jahresmittel, auf das Lindzen sich beziehen konnte, die mittlere Anomalie der letzten 10 Jahre liegt bei 0,39 und ist 0,27 Grad über dem letzten Dekadenmittel, auf das sich Lindzen beziehen konnte. Nach allen Gradmessern haben wir also bereits fast das Niveau erreicht, das Lindzen für 2100 bei einer Verdopplung des CO2-Mischungsverhältnisses vorhergesehen hat.

Man kann berücksichtigen, daß diese Verdopplung des CO2-Mischungsverhältnisses noch nicht stattgefunden hat. Die Strahlungswirkung der Treibhausgase wächst etwa logarithmisch mit ihrem Anstieg, und nach einem Anstieg von 40% ist bereits die Hälfte des Klimaeffektes erreicht, der bei einer Verdopplung eintritt. Das CO2-Mischungsverhältnis ist seit vorindustriellen Zeiten von 280 ppm um 40% auf grob gerundet 390 ppm angestiegen. Die Temperaturänderung sollte daher bisher 0,15 Grad von den angenommenen 0,3 Grad für eine Verdopplung von CO2 betragen, die globale Temperaturanomalie sollte also bei ca. 0,3 Grad liegen. Von den letzten 8 Jahren lagen 8 darüber, selbst das von einem La Nina beeinflusste Jahr 2008 ist bereits oberhalb der Lindzen-Marke. Seit 8 Jahren liegt Lindzen konsistent falsch, ohne dies zuzugeben.

Was könnte ihn dazu bewegen, sich nicht widerlegt zu fühlen? Das 20. Jahrhundert zeigte einige Varianz. Die globale Temperatur lief in der ersten Hälfte des 20. Jahrhunderts um 0,3 Grad hoch, ohne daß hier der Mensch einen signifikanten Einfluß genommen haben konnte. Die Frage ist daher, ab welchem Niveau muß man Lindzens 0,3 Grad rechnen? Doch wohl addiert zu einer natürlichen Variation, zu der Lindzen sich nicht konkret äußert. Genau solche Immunisierungen von Aussagen machen aber Pseudowissenschaft aus – Glaubensaussagen, die sich als Wissenschaft verkleiden, aber ihre Widerlegung mit konkreten Daten nicht zulassen.
Tatsächlich gibt es keinen Anlaß dazu zu glauben, daß die Temperaturentwicklung zwischen 1900 und 1994 ausschließlich durch natürliche Variabilität erzeugt wurde.

Schon der Begriff der natürlichen Variabilität ist irreführend. Solche Änderungen der Temperatur durch die Umverteilung von Wärmen zwischen verschiedenen gekoppelten Teilen der Erde (Ozeangebiete und -schichten plus die Atmosphäre) nehmen wir etwa als ENSO wahr mit warmen El Nino- und kalten La Nina-Jahren. Diese und andere Schwankungen der globalen Temperatur mitteln sich aber über lange Zeiträume weitgehend heraus. Von Jahr zu Jahr können Unterschiede von 0,2 oder gar 0,3 Grad auftreten. Betrachten wir aber 10, 20 oder 30-Jahresmittel, werden diese Schwankungen zum größeren Teil weggemittelt. Es bleiben Klimaänderungen, die zwangsläufig auch eine Ursache haben müssen. Dazu gehören Änderungen der solaren Einstrahlung und die Häufung oder Abwesenheit von Vulkanausbrüchen. Mit solchen externen Antrieben kann man das Klimageschehen bis 1950 erklären. Das 19. Jahrhundert war aufgrund von einer Häufung von Vulkanausbrüchen eher kühl, und die solare Einstrahlung stieg bis ca. 1950 tendenziell an (nach anderen Rekonstruktionen blieb sie praktisch unverändert). Genauer gesagt, im Jahrzehnt 1901-1910 war die mittlere Temperaturanomalie nach HadCruT -0,43, 1951-1960 -0,15 Grad, Differenz 0,28 Grad. Danach aber gibt es Probleme: die solare Einstrahlung geht zurück, aber die Temperatur steigt erneut von einem bereits hohen Stand 0,28 Grad über der Temperatur nach der Jahrhundertwende. Von den mindestens 0,3 Grad zwischen den fünfziger Jahren und 1994 dürfte der größere Teil von dem Anstieg der Treibhausgase herrühren. Berücksichtigt man einen Rückgang des solaren Beitrags zur Temperatur, sind auch 0,4 oder 0,5 Grad als menschengemachte Erwärmung seit den fünfziger Jahren bis 1994 realistisch. Als Lindzen 1994 also davon sprach, daß die menschengemachte Erwärmung bei einer Verdopplung des CO2-Mischungsverhältnisses 0,3 Grad betragen sollte, war das Kontingent bereits aufgebraucht. Jede weitere Erwärmung nach 1994 widerlegt Lindzens Behauptung. Und das sind für die ersten 8 Jahre des 21. Jahrhunderts bereits 0,26 Grad.

Dienstag, 24. März 2009

Der Wärmeinseleffekt – neue Arbeiten dazu

Wenn man sich den Wärmeinseleffekt genauer anschauen will, um zu verstehen, wie stark er sich auf klimatologische Zeitreihen auswirken kann, sollte man wissen, wohin man schauen möchte. Wetterstationen in gewachsenen Stadtgebieten werden wohl eher nicht mehr davon betroffen sein, denn die Entwicklung der Wärmeinsel um die Station liegt in der fernen Vergangenheit. Europa beispielsweise bietet nur eine kleine Auswahl von Stationen, an denen man deutliche Effekte sehen könnte. In Schwellenländern kann man hingegen erwarten, daß gerade in den letzten Jahrzehnten oder Jahren große Stadtgebiete gewachsen sind, die deutliche Temperatureffekte bewirkt haben können. Was also liegt näher, als sich die Volksrepublik China herauszugreifen. Es gibt zwei Publikationen aus 2008, die sich damit beschäftigen.

Die eine ist: Jones, P.D., Lister, D.H. und Li, Q.: Urbanization effects in large-scale temperature records, with an emphasis on China, JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 113, D16122, doi:10.1029/2008JD009916, 2008.


Hier wurde tatsächlich untersucht, wie groß denn der Wärmeinseleffekt in ausgewählten Städten sein kann (z.B. über eine Verteilung der Differenzen der Temperaturen an Stadtstationen zu einer Station im Umland für verschiedene Jahreszeiten von 1961 bis 2006). Dabei fanden die Autoren, daß in London in Wetterstationen im Stadtgebiet eine Erwärmung gegenüber dem Umland von 1,5 Grad zu sehen ist, in Wien immerhin von 0,3 Grad. In beiden Fällen liegt diese Erwärmung aber so weit zurück in den Daten, daß es ohne Bedeutung für die globale Erwärmung seit 1961 ist. Die Temepraturanomalien (gemessene Temperatur minus dem Mittelwert an dieser Stelle von 1961-1990) laufen bei städtischen und ländlichen Stationen ohne sichtbaren Unterschied. Eine solche Analyse müßte man natürlich separat für jede andere Station machen, bei der man einen Wärmeinseleffekt vermutet, wie die Autoren erklären.

Die Autoren haben sich aber auch angeschaut, wie sich der Effekt auf Stationen in China auswirkt. Das ist natürlich nicht die erste Arbeit zu dem Thema – im Artikel werden 7 andere Untersuchungen zum Wärmeinseleffekt in China zitiert, in denen bereits gefunden wurde, daß sich die städtischen Stationen stärker erwärmen als solche im Umland. In China kann man also schauen, wie sich Wärmeinseleffekte auf Temperaturdaten auswirken, die immerhin eine größere Landfläche charakterisieren.

Bevor man die Temperaturdaten benutzt, muß man Effekte wie zum Beispiel eine Verlagerung der Meßstation herausrechnen, um alle Daten vergleichbar zu machen. Die Autoren erläutern nun, daß diese Homogenisierung insgesamt auf die Erwärmung in den Daten keinen Effekt hat. Die verschiedenen Korrekturen in die eine oder andere Richtungen für verschiedene Stationen mitteln sich für alle Stationen fast raus. Vergleiche der homogenisierten Daten ergaben dann, daß die Ergebnisse kaum davon beeinflusst werden, ob man über eine größere Zahl von Zeitreihen verschiedener Meßstationen mittelt oder nach einem gängigen Verfahren ein Gebietsmittel für China aus den gemessenen Temperaturdaten errechnet.

Nun erhob sich die Frage, mit was man die Stationsdaten aus China vergleichen sollte, um den Wärmeinseleffekt zu beobachten. Eine Möglichkeit wäre, ländliche Stationen ohne einen Wärmeinseleffekt heranzuziehen. Leider gibt es in China nur wenige Stationen, die ausdrücklich für diesen Zweck vorgehalten werden. Man kann jedoch stattdessen die Temperaturzeitreihen der chinesischen Landstationen mit der der Meeresoberfläche vor China vergleichen. Hier gibt es ganz sicher keinen Einfluß durch eine wachsende Besiedlung. Leider ist diese Referenz aber auch sonst sehr verschieden vom Land. Das Meer erwärmt sich deutlich anders als Landflächen, schwächer und auch später, durch die große Wärmekapazität des Meeres.

Trotz dieser Schwäche, die den Wärmeinseleffekt vielleicht zu groß darstellen könnte, verglichen die Autoren die Landtemperaturen mit den Meeresoberflächentemperaturen des HadSST-Datensatzes des Hadley Centres. Dabei stellten sie fest, daß die Landtemperaturen sich eher sprunghaft gegenüber dem Meer in den 70er Jahren erhöhten. Dessen ungeachtet, erhielten sie über den gesamten Zeitraum einen Wärmeinseleffekt von 0,11 Grad je Jahrzehnt (bis runter zu 0,08 Grad je Jahrzehnt für verschiedene Jahreszeiten) und schlossen daraus, daß der Wärmeinseleffekt für China im Mittel 0,1 Grad je Jahrzehnt ausmachen sollte. Da die chinesische Landfläche sich über diesen Zeitraum um 0,25 Grad je Jahrzehnt bzw. 1981-2004 um 0,57 Grad je Jahrzehnt erwärmte, ist also 60% der Erwärmung für diesen Zeitraum und 82% der Erwärmung von 1981-2004 in China durch die globale Erwärmung bedingt – der Rest ist der Wärmeinseleffekt.

Eine chinesische Arbeitsgruppe hat sich des gleichen Problems angenommen, allerdings die Jahre 1961 – 2000 betrachtet. Ren, G., Chu, Z., Zhou, J., Zhou, Y., Zhang, A., Guo, J., Liu, X., Urbanization Effects on Observed Surface Air Temperature Trends in North China, Journal of Climate, 21, 1333-1348 (2008) (DOI: 10.1175/2007JCLI1348.1) haben sich 282 Stationen in China vorgenommen und sie in städtische (klein, mittel, groß und Metropolis) und ländliche Stationen aufgeteilt. Für jede der Gruppen wird die mittlere Erwärmung gegenüber dem ländlichen Datensatz festgestellt, die von 0,16 Grad je Jahrzehnt bei den großen Städten bis zu 0,07 Grad bei den kleinen Städten reicht. Auch für die nationalen Referenzstationen für Klimaanalysen wird im Mittel ein Wärmeinseleffekt von 0,11 Grad je Jahrzehnt festgestellt. Daraus resultiert in diesem Datensatz, daß 38% der Erwärmung vom Wärmeinseleffekt verursacht wurden bzw. 62% das klimatische Erwärmungssignal darstellen. Das entspricht, wenn man den anderen Zeitraum berücksichtigt, den Ergebnissen von Jones et al.


Was bedeutet das global? Ich mache hier mal eine Milchmädchenrechnung auf. Man muß berücksichtigen, daß nur Teile der Landmasse den Wärmeinseleffekt zeigen können, und in China wirkt er sich vergleichsweise stark aus. In Europa wird man hingegen in vielen Regionen keinen Wärmeinseleffekt mehr beobachten können. Und die Meere, weit mehr als 2/3 der Erdoberfläche, fallen ganz heraus. Nehmen wir mal an, die Hälfte der Landdaten wäre mit einem Wärmeinseleffekt von 0,1 Grad je Jahrzehnt kontaminiert, hätten wir 0,015 Grad je Jahrzehnt zu berücksichtigen oder 0,15 Grad für das gesamte Jahrhundert. Diese Zahl ist allerdings ganz sicher falsch, denn ich habe hier willkürliche Annahmen gemacht. Wir suchen aber einen Effekt, der höchstens so groß sein kann, vermutlich aber deutlich kleiner ist.

Daß der Effekt wahrscheinlich kleiner ist, ergibt sich nämlich nicht nur daraus, daß man bei vielen europäischen Stationen vermutlich ähnlich wie in London oder Wien keinen Wärmeinseleffekt in den Temperaturanomalien sehen wird, sondern auch, wenn man einen Blick auf die Daten aus den USA wirft, einer weiteren großen Region, für die man eigentlich annehmen würde, daß der Effekt hier eine Rolle spielen könnte.

2008 erschien ein Bericht zum US Historical Climatology Network (USHCN) über ihre monatlichen Temperatur- und Niederschlagsdaten, der dann zu einer Publikation von Williams, C.N., Menne, M.J., und Palecki, M.A. im Journal of Geophysical Research 2010 führte, in dem dargestellt wurde, welche Korrekturen an diesen Daten vorgenommen werden. Der USHCN-Datensatz wird verwendet, um den Klimawandel in den USA zu beobachten. Die wichtigsten Korrekturen sind:
  • Beobachtungszeit: wenn sich die Beobachtungszeit verändert, verändern sich auch Tages- und Monatsmittel, weil es einen Tagesgang der Temperatur gibt. Wenn ich bei den Beobachtungen von Mitternacht auf 2 Uhr morgens gehe, werde ich in der Tendenz kältere Ablesungen haben und müsste demnach die Tages- oder Monatsmittel nach oben korrigieren.

  • Art des Thermometers: verschiedene Temperaturmeßsysteme zeigen gegeneinander eine systematische Abweichung. Für die kann korrigiert werden.

  • Stationshistorie: werden Stationen z.B. verlagert, ergibt sich eine ständige Abweichung, für die korrigiert werden kann.

  • Fehlende Daten: die müssen mit Hilfe der Zeitreihen anderer Stationen ergänzt werden.

  • Wärmeinseleffekt: auch hier ergibt ein Vergleich mit unbeeinflußten Stationen eine Korrektur.

In der Arbeit sieht man sehr schön in einer Graphik die relativen Effekte der Korrekturen.
Die verschiedenen Farben stellen die Größe der jeweiligen Korrekturen an den Daten dar. Die violette abfallende Linie ist die Korrektur für den Wärmeinseleffekt. Für die volle Größe das Bild bitte anklicken.

Danach dominieren die Korrekturen der Beobachtungszeit und der Stationshistorie, die beide eine Erwärmung der Rohdaten erfordern. Der Wärmeinseleffekt kommt dann der Größe nach auf den dritten Platz und erreicht über das gesamte 20. Jahrhundert etwa 0,05 Grad Celsius bzw. 0,005 Grad je Jahrzehnt, ein Drittel meiner oberen Grenze aus der Milchmädchenrechnung.

Montag, 23. März 2009

Wärmeinseleffekt - Einführung

Mal nichts Neues, sondern eine ganz alte Frage, die aber immer wieder kommt: Woher wissen wir, daß der globale Temperaturanstieg kein Wärmeinseleffekt (englisch: UHI für urban heat island) ist?

Der Wärmeinseleffekt ist die im Mittel höhere Temperatur in einer Stadt gegenüber dem Umland. Der Effekt hat mehrere Ursachen: versiegelte, bebaute und betonierte Flächen heizen sich bei Sonneneinstrahlung stärker auf, weil hier weniger Wasser verdunstet werden kann. Unter Umständen ist auch die Albedo geringer und daher die Strahlungsabsorption höher. Im Winter führt die Beheizung der Gebäude zusätzlich zu einer Erwärmung der Umgebung. Aber auch im Sommer wirken Beleuchtung, Verkehr und anderer Energieverbrauch (z.B. auch durch Klima- und Kühlanlagen) als zusätzliche Wärmequellen. Messfahrten in Städte hinein belegen Temperaturunterschiede von mehreren Grad Celsius.

Meteorologische Messstationen für die Temperatur können im Laufe der Zeit von sich ausdehnender Wohnbebauung umschlossen werden. Das führt dazu, dass im Laufe der Zeit die mittleren gemessenen Temperaturen an den Stationen einen ansteigenden Trend haben. Diesen Trend muß man erkennen und aus der Zeitreihe entfernen, wenn man sie benutzen will, um globale Klimatrends zu identifizieren. Hier sind verschiedene Maßnahmen möglich. Zum einen der Vergleich mit Temperaturentwicklungen nahe liegender Stationen außerhalb von Siedlungsgebieten, um den Wärmeinseleffekt zu beziffern und eine Korrekturfunktion zu bestimmen. Zum anderen die Verlegung der Station außerhalb des Siedlungsgebietes. Schließlich, wenn die Station sehr plötzlich eine Umgebungsänderung erfährt und dadurch ein Sprung in der Temperaturzeitreihe auftritt, Korrektur dieses Sprungs (der Inhomogenität) direkt an der Zeitreihe.

Da all dies schon seit dem frühen 20. Jahrhundert Meteorologen bekannt ist und eine entsprechende Pflege der Stationszeitreihen betrieben wird, ist es etwas verwunderlich, dass der Vorwurf von manchen erhoben wird, es sei trotzdem ein Wärmeinseleffekt in den globalen Temperaturzeitreihen versteckt. Was kann man da tun?

Was man nicht tun kann, ist das, was in einigen Blogs betrieben wird: Fotos von Stationen zu sammeln, die mehr oder weniger schlecht plaziert sind und deshalb der oben genannten Korrekturen an den Zeitreihen bedürfen. Auf diese Weise gelingt nämlich nicht der Nachweis, ob solche Stationen nach den durchgeführten Korrekturen etwas an der globalen Temperaturzeitreihe ändern.

Man kann natürlich die Temperaturzeitreihen auf einen Wärmeinseleffekt untersuchen. Dazu hilft es, Tage mit starkem und schwachem Wind zu trennen. Ist der Wind stark, kann sich die städtische Umgebung gegenüber dem Umland nicht so stark aufheizen. Die Luft an der Meßstation ist viel repräsentativer für das nicht-städtische Umland. Solche Vergleiche wurden durchgeführt und festgestellt, daß beobachtete Erwärmungstrends davon nicht beeinflußt wurden: kein Wärmeinseleffekt.

Was man auch tun kann, ist einen Vergleich mit solchen Größen durchzuführen, die sicher nicht vom Wärmeinseleffekt betroffen sind. Die Oberflächentemperatur der Meere ist ganz sicher nicht vom Wärmeinseleffekt betroffen. Und tatsächlich sieht man die globale Erwärmung auch auf den Meeren. Der Wermutstropfen dabei ist aber, daß die Meere sich langsamer erwärmen werden als das Land, weil hier ständig eine Wärmeaufnahme durch tiefere Meeresschichten erfolgen kann. Es wird also erwartet, daß der Erwärmungstrend der Meere dem Land ein wenig hinterherhinkt und das sieht man auch. Skeptiker könnten einwenden: naja, zumindest ein bisschen UHI-Effekt ist vielleicht doch da.

Als nächstes kann man Satellitenmessungen der globalen Temperatur betrachten, weil hier die gesamte Erdoberfläche gleichberechtigt eingeht. Es gibt allerdings drei Mankos: die Satellitenmessungen erfassen nicht die Pole. Das gibt den Tropen ein etwas höheres Gewicht. Da wir wissen, daß die Temperatur durch den Treibhauseffekt in der Arktis stärker steigen sollte, als in den Tropen, sollten Satellitenmessungen die globale Erwärmung möglicherweise unterschätzen. Das zweite Manko ist, daß die Satelliten nicht genau die Temperatur 2 Meter über dem Boden erfassen, wie es Standard bei den Messstationen ist. Die Satellitentemperatur ist die mittlere Temperatur einer größeren Schicht, die gerade aufgelöst werden kann, im Fall gängiger Produkte wie RSS und UAH nimmt man hier die unteren 10 km mit dem Schwergewicht auf den unteren 4 km. Das dritte Manko ist, daß die Satelliten gar nicht die Temperaturen messen. Sie messen die Infrarotstrahlung bei bestimmten Wellenlängen. Auf der Erde werden diese Daten mit der erwarteten Strahlungsstärke nach dem Planckschen Strahlungsgesetz unter Berücksichtigung einer Reihe von Korrekturen abgeglichen, etwa für Störeinflüsse, z.B. Wolken, Staub, Inhomogenitäten in der Luft. Es werden unterschiedliche Sichtwinkel einbezogen, um verschiedene Höhenschichten aufzulösen und so schließlich aus den Satellitendaten mit Hilfe eines Modells die Temperaturen berechnet. Es ist ein schwieriges Geschäft und als man damit anfing, hat man erstmal lernen müssen, mit diesen Daten umzugehen. Der Höhenverlust der Satelliten durch Reibung mit Ausläufern der Atmosphäre führt dabei zu weiteren Fehlern, die auch wieder korrigiert werden müssen. Das war vor allem in den Daten der University of Alabama in Huntsville (UAH) ein länger andauerndes Problem. Alles in allem zeigen die Satellitendaten jedoch die gleiche globale Erwärmung wie die Bodendaten.

Ein weiterer Vergleich kann mit Größen erfolgen, die die Temperaturentwicklung eines größeren Zeitraums aufaddieren. Das ist die Entwicklung der Gletscher und des Polareises. Auch hier gibt es Mankos. Gletscher sind auch abhängig von der Niederschlagsentwicklung. Mehr Niederschläge führen zu mehr Eis auf den Gletschern, die dadurch unabhängig von der Temperaturentwicklung wachsen könnten. Beim Polareis ist das Manko, daß es nur ein regionaler Indikator ist, eben für den polaren Bereich. Nun sagen die Modelle voraus, daß die Temperaturen im Klimawandel zunächst in der Arktis anwachsen werden, die Antarktis hingegen zunächst keinen Temperaturzuwachs zeigen soll. Man muß sich also auf die Arktis konzentrieren – global gesehen ein kleines Gebiet, das sehr begrenzt etwas über globale Temperaturen aussagt.

Das Ergebnis der Vergleiche ist nichtsdestotrotz:



  • Die Gletscher weichen im Schnitt seit Jahrzehnten global zurück, die globale Temperatur steigt im Mittel langfristig an.

  • Die Meereisbedeckung in der Arktis geht, so lange eine Beobachtung durch Satelliten erfolgt, stetig zurück.

Das ist kein Beweis dafür, daß der Wärmeinseleffekt zu 100% korrekt aus den Temperaturdaten herausgefiltert wurde. Aber es ist ein Beweis dafür, daß der Wärmeinseleffekt die beobachtete globale Erwärmung nicht erklären kann und im Vergleich zum Trend sehr klein sein muß. In einem Folgebeitrag möchte ich Beispiele für Untersuchungen zum Wärmeinseleffekt vorstellen.

Montag, 16. März 2009

Zu spät, um noch mit einem blauen Auge davon zu kommen?

Die Klimaforschung hat eine ganz eigene Dramaturgie, die an die Dynamik der Kollision zweier Öltanker erinnert, deren Kapitäne bereits eine halbe Stunde vorher wissen, daß der Unfall nicht mehr zu vermeiden ist, aber in der Zwischenzeit noch in Ruhe ihre Mittagessen einnehmen können. Seit Ende der 70er Jahre wissen wir, daß wir mit den CO2-Emissionen vermutlich auf Dauer Probleme bekommen werden, seit Ende der 80er Jahre, daß der Klimawandel bereits begonnen hat und Probleme auf Dauer sicher sein werden, und trotzdem haben die Entscheidungsträger die ganze Zeit so getan, als sei noch viel Zeit zu handeln. Das ist bedrohlich in einem System, das Bremsspuren macht, die bei einer Länge von 50 Jahren anfangen (globale Temperatur) über Jahrhunderte (Abschmelzen des Festlandeises auf Grönland und in der Westantarktis) und Jahrtausende (Verweildauer von mindestens der Hälfte des CO2 in der Atmosphäre) gehen. Man neigt dazu, noch während der Kollisionsphase zu sagen: „Aber es ist ja noch nichts geschehen.“

Es gibt mehrere Gründe, warum inzwischen Zweifel aufkommen, ob wir den Klimawandel überhaupt noch in den Griff bekommen.

China kriegt die Kurve nicht

Die Emissionen Chinas: die chinesischen CO2-Emissionen steigen schneller als in allen Prognosen auf dem Stand des 3. Assesment Reports des IPCC. Neue Studien zeigen, daß selbst im optimistischen Fall sich die chinesischen CO2-Emissionen in den nächsten 20 Jahren verdoppeln werden, trotz massiven Ausbaus der Kernenergie und alternativer Energieträger und selbst unter Berücksichtigung von Technologien zum Auffangen und Ablagern von CO2 bei neuen Kohlekraftwerken. Und China ist dabei ein Platzhalter, der auch für Indien, Indonesien, den Iran, die Türkei, Pakistan, Nigeria, Mexico und viele andere Staaten steht, die ebenfalls bevölkerungsreich sind und Nachholbedarf bei der Entwicklung haben.

Bereits gebuchte Erwärmung ist größer

Eine neue Studie hebt die Menge an Erwärmung an, die bereits im System angelegt ist, aber wegen der Verzögerung durch die Ankopplung der Meere und möglicher Kühlung durch Aerosole noch nicht realisiert wurde. Dazu gibt es eine Publikation: D. P. Van Vuuren, M. Meinshausen, G.-K. Plattner, F. Joos, K. M. Strassmann, S. J. Smith, T. M. L. Wigley, S. C. B. Raper, K. Riahi, F. de la Chesnaye, M. G. J. den Elzen, J. Fujino, K. Jiang, N. Nakicenovic, S. Paltsev, and J. M. Reilly: Temperature increase of 21st century mitigation scenarios, Proceedings of the National Academy of Sciences of the USA, die hier verlinkt ist.

Selbst im striktesten Vermeidungsszenario kommt die Studie bis 2100 auf eine Erwärmung von 1990 an von 1,4 Grad mit einem Unsicherheitsbereich von 0,5 – 2,8 Grad. Selbst in dem Band der stärksten und raschesten Maßnahmen zur Reduktion der Treibhausgasemissionen besteht die Möglichkeit zu einer globalen Erwärmung von mehr als 2 Grad, der Grenze, bis zu der man die Folgen der globalen Erwärmung für moderat hält und bewältigen kann.



Was das IPCC verschwiegen hat

Doch selbst die Überlegungen dazu, welche Erwärmung eigentlich noch mit moderaten Folgen abläuft, wurden in den letzten Jahren revidiert. Die Veröffentlichung dazu ist schon wieder ein Politikum für sich.

Die Ergebnisse des IPCC basieren auf dem Stand der Wissenschaft, wie er zur Erstellung der IPCC-Berichte publiziert oder bekannt war. Es wurde jedoch nur in den IPCC-Bericht hereingenommen, was im Review durch die Experten und Staaten nicht auf Einspruch stieß. Einige Staaten, explizit genannt werden die USA, Russland, China und Saudi-Arabien, haben massiven Einfluß genommen, die Aussagen des IPCC zu entschärfen. Im konkreten Fall geht es um ein Diagramm, das darstellt, wie Risiken in verschiedenen Bereichen abhängig von der globalen Temperatur auftreten. Die gestrichene Graphik kann man nun in einer Publikation sehen von Joel B. Smith, Stephen H. Schneider, Michael Oppenheimer, Gary W. Yohe, William Hare, Michael D. Mastrandrea, Anand Patwardhan, Ian Burton, Jan Corfee-Morlot, Chris H. D. Magadza, Hans-Martin Füssel, A. Barrie Pittock, Atiq Rahman, Avelino Suarez and Jean-Pascal van Ypersele, Assessing dangerous climate change through an update of the Intergovernmental Panel on Climate Change (IPCC) “reasons for concern”, Proceedings of the national Academy of Sciences, 27.02.2009.

Die wesentliche Botschaft ist hier, daß nun erhebliche Risiken bereits bei einer deutlich niedrigeren globalen Erwärmung gesehen werden. Bereits bei einer globalen Erwärmung von einem Grad steht man bei mehreren der betrachteten Risiken im roten Bereich. Zu extremen Wetterereignissen mit Schäden an Vermögenswerten und Leben trägt die globale Erwärmung jetzt schon zu einem gewissen Teil bei. Unter Verdacht stehen einige Sturmereignisse, Überschwemmungen oder die Hitzewelle und die Brandereignisse in Australien. In allen Fällen kommen andere Ursachen maßgeblich oder möglicherweise dazu, aber Klimaveränderungen spielen in vielen Fällen sehr wahrscheinlich bereits eine Rolle.

Besorgniserregend ist auch, daß das Eis auf Grönland beim gegenwärtigen Klima bereits als nicht mehr stabil angesehen wird. Sollte es mal abtauen, würde es sich nicht wieder neu bilden. Nur weil das grönländische Eisschild bis zu 3 Kilometer dick ist, liegt es zum großen Teil in solchen Höhen, daß Niederschläge das Abtauen zum großen Teil ersetzen können. Auf dem Bodenniveau wäre es bereits zu warm, damit sich neue Gletscher aufbauen könnten – im Sommer würde neu gebildetes Eis immer wieder abtauen.

Die gebildeten Risikokategorien sind nicht alle einfach nachzuvollziehen, aber das Diagramm dazu ist intuitiv verständlich. Wohl deshalb gab es die Widerstände einiger Hauptverschmutzer, die Graphik aufzunehmen und nur kurze Textaussagen zu übernehmen.



Wir sind bereits auf Kollisionskurs, aber Aerosole nehmen uns die Sicht

Eine ähnliche Sicht unterstützt ein anderer Artikel von V. Ramanathan and Y. Feng, On avoiding dangerous anthropogenic interference withthe climate system: Formidable challenges ahead. Proceedings of the National Academy of Sciences, 105, 14245–14250 (2008).

Auch hier wird ein düsteres Bild gezeichnet. Der beobachtete Anstieg der Treibhausgaskonzentrationen hätte bereits im Strahlungsgleichgewicht einen Anstieg der Temperatur um 2,4 Grad zur Folge mit einer Unsicherheitsspanne von 1,4 bis 4,3 Grad. Damit läge man aber schon jetzt in der Spanne von 1 bis 3 Grad, bei der verschiedene Kippunkte überschritten werden, etwa für die Gletscher im Himalaya (Wasserversorgung für Indien und China) und das grönländische Eisschild (in anderen Arbeiten habe ich allerdinsg gelesen, daß dieser Kippunkt auch im optimistischen Fall bis hoch zu 6 Grad liegen könnte). Nach den IPCC-Modellen wurde bisher gerade 25% dieser Erwärmung realisiert. Der Rest käme zu 90% in diesem Jahrhundert, abhängig davon, wie viel von der bisherigen Erwärmung durch Aerosole maskiert wurde und wie stark bisher die Ozeane die Erwärmung gedämpft hatten. Jede Strategie zur Vermeidung von Treibhausgasemissionen, egal wie aggressiv durchgeführt, kann nicht unter diesen Stand von 2,4 Grad vorgemerkter Erwärmung gelangen. Die Zahlen liegen etwas höher als in der am Anfang genannten Arbeit, teilweise aber, weil hier die Erwärmung aus dem 20. Jahrhundert mit berücksichtigt wird, teilweise, weil hier der Anteil der Erwärmung nach 2100 dazugezählt wird. Korrigiert man dafür, stimmen die Zahlen in dieser Arbeit und in der von Van Vuuren et al weitgehend überein.

Keine schönen Neuigkeiten…