Mittwoch, 23. April 2008

Was ist neu beim Klimawandel?

In diesem Beitrag möchte ich mal unsortiert einen Überblick geben, was die Diskussion über den Klimawandel gerade bewegt. Vielleicht komme ich dann in den folgenden Wochen dazu, einiges davon näher zu diskutieren.

2007 war davon geprägt, daß der vierte Übersichtsbericht des IPCC herauskam (IPCC 4th Assessment Report, kurz: FAR). Gegenüber Vorgängerberichten zeichnete er sich vor allem dadurch aus, daß es vergleichsweise wenig Neues gab. Vor allen Dingen gab der Bericht einen Überblick darüber, daß sich immer mehr die Feststellungen der drei vorherigen Berichte bestätigen und verfestigen. Die Projektionen zu Temperaturänderungen, Meeresspiegelanstieg und CO2-Sensitivität (um wieviel Grad steigt die globale Temperatur bei Verdoppelung der CO2-Konzentration) haben sich kaum verändert. Das ging manchmal dadurch unter, daß andererseits die verwendeten Szenarien für die Projektionen erweitert wurden oder beim Meeresspiegelanstieg im Bericht für 2007 plötzlich der Beitrag von schmelzendem Festlandseis herausgenommen wurde.

Das große Manko des Berichts ist es, daß der Redaktionsschluß im Jahr 2006 liegt, aber gerade 2007 erhebliche Fortschritte im Kenntnisstand folgten.

Besonders wichtig ist, daß wir gerade unseren Kenntnisstand über die weitere Entwicklung der CO2-Emissionen revidieren müssen. Sie steigen deutlich schneller als erwartet, und beispielhaft für die Ursache dafür ist China. Das IPCC geht in seinen Projektionen davon aus, daß global die Menge an CO2-Emissionen je Einheit Wirtschaftsleistung ständig sinken müßte – man erwaret, daß wir ständig effizienter werden. In China ist anscheinend das Gegenteil der Fall. Durch die dort wachsende Abhängigkeit von heimischer Kohle verbraucht die Wirtschaft dort immer mehr CO2 je produzierter Werteinheit. Und weil sich immer mehr der Weltproduktion nach China verlagert von CO2-effizienten Staaten in das besonders ineffiziente China, schlägt das global durch. Eine Revision der IPCC-Szenarien für diesen Fall ist nun in Arbeit.

Die CO2-Sensitivität selbst ist zum Thema geworden. Sie wird bisher immer im Bereich von 3 Grad je Verdoppelung der CO2-Konzentration gesehen. Hansen behauptet, dies sei nur die kurzzeitige Reaktion der Atmosphäre, langfristig könnte der doppelte Wert greifen und begründet das mit Untersuchungen früherer Eiszeiten. Dies ist allerdings weithin skeptisch aufgenommen worden. Ob es so eintritt, wird niemand von uns erleben.

Auch das Thema des Meeresspiegelanstiegs verdient einen zweiten Blick. Der IPCC FAR hat den Beitrag aus Festlandeis ausgespart, weil hier nur Spekulationen möglich seien. Wie schnell die großen Eisschilde in Grönland und der Westantarktis abschmelzen, hängt davon ab, wie schnell das Eis ins Meer abfließen kann. Das ist ein Prozess, der wissenschaftlich noch viele Fragezeichen hat. Kann Schmelzwasser, das durch Risse unter die Eismassen sickert, die Bewegung der Eisfelder an einem bestimmten Punkt schlagartig schneller werden lassen? Rutschen irgendwann plötzlich die Eisfelder in mehreren Gletscherbeben rasch ins Meer? Wie kann man so etwas berechnen und vorhersagen? Es gibt auch die Meinung, daß der begrenzende Parameter der Fluß der Eisfelder durch bestimmte Durchlässe ist, und nicht beliebig schneller werden kann. Wenn man alles zusammennimmt, kommt man auf einen möglichen Meeresspiegelanstieg bis 2100, der eher bei 1 Meter bis 1,5 Meter liegt, als den bis zu 59 cm, die aus dem IPCC FAR zitiert werden. Die höheren Schätzungen von bis zu 6 Metern sind wohl erst nach 2100 eine dann allerdings realistische Zahl.

Auch das Abschmelzen des arktischen Meereises 2007 hat für Aufruhr gesorgt, hatte man das doch erst für ca. 2030 erwartet. Zwar fror im letzten Winter das Nordpolarmeer schnell wieder zu, aber das dort vorhandene junge Eis hat dem nächsten Tauwetter wenig entgegenzusetzen.

Generell ist auf den Fachkonferenzen neben anderem die Kryosphäre, die Welt im Eis in den polaren Gebieten, im Zentrum der Forschung. Daher tut sich gerade auf diesem Feld sehr viel.

Ein Thema der letzten Monate waren auch die Kippunkte, ab denen der Klimawandel eine bestimmte, unwiederbringliche Schwelle überschreitet. Auch dies ist noch sehr spekulativ.

Politisch ist die gegenwärtige Zeit nicht weniger aufregend. In den USA ist Wahlkampf, und das beeinflußt auch die Befindlichkeit der Blogs zum Thema, auch in Europa. Im Gegensatz zu Europa ist es in den USA ein Frage des politischen Standpunkts, ob man akzeptiert, daß es einen anthropogenen, vorwiegend schädlichen Klimawandel gibt oder nicht. Daher sind dort auch Leugner in den Medien, der Politik und den Internetdiskussionsforen und Blogs deutlich aktiver als hierzulande, gerade im Wahlkampf. Was dort dann im Internet- und Medienkampf zur Leugnung des wissenschaftlichen Sachstandes ausgegraben wird, schwappt regelmäßig nach Europa über und versorgt auch die kleine Leugnergemeinde hier mit Inhalten, wie z.B. das angebliche Ende des Erwärmungstrends und der global besonders kalte Januar und Februar 2008.

In Bali wurde ein neuer Versuch gestartet, zu einem Klimaabkommen zu gelangen, und diesmal sind die wichtigsten Emittenten mit im Boot. Ob das tatsächlich zu wirksamen Vereinbarungen führt, ist trotzdem fraglich. Das hat George W. Bush in seiner letzten Rede zum Thema wieder vorgeführt. In China und Rußland sieht es nicht besser aus. Den USA kann man zumindest zutrauen, daß ein Stimmungsumschwung möglich ist und wirksame Maßnahmen dann schnell folgen. Ein Blog in den USA trägt zusammen, was man eigentlich tun kann, wenn man es will.

Es gab auch Non-events. Die Klimaforschung hat ihre Konferenzen und wenn man vom üblichen abweichende Ideen hat, kann man sie natürlich dort äußern. Es ist daher ein Signal besonderer Art, wenn die Klimawandelleugner (meistens keine Wissenschaftler, zumindest nicht in dem Fach) sich von einer Lobbyorganisation, dem Heartland Institut, eine Pseudoklimakonferenz bezahlen lassen (bezahlte Teilnahme an einer wissenschaftlichen Konferenz ist völlig unüblich), denn das heißt, daß man mit seriöser Wissenschaft keinen Fuß mehr auf die Erde bekommt und sich mit seinen Ideen nur noch unter Gleichgesinnten sehen lassen kann.

Nicht als wenigstes hat man sich auch der Frage angenommen, ob es jemals einen Konsens gegeben hätte, daß uns eine Eiszeit bevorstünde. Dies wird gerne als Argument dafür verwendet, daß der jetzige wissenschaftliche Konsens zur globalen Erwärmun wenig wert sei. Antwort: nein, einen Konsens über eine bevorstehende Eiszeit hatte es nie gegeben.

Dienstag, 22. April 2008

Wieviel Jahre Temperaturdaten machen einen Trend?

Ich hatte schon mehrmals im Blog auf das Problem hingewiesen, daß man keine Aussage über den Temperaturtrend machen kann, wenn man zu wenige Daten nimmt. 6 oder 10 Jahre reichen nicht, um einen Trend statistisch signifikant zu bestimmen, weil das Rauschen auf dem Trend zu groß ist. Erläutert wurde das hier (Angebliche Abkühlung seit 1998), hier und hier (klimatologische sinnvolle Zeiträume umfassen 30 Jahre).
Nachfolgend stelle ich ein Diagramm ein, auf dem ich das ganze statistisch untermauere. Ich habe mir die jährlich gemittelten Temperaturanomalien (Land - See) vom Hadley Centre genommen (HADCRUT3) und für Zeiträume mit Ende 2007 für eine wachsende Zahl von Jahren Steigung und Korrelation (Pearsons Korrelationskoeffizient quadriert R²) bestimmt. Natürlich sehen wir über 6 und 7 Jahre negative Steigungen. Aber sind die signifikant? Das Problem gehe ich an, indem ich mir die F-Statistik anschaue. Ich bestimme aus R² für eine lineare Regression F=(R²/(n-1))/((1-R²)/(n-p)); n Zahl der Jahre, p =1. Dieser Wert F muß den F-Test übersteigen, um eine signifikante Korrelation anzuzeigen (das heißt, die Hypothese R²=0 zu widerlegen). Wie man sieht, geschieht das erst bei mindestens 23 Jahren. Alle anderen zuvor bestimmten Korrelation waren auf einem 97,5%-Niveau nicht signifikant.


Es gibt eine weitere Möglichkeit, den Punkt zu verdeutlichen, daß 6 Jahre kein sinnvoller Zeitraum ist, sich den Klimatrend anzuschauen. Man kann nämlich auch das Konfidenzintervall der linearen Regression (siehe Abschnitt "Prognose") einzeichnen. Das Ergebnis zeige ich hier:

Wie man leicht sieht, kann man zwischen den beiden äußeren Linien, dem Konfidenzbereich, beliebig Geraden legen, auch mit positiver Steigung. Aus 6 Jahren Daten kann man keinen statistisch signifikanten Trend ableiten. Und dabei habe ich mit Absicht die einfachsten statistischen Mittel eingesetzt. Berücksichtigt man noch Feinheiten, etwa die in den Daten steckende Autokorrelationen, verringert man noch die Freiheitsgrade im Datensatz und weitet dadurch Fehlerbereiche aus bzw. erhöht die Grenzen beim F-Test. Und wenn man monatliche Daten nimmt, erhöht man das Rauschen im Datensatz, was Trends noch weniger signifikant macht. Es ist ein Spiel gegen die Statistik, die diejenigen, die aus zu wenig Daten einen Trend ableiten wollen, nie gewinnen können.

Montag, 21. April 2008

Der Strohmannangriff

Im englischen gibt es das schöne Bild des strawman attack. Strawman wäre auf deutsch die Vogelscheuche, aber es kommt dem Bild näher, den Begriff Strohmann zu verwenden als jemand, der als Vertreter vorgeschoben wird, während der wahre Entscheidungsträger im Hintergrund bleibt. In Argumentationen ist das Strohmannargument eines, das als scheinbares Argument der Gegenseite aufgebaut und erfolgreich angegriffen wird, um die Illusion zu erzeugen, die Gegenseite hätte schwache Argumente. EliRabett hat in seinem Blog mal die Liste zusammengetragen und ich möchte sie für meine Zwecke hier ins Deutsche übertragen und anpassen:

1. Greife Argumente an, die gar nicht geäußert wurden.
2. Nehme einen schwachen Vertreter als repräsentativen Vertreter dieser Ansicht.
3. Nehme Zitate aus dem Kontext und argumentiere gegen eine dann untergeschobene Bedeutung der Zitate.
4. Erfinde einen Diskussionsgegner und lasse ihn gewünschte negative Eigenschaften haben.
5. Vereinfache eine Aussage und greife die Vereinfachung an oder mache eine allgemeine Aussage sehr speziell und greife dann das an.

Ergänzung:
Durch einen Beitrag zu diesem Artikel ist mir ein weiterer Punkt aufgefallen, der im weiteren Sinne auch als Strohmannargument aufgefaßt werden kann, nämlich das Pseudoargument. Dabei wird eine Behauptung in die Diskussion eingebracht, die man im weiteren Verlauf so behandelt, als wäre damit eine Sache bewiesen worden, obwohl die Behauptung nicht belegt oder quantifiziert wurde. Oder es wird auch eine bereits widerlegte Behauptung noch mal wiederholt, als sei sie nicht wiederlegt worden. Der Strohmann ist hier also nicht der bequem zu bekämpfende Gegner, sondern ein künstlich erzeugter Verbündeter.
6. Behandele ein Pseudoargument als Beweis für die eigene Position.

Bei den Diskussionen zum Klimawandel mit der kleinen Gemeinde der Leugner begegnen einem Strohmannangriffe häufig. Z.B. gibt das IPCC in seinen Projektionen einen Temperaturbereich an, der bis 2100 eintreten soll, wenn sich Emissionen entsprechend bestimmter Erwartungen entwickeln. Das enthält die Prämisse, daß ein bestimmtes Emissionsszenario eintritt und wird damit automatisch invalide, sobald die Menschheit andere Entscheidungen trifft. Vor allem aber ist damit nicht gesagt, daß die globale Temperatur von jetzt bis 2100 linear gleichmäßig auf den Bereich der Werte für 2100 steigt. Genau dieses wird dann aber behauptet und jede Abweichung von dem gleichmäßigen Temperaturanstieg bis 2100 als Widerlegung der IPCC-Projektionen behandelt. Ein typisches Strohmannargument vom Typ 1.

Strohmannargumente vom Typ 2 werden oft auf Politiker, Journalisten und Filmschaffende angewendet. Al Gore z.B. tingelte mit seinem Vortrag „Eine unbequeme Wahrheit“ durch die Welt und brachte es als Film heraus. In dem Vortrag mögen einige Ungenauigkeiten, Fehler und Übertreibungen stecken. Sie sind aber alle Ungenauigkeiten und Fehler des Teams um Al Gore, aber nicht des IPCC oder der Klimaforschung. Auch Filme wie „The Day after tomorrow“ enthalten massenhaft Übertreibungen und physikalische Fehler. Sie sind aber auch so gemeint, und taugen nicht als Argument, Entscheidungsträger oder Wissenschaftler wollten Hysterie schüren. Und wenn in den Massenmedien Auseinandersetzungen zwischen Wissenschaftlern aufgeblasen oder Außenseitermeinungen als repräsentativ dargestellt werden, dann ist auch das genau das.

Den dritten Strohmann findet man z.B., wenn jemand versucht zu beweisen, daß beim Thema Klimawandel die kritische, wissenschaftliche Debatte unterdrückt werden solle. Dann taucht das Zitat „The debate is over.“ auf. Das Zitat bezieht sich aber darauf, daß die Debatte vorüber sei, ob der Mensch einen Klimawandel verursache, ob dieser erheblich sei und ob wir daher nicht mehr weiter warten dürfen, dagegen Maßnahmen zu treffen. Hier ist der wissenschaftliche Kenntnisstand eindeutig. Unstrittig hingegen ist, daß die wissenschaftliche Diskussion über relevante Themen nie zu Ende ist und es weiter große Felder gibt, in denen erhebliche Unsicherheiten aufzulösen sind.

Zum vierten Strohmannargument fällt mir ein, daß gerne unterstellt wird, es stecke eine politische Frontstellung hinter der Klimadiskussion. Die Vertreter des menschengemachten Klimawandels wären oft radikale Grüne oder Sozialisten, die ihre politische Agenda mit der Wissenschaft vermengen. Dann wird damit argumentiert, wie solche politischen Gruppen daneben gelegen hätten, vielleicht noch garniert mit dem Realitätsabgleich der Prognosen des Club of Rome. Das Argument hat den entscheidenden Fehler, daß die meisten Wissenschaftler in den relevanten Forschungsgebieten kein radikalen Grüne oder Sozialisten sind, viele sind unpolitisch und die Mechanismen in den Naturwissenschaften sind auch so, daß an politischen Gesichtspunkten orientierte Ergebnisse kaum durch peer review und fachliche Diskussion durchkommen. Das Thema Klimawandel an sich ist eines, daß sich für solche Frontstellungen kaum eignet. Sowohl der ehemalige Kanzler Helmut Kohl als auch die frühere britische Premierministerin Margret Thatcher sahen den anthropogenen Klimawandel als großes Problem an und beide standen nicht im Verdacht, Sozialisten oder radikale Gründe zu sein.

Ein Beispiel für den fünften Typ ist es, wenn erklärt wird, CO2 könne nicht Ursache des jetzigen Klimawandels sein, weil die Änderung der CO2-Konzentration immer der Temperaturentwicklung nachgelaufen sei. Damit wird unterstellt, die Klimaforschung kenne immer nur eine Ursache für Klimawandel, und wenn in der Vergangenheit CO2 nicht der Auslöser war, dürfe es das heute auch nicht sein. Das ist natürlich absurd. Es kann immer verschiedene Größen geben, die einen Klimawandel antreiben. CO2 ist wie H2O eine Rückkopplungsgröße. Wenn alles andere konstant bleibt, gasen wärmere Meere mehr CO2 aus, das dann in der Atmosphäre wiederum als Treibhausgas wirkt und den Temperaturanstieg weiter vorantreibt. Diesmal ist es anders. Indem wir das Kohlenstoffreservoir von Kohle, Öl und Gas anzapfen, machen wir diesmal CO2 zur treibenden Kraft des Klimawandels und nicht nur zur Rückkopplungsgröße. Klimaforschern ist wohl bewußt, daß das Klima der Erde von vielen Größen bestimmt wird und Treibhausgaskonzentrationen nur eine darunter ist, allerdings eine, die derzeit eine dominierende Rolle gewonnen hat.

Strohmannangriffe tauchen häufig dann auf, wenn jemand schwache Argumente hat. Insofern ist das nicht auf das Thema Klimawandel beschränkt und kann diese Taktik durchaus auch von solchen angewendet werden, die die Konsensposition zum Klimawandel vertreten. Ganz allgemein muß jeder, der sich auf solche Diskussionen einläßt, mit Strohmannargumenten rechnen. Es spielt allerdings eine Rolle, daß jemand, der die Position vertritt, daß der anthropogene Klimawandel stattfindet, nichts weiter zu tun braucht, als wissenschaftliche Arbeiten zu zitieren, insbesondere die Übersichtsberichte des IPCC, und die Stellungnahmen irgendeiner der Wissenschaftsorganisationen, fachlich zuständigen Gremien, Institute und Behörden. Gegner des Konsenses müssen hingegen für sich Wissenschaft neu erfinden, denn sie wollen ja letztlich als Fachfremde oder Laien die Wissenschaftler im Fach widerlegen. Da ist die Versuchung erheblich größer, zu Strohmannattacken Zuflucht zu nehmen.

Samstag, 19. April 2008

Warum nimmt man 30-Jahreszeiträume zur Bestimmung von Klimatrends?

Ich hatte zuvor schon auf den Unterschied zwischen Wetter und Klima hingewiesen und erläutert, daß es nicht sinnvoll ist, auf Klimatrends aus zu kurzen Zeitreihen zu schließen (siehe auch hier). In diesem Zusammenhang fällt oft der Hinweis, daß man klimatologische Trends "üblicherweise" auf der Basis von 30 Jahren bestimmt. Diese 30 Jahre sind nicht etwa eine Naturkonstante, die man exakt bestimmen könnte. Das kann auch schon deshalb nicht gehen, weil in der Klimatologie so unterschiedliche Größen betrachtet werden wie eine mittlere Temepratur oder ein mittlerer Wind, der mittlere Jahresgang einer Größe oder die mittlere Varianz von Windrichtung und -geschwindigkeit oder die mittlere Häufigkeit für Schwachwindlagen. Letzteres sind sogar ökonomisch wichtige Größe, wenn man z.B. bestimmen will, ob sich an einem Standort eine Windkraftanlage lohnt.

Der Klimatologe steht vor einem Dilemma. Einerseits muß er so lange Daten sammeln und mitteln, bis alle statistischen Größen nur noch einen geringen Fehler haben. Je mehr Daten, desto kleiner der Fehler (die Konfidenzintervalle) von Mittelwerten, Standardabweichungen usw. Andererseits wird aber, je länger Daten gesammelt werden, desto deutlicher, daß auch ein Trend unterliegt, weil das Klima nicht, wie man noch im 19. Jahrhundert glaubte, über einige Jahrzehnte als konstant angenommen werden kann.

30 Jahre als Zeitraum, über dem man Daten zusammenfassen muß, um klimatologisch belastbare Aussagen machen zu können, die einerseits frei sind von der Betrachtung des Wetters, andererseits nicht vom unterliegenden Trend dominiert werden, ist daher ein reiner Erfahrungswert. Man kann auch sagen, eine pragmatisch begründete Konvention, insoweit zwar nicht herleitbar, aber auch nicht willkürlich. In diesem Sinne legt auch die WMO 30-jährige klimatologische Bezugszeiträume fest, die jeweils von 1901 bis 1930, 1931-1960 und 1961-1990 reichen (Klimanormalperioden). Auch in fast jeder Einführung zur Klimatologie wird auf diesen Zeitraum verwiesen.

Wenn nun dieser 30-Jahreszeitraum ein pragmatischer Wert ist, heißt das natürlich im Umkehrschluß, daß ich für jede spezifische Frage mir auch überlegen kann, ob ein anderer Wert sinnvoll ist. Speziell wenn ich die globalen Temperaturen am Boden betrachte, und wenn ich dabei Monats- oder gar Jahresmittelwerte betrachte, könnte ich ja Größen haben, die statistisch gesehen stabiler sind als die einzelnen Mittelwerte (10-minütlich, stündlich oder täglich) an einer Meßstation. Ich weiß allerdings schon, daß es wohl nicht so ist, wenn ich nur einen ersten Blick auf die Daten werfe. Wenn ich die Temperaturzeitreihe des Hadley Centres nehme, kann ich für z.B. die 30 Jahre von 1978 bis 2007 statistische Größen bestimmen. Insbesondere eine lineare Regression durchführen und den Trend herausnehmen. Die Geradensteigung für die Jahresmittel ist a=0,0164, der Achsenabschnitt b=-32,45. Die Funktion der mittleren Trendtemperatur T als Funktion der Jahreszahl j lautet also:

T=a*j+b

Ziehe ich diese Trendtemperatur von den tatsächlichen Jahresmitteln t ab, bleiben Residuen, die die Streuung der Temperaturenmittel um den Trend darstellen. Ich lasse hier jetzt mal aus, daß diese Residuen autokorreliert sind, und schaue mir deren Standardabweichung an. Sie errechnet sich zu 0,089. Das heißt, 68,3% der Werte lägen bei einer Normalverteilung innerhalb des Bereichs von Trend plus/minus Standardabweichung. Will ich die Streuung besser erfassen (95,4% der Werte), nehme ich gleich die 2-Sigma-Grenze, verdoppele also die Standardabweichung auf 0,18. Das heißt, wenn ich einen Klimatrend bestimmen will, muß dieser groß sein gegen den Wert 0,18 Grad für den betrachteten Zeitraum. Nun habe ich bereits für diesen Zeitraum von 30 Jahren einen Trend von 0,016 bestimmt. Um also auch nur vergleichbar groß zu sein wie das Rauschen, sollte ich mindestens über 11 Jahre den Trend beobachten. Um ein Signal deutlich über dem Rauschen zu haben, sollte der akkumulierte Trend doppelt so groß sein wie die doppelte Standardabweichung. Dazu würde ich 22 Jahre brauchen (22*0,0164=0,36). Damit komme ich den 30 Jahren bereits nahe.

Das ist aber immer noch nur eine oberflächliche Betrachtung. Wenn der Trend stärker wäre (und das wird für die Zukunft erwartet), brauche ich natürlich weniger Jahre, um ihn festzustellen. Umgekehrt aber brauche ich mehr Jahre, wenn der Trend schwächer ist. Genau das ist dann das Problem, wenn man einen Trendwechsel feststellen will, und dieser uns nicht den Gefallen tut, schlagartig zu wechseln, so daß ein deutlich sichtbarer Bruch in der Zeitreihe auftritt. Wenn tatsächlich wahr wäre, daß die globale Erwärmung zum Stillstand gekommen wäre, dann würden 10 Jahre an Daten definitiv nicht ausreichen, dieses zu belegen. Selbst 20 Jahre wären nach den sehr vereinfachten hier vorgebrachten Überlegungen nicht ausreichend. Mit den klimatologisch üblichen 30 Jahren hätten wir auch hier den richtigen Maßstab.

In einem Folgebeitrag möchte ich diese Frage noch vertiefen.

Donnerstag, 3. April 2008

10 Jahre Daten machen keinen Trend.

Es gibt einen interessanten Beitrag im Blog Atmoz, der das Problem verdeutlicht, aus zu wenigen Jahren auf einen Klimatrend zu schließen. Wir hören immer wieder, daß uns Leute erzählen, die globale Erwärmung hätte gestoppt, weil "die Temperaturen seit 1998 nicht ansteigen". In dem Blog sieht man unter anderem eine Animation. Es wurde eine Klimatrend von 0,2 Grad eingezeichnet, auf dem eine Variation liegt (vergleichbar einem El-Nino/Südliche Osziallation-Zyklus ENSO). Hier sehr vereinfacht als eine Sinuskurve mit Periode 7 Jahre und Ausschlag von 0,3 Grad. Entlang dieser vereinfachten Temperaturkurve läuft eine lineare Regression über die letzten Jahre beginnend ab einem Zeitpunkt, der immer weiter zum Ende der Zeitreihe läuft. Man sieht, wie die Steigung, das Maß für den geschätzten Trend für die jeweils letzten Jahre immer stärker schwankt, je weniger Jahre berücksichtigt werden. Das ist der entscheidende Punkt, warum alle Behauptungen, der Klimatrend hätte sich verändert, unseriös sind. Man kann einen Klimatrend nur bestimmen, wenn man alle Zyklen und Schwankungen auf kurzer Zeitskala entweder wegmitteln oder herausrechnen kann. Dazu braucht man mehr als zwei volle Zyklen jeder größeren Schwankung auf den Daten. Bei der Periode von 3-7 Jahren bei ENSO-Ereignissen sollten schon mindestens 15 Jahre berücksichtigt werden, bevor man einen Trend bestimmt. Von 1998 bis 2008 einen Trend bestimmen zu wollen, ist unsinnig, vor allem, wenn man nicht Jahresmittel, sondern die viel stärker verrauschten Monatsdaten nimmt, wie es gerade bei Leugnern des Kliamwandels in Mode gekommen ist.

Erst recht unsinnig ist es natürlich, überhaupt keine Ausgleichsgerade zu bestimmen, sondern einfach eine Linie zwischen zwei Punkten (hohe Temperatur 1998, niedrigere Temperatur z.B. 2007) zu ziehen (das funktioniert ohnehin nur bei den Daten des Hadley Centers). Indem man zwei willkürliche Punkte auf einer stark schwankenden Linie herausgreift, kann man jeden beliebigen Trend bestimmen. Die Aussage ist beliebig falsch.

Jeder, der wissenschaftlich arbeitet und sich mal mit der Analyse von Zeitreihen beschäftigt hat, ist sich dieses Problems bewußt. Trotzdem gibt es sogar vereinzelt Wissenschaftler, die es besser wissen sollten, die die Ente über den seit 1998 beendeten Klimawandel verbreiten, etwa der norwegische Geograph Ole Humlum und selbstverständlich der Lobbyist S. Fred Singer. Da dieser Fehler zu offensichtlich ist, kann man davon ausgehen, daß die Behauptung, der Klimawandel wäre seit 1998 beendet, ein einfacher, aber sicherer Test ist, um festzustellen, ob jemand bereit ist, wissenschaftlich zu argumentieren oder einfach nur einen bestimmten Glauben verbreiten will.

Mittwoch, 2. April 2008

Stammt das zusätzliche CO2 in der Luft von menschlichen Quellen?

Die CO2-Konzentration der Atmosphäre steigt an. Seit 1956 wird das unter anderem durch Messungen auf Mauna Loa bestätigt, davor wissen wir insbesondere durch die Analyse von Luft, die in Eisbohrkernen eingeschlossen ist, daß bis vor weniger als 200 Jahren das CO2-Mischungsverhältnis in den letzten Jahrtausenden stabil bei um die 280 ppm [1] stand und ansteigt, seit Menschen Kohle, Öl und Gas verbrennen.



Es mag aber einige Menschen verwirrren, wie klein der Eintrag durch den Menschen im Vergleich mit den Stoffumläufen in der Natur ist. Was Pflanzen an CO2 aus der Luft aufnehmen und in Zucker umwandeln, was durch Verrotten und Verspeisen der Pflanzen wieder in die Luft gelangt, das ist um Größenordnungen mehr als der Eintrag aus fossilen Brennstoffen. Näheres kann man z.B. bei Wikipedia unter Kohlenstoffzyklus nachlesen. Weil es sich dabei aber um geschlossene Kreisläufe handelt, interessiert nur, was am Ende nicht abgedeckt wird. Und das sind die Zuflüsse aus dem Reservoir fossiler Kohlenstoffverbindungen.

Man kann sich das quantitativ anschauen. Die Atmosphäre enthält 380 ppm CO2. Der Zuwachs seit ca. 1850 beträgt 100 ppm. Das sind ca. 220 Milliarden Tonnen Kohlenstoff. Laut Carbon Dioxide Information Analysis Center (ein Institut des US-Wirtschaftsministeriums) wurden seit 1715 etwa 315 Milliarden Tonnen Kohlenstoff durch die Verbrennung fossiler Brennstoffe in die Atmosphäre abgegeben, die Hälfte davon seit Mitte der siebziger Jahre. Der Anteil vor 1850 ist vernachlässigbar. Die durch Menschen emittierte Menge übersteigt also erheblich den in der Atmosphäre gemessenen Anstieg.

Wir haben also nicht etwa das Problem, daß die von Menschen in die Luft geblasene Menge an CO2 gering wäre im Vergleich zum gemessenen CO2-Anstieg, sondern müssen vielmehr erklären, wieso die CO2-Konzentration nicht noch viel stärker ansteigt. Auch dafür gibt es eine Lösung. Ein großer Teil des CO2 geht in die Ozeane. Genauso wie in Sprudelwasser ist auch in den Ozeanen CO2 gelöst, nur eben viel weniger. Öffnet man die Sprudelwasserflasche, vermindert man den Druck an CO2 über dem Sprudelwasser und das CO2 darin fängt an, herauszusprudeln. Umgekehrt kann man das Aufsteigen der Gasblasen unterbinden, wenn man einen ausreichenden CO2-Druck über dem Wasser herstellt. Genauso funktioniert es auch bei den Ozeanen. Der wachsende CO2-Anteil der Atmosphäre drückt CO2 in die Ozeane hinein.

Diese Rechnung (man nennt das Budgetrechnung) ist nicht der einzige Beweis dafür, daß der Mensch die chemische Zusammensetzung der Atmosphäre verändert. Der zweite Beweis kommt aus der Betrachtung der Isotopenzusammensetzung des Kohlenstoffs in der Luft.

Chemische Elemente können in verschieden schweren Varianten, den Isotopen, vorkommen. Kohlenstoff z.B. kommt in den Varianten C-12, C-13 und C-14 vor. C-14 wurde durch die Atombombenversuche in den fünfziger Jahren in großen Mengen in die Atmosphäre eingebracht und ist nur für Aussagen bis ca 1950 sinnvoll, aber C-13 eignet sich als Marker für die Herkunft von Kohlenstoff. C-14 ist radioaktiv und zerfällt. Deshalb enthält fossiler Kohlenstoff kein C-14. Tatsächlich ist bis 1950 der Gehalt an C-14 in der Luft deutlich gesunken. C-13 wird in Pflanzen schlechter eingelagert als C-12. Auch hier deutet ein Abfall der C13-Konzentration in der Luft darauf hin, daß der Anstieg von CO2 nicht vulkanischen Ursprungs sein kann, sondern aus fossilen Brennstoffen oder dem Verbrennen und Verroten von Pflanzen stammen muß.

Zusätzlich kann man das Verhältnis der Konzentrationen von Sauerstoff und Stickstoff messen. Sinkt dieses Verhältnis, heißt das, daß Sauerstoff durch Verbrennungsvorgänge gebunden wird. Auch das beobachtet man. Sowohl Isotopenbetrachtung als auch Sauerstoffverbrauch lassen sich auf menschengemachte Quellen für CO2 zurückführen.

Ein weiteres Indiz ist die geographische Verteilung des CO2 in der Luft. Es herrscht ständig eine höhere Konzentration in nördlichen Breiten und in der unteren Atmosphäre vor. Die Quellen für CO2 liegen also in den nördlichen Breiten in Bodennähe, wo Kohle, Öl und Gas verbrannt werden, und nicht etwa in der südlichen Hemisphäre (was auf Quellen im Meer hinweisen würde) oder an einzelnen Punkten am Globus (wie bei vulkanischem Ursprung zu erwarten).


[1] ppm = parts per million = 1 Teil CO2 auf eine Million Teile Luft (als Volumen gerechnet).

[2] Rechnung: die Atmosphäre enthält 380 ppm CO2. Das Gewicht der Atmosphäre ist Fläche des Erdbodens mal Druck am Boden durch Erdbeschleunigung. Einsetzen der Zahlen ergibt 5*10^21 g Luft. Bei einem durchschnittlichen Atomgewicht von 29 sind das 1,8*10^20 mol. 380 ppm CO2 ergeben 6,9*10^16 mol CO2. Das sind (mal 12) 8,3*10^17 g C. Der Zuwachs von 100 ppm seit 1850 entspricht 2,2*10^17 g C.