In dem Buch "Die Darwin DNA" von Sean B. Carroll fand ich einen bemerkenswerten Abschnitt über Wissenschaftsleugner. Carroll suchte da nach Vergleichen für die Strategien, mit denen Evolutionsgegner versuchen, gegen diese Theorie anzukämpfen. Dabei schaute er sich näher den Widerstand der (amerikanischen) Chiropraktiker gegen die Theorie an, Infektionskrankheiten würden von Krankheitskeimen, z.B. Viren und Bakterien übertragen, und eine erfolgreiche Maßnahme gegen vieler dieser Krankheiten wäre die Impfung. Der Widerstand der Chiropraktiker ist zum einen erstaunlich, da man bei diesen um die Gesundheit bemühten Menschen erwartet hätte, daß diese eine positive Einstellung zu neuen medizinischen Erkenntnissen hätten. Doch in den 50er Jahren waren die Chiropraktiker ein Berufsstand, der neuen Impfungen wie die gegen Kinderlähmung, heftigsten Widerstand entgegenbrachten. 1954, dem Jahr vor der Einführung der Polioimpfung nach Salk, gab es ca 38.500 Fälle von Kinderlähmung, im Jahr 1961 noch etwas über 1.300 Fälle, soviel erst mal zur Wirksamkeit der Impfungen. Chiropraktiker bekämpften dieses mit Artikeln in ihren Verbandszeitschriften, in denen etwa gefragt wurde: „Ist der Reagenzglaskampf gegen die Kinderlähmung fehlgeschlagen?“ und mit der eigennützigen Empfehlung, bei Symptomen der Kinderlähmung eine chiropraktische Einrichtung der Wirbelsäule vorzunehmen. In aktuellen Umfragen unter Chiropraktikern gibt es immer noch eine starke Gruppe, die Impfungen für nutzlos halten. 1999 ergab eine Umfrage, daß 42 Prozent der Chiropraktiker ihre Kinder nicht impfen lassen, darin unterstützt im wesentlichen von fundamentalistischen Christen, die von Impfungen aus ihren Gründen wenig halten.
Diese ganze Wissenschaftsfeindschaft einer Berufsgruppe erinnert einen an etwas. Nämlich an den auch nicht ganz uneigennützigen Widerstand, den manche Geologen der anerkannten Theorie zum Klimawandel entgegenbringen. Auch hier pflegen Kreise innerhalb einer Berufsgruppe, von der man erwarten sollte, daß sie besser informiert ist, einen uninformierten Widerstand gegenüber bekannten Tatsachen, wie etwa, daß sich das Klima erwärmt, daß dies durch den Anstieg der CO2-Konzentration verursacht wird und daß dieser CO2-Anstieg durch die Verbrennung von Kohle, Öl und Gas verursacht wird, deren Auffindung für viele Geologen nun einmal leider der Broterwerb ist, was anscheinend die Wahrnehmung genauso trübt, wie die Tatsache, daß Chiropraktiker durch Wirbelsäuleneinrenken keine Infektionskrankheiten heilen können.
Welche 6 Argumente oder Strategien wendeten die Chiropraktiker laut Carroll an?
1. Zweifle an der Wissenschaft: Chiropraktiker suchten für den Rückgang mancher Krankheiten nach alternativen Erklärungen, die nichts mit Impfstoffen zu tun hatten. Dabei spielten klinische Untersuchungen keine Rolle.
Ähnlich bei den Klimawandelleugnern: hier wird teilweise der Klimawandel insgesamt angezweifelt oder es wird behauptet, es gebe nur natürliche Ursache (die Sonne oder kosmische Strahlen oder natürliche Zyklen). Daß die Fachliteratur das alles nicht stützt, wird ignoriert.
2. Stelle die Motive oder die Aufrichtigkeit der Wissenschaftler in Frage.
Zum einen wurde von Impfgegnern behauptet, die Daten zur Wirksamkeit der Impfungen würden manipuliert, zum anderen wurde eine Verschwörung zwischen Wissenschaftlern und Pharmaindustrie behauptet. Genau solche Vorwürfe findet man gegen Klimaforscher erhoben. Den IPCC-Berichten wird vorgeworfen, parteiisch zu sein und Klimaforschern wird unterstellt, von Katastrophenprognosen zu profitieren (in eklatanter Unkenntnis darüber, wie die Forschungsfinanzierung funktioniert).
3. Übertreibe die Meinungsverschiedenheiten zwischen Wissenschaftlern und nenne Außenseiter als Autoritäten.
Es gibt neben den zentralen Bereichen, in denen Einigkeit herrscht, immer auch Randbereiche, in denen es Kontroversen gibt. Sowohl die Impfgegner als auch die Leugner des Klimawandels haben solche Kontroversen benutzt, um zu behaupten, die zentralen Punkte seien noch nicht Teil eines wissenschaftlichen Konsenses und in beiden Fällen wurden Außenseiterstimmen, die es nun einmal immer gibt, genutzt, um zu behaupten, die Wissenschaftler seien sich nicht einig.
4. Übertreibe mögliche Schäden.
Gemeint sind damit in der Kampagne gegen Impfungen die Impfschäden, die man aber nun einmal ins Verhältnis zu den viel größeren Schäden der Infektionskrankheit setzen muß, zum anderen im Fall des Klimawandels die Kosten von Maßnahmen zur Senkung von Emissionen von Treibhausgasen, die man ins Verhältnis zu den viel größeren Kosten der Schäden durch den Klimawandel setzen muß.
5. Appelliere an die persönliche Freiheit
Impfungen funktionieren am besten dann, wenn ein bestimmter Durchimpfungsgrad der Bevölkerung erreicht wird, sonst werden Kranheitsüberträger die Infektion weiter am Leben erhalten. Daher gab es immer wieder auch Impfzwang oder eine starke Propagierung von Impfungen, wie etwa bei der weltweiten Ausrottung der Pocken durch einen weltweiten Impfzwang. Dagegen wurde allen Ernstes die persönliche Freiheit gesetzt, entscheiden zu dürfen, wie hirnlos man sich benehmen möchte (oder wie verantwortungslos Eltern mit dem Leben ihrer Kinder umgehen dürfen). Eine solche Berufung auf die persönliche Entscheidung, die Welt zu verschmutzen, wird gelegentlich als Argument gegen Klimaschutzmaßnahmen eingesetzt. Man findet das allerdings in einer besonders üblen Verschwörungstheorie wieder, wie sie zum Beispiel Vaclav Klaus, der tschechische Staatspräsident propagiert. Danach gebe es eine kommunistisch-grüne Weltverschwörung, die Weltwirtschaft zu sozialisieren unter dem Deckmantel des Klimaschutzes, und so alle privaten Freiheiten durch eine Weltdiktatur zu ersticken. Das ist zwar unglaublich schwachsinnig, wird von dem paranoiden Tschechen und vielen Parteigängern aber im Brustton der Überzeugung, man müsse die Welt retten, penetrant abgesondert.
6. Die Anerkennung der Theorie widerspricht einfach zentralen Überzeugungen.
Im Falle der Impftheorie wurde zum Schluß nach dem Scheitern aller anderen Argumente erklärt, die Impfung widerspreche der sogenannten Grundvoraussetzung der Chiropraktik. Letztlich zog man sich also auf reine Glaubenssätze zurück und über Glauben läßt sich nicht argumentieren, nur streiten. Dieser Punkt droht uns im Fall der Auseinandersetzung um die Klimaforschung, wenn die Faktenlage zu überwältigend wird, weil die Temperaturdaten bald wieder gegen alle Behauptungen der Klimawandelleugner nach oben gehen werden, weil der Meeresspiegelanstieg sich weiter beschleunigt und weil die arktische Verstärkung wohl bald unübersehbare Wirkungen zeigen wird. Schon jetzt erlebt man das Vorbringen geradezu religiöser Punkte: es könne keinen menschenverursachten Klimawandel geben, weil die Sonne den dominanten Einfluß auf das Erdklima haben müsse und weil es nur natürliche Zyklen gebe.
Es ist interessant, daß man ähnliche Strategien bei der Bekämpfung wissenschaftlicher Erkenntnisse immer wieder findet. Das gilt für den Widerstand der Chiropraktiker gegen die Theorie der Impfung, das gilt für die Leugner der Evolution, das gilt für die Leugner der Gefahren des Rauchens, das gilt für die Leugner des menschengemachten Klimawandels. Die Strategien ähneln sich und es entwickeln sich sogar Bündnisse oder Überschneidungen in Personen, wie etwa zwischen Evolutions- und Impfgegnern oder zwischen Klimawandelleugnern und Leugnern der Gefahren des Rauchens oder Evolutionsgegnern und Klimawandelleugnern.
Dagegen hilft nur, diese Strategien transparent zu machen.
Montag, 29. Dezember 2008
Freitag, 19. Dezember 2008
Die Arroganz des Journalisten
Das meteorologische Jahr, das mit dem ersten Wintermonat am 1.12. beginnt und mit dem letzten Herbstmonat am 30.11. endet, ist gerade vorüber und die Jahresmitteltemperatur 2008 von den verschiedenen Organisationen verkündet worden. Die Weltmeteorologieorganisation WMO, von uninformierten Journalisten auch Weltmeteorologiebehörde genannt, gibt naturgemäß dabei das Ergebnis des Hadley Centres, einer Abteilung des UK Meteorological Office weiter (das ist eine Behörde), da entsprechend der Arbeitsteilung der Mitglieder der WMO das Vereinigte Königreich es übernommen hat, bestimmte Weltklimadaten auszuwerten. Als La-Nina-Jahr war 2008 tendenziell weniger wam als das Mittel der aktuellen Periode. Es ist bisher das kühlste Jahr des laufenden Jahrzehnts und wird dies vermutlich auch bleiben. Es ist sogar zwar nicht sicher, aber wahrscheinlich, daß 2008 das relativ am wenigsten warme Jahr des Jahrhunderts sein wird. Doch das ist eine unzulässige Spekulation. Wie wissen aber sicher, daß statistisch gesehen das Jahr in der normalen Varianz um den aktuellen Trend liegt und daß dieser Erwärmungstrend sich beschleunigt.
Weil aber nun dieses Jahr vergleichsweise wenig warm ist (kühl ist das falsche Wort für ein Jahr, dessen Temperatur zu keiner Zeit vor 1997 übertroffen wurde, seit es Wetteraufzeichnungen gibt), gibt es naturgemäß denen Auftrieb, die von der wissenschaftlichen Arbeit zum Klima wenig halten und ihre Verschwörungstheorie von der angeblich erfundenen anthropogenen Klimaerwärmung pflegen. Einige inzwischen von diesen Verschwörungstheorien lang genug geplagte Wissenschaftler sehen dieses voraus, und geben den Journalisten eingedenk aller schlechten Erfahrungen Sprachregelungen auf den Weg. Das ist ein hoffnungsloses Unetrfangen und davon handelt dieser Beitrag.
Mein Beispiel ist dieser Kommentar in der FAZ vom Ressortleiter für den Wissenschaftsteil Joachim Müller-Jung, den er zu allem Unglück auch in seinem Blog weiter erläutert hatte, damit man jede Unschuldsvermutung verliert. Es gibt so einiges in dem Artikel, das einem den Magen umdrehen kann. Und das frappierende ist, daß der Artikel von korrekten Fakten ausgeht, daß der Autor, ein Biologe, durchaus sich auch Quellen angesehen hatte, deren Inhalte ihn von falschen Schlüssen hätten abhalten können, doch hatte es nichts genutzt. Vielleicht gab Müller-Jung die Tatsache, daß Gavin Schmidt einen alten Fehler gemacht hatte, das Jahrtausend mit dem Jahr 2000 anfangen zu lassen, ein falsches Gefühl der Sicherheit, auf Augenhöhe kritisieren zu können. Genau da aber stellt sich der Biologe, der selbst keine Erfahrung als Wissenschaftler hat, selbst ein Bein. Im wesentlichen sind es folgende Fehler, auf die der Autor aufläuft.
Da ist zunächst mal der Satz aus seinem Blog: „Allerdings muss sich der Potsdamer Klimadeuter auch den Hinweis gefallen lassen, dass die - bei aller Variation - erkennbare Stagnation in den vergangenen acht Jahren dem in langen statistischen Reihen vom IPCC ermittelten Erwärmungstrend von 0,2 Grad pro Jahrzehnt nicht mehr folgt.“ Hier stecken gleich zwei grundsätzliche Fehler drin. Zum einen haben die Modelle, die für den letzten IPCC-Bericht verwendet wurden, niemals einen aktuellen Erwärmungstrend von 0,2 Grad pro Jahrzehnt berechnet. Vielmehr sagen die Modelle abhängig von den verschiedenen Szenarien verschiedene Temperaturverläufe vorher, die am Ende des Jahrhunderts zu einer bestimmten Temperaturspanne führen. Auf dem Weg dahin machen die Modelle Temperaturschwankungen um den langfristigen Trend mit. Diese Schwankungen sind nur im statistischen Sinne korrekt. Man kann also am Ende des Jahrhunderts sagen, daß dann im Mittel die Temperatur um 0,15 bis 0,4 Grad je Jahrzehnt gestiegen ist. Dazwischen können aber einzelne Jahrzehnte liegen, in denen die Temepratur gar nicht oder viel schneller gestiegen ist. Dies ist schon hier erläutert worden. Der zweite Fehler ist der Schluß, wenn in einer Reihe von 8 Jahren das letzte Jahr eine niedrigere Temperatur als das erste Jahr zeigt, daß dann die Temperatur stagniert sei oder sogar gefallen. Da aber die Jahre um einen Trend herum variieren, kann man erst nach einer statistisch signifikanten Stichprobe von Jahren Aussagen zum Trend machen. Wir wissen, daß man dazu mehr als 8 Jahr braucht. Ab 15 Jahre kann man es versuchen, aber eigentlich sinnvoll wird es erst bei mindestens 20 Jahren und bei 30 Jahren ist der Trend sicher statistisch signifikant.
Der dritte Fehler steckt in der Darstellung einer Klimawette von Rahmstorf, die man sowohl im Kommentar als auch im Blog findet. Das wird erschöpfend bei Georg Hoffmann in seinem Primaklima-Blog erläutert, daher schreibe ich nichts weiter dazu. Hintergrund des ganzen ist die Temperaturprognose aus einem Modell des Forschungszentrums Geomar in Kiel, zu dem ich hier etwas geschrieben hatte.
Ein weiterer Fehler steckt aber darin, daß Müller-Jung die Natur der Modelle, die er vergleicht, verkennt. Dahinter steckt das grundsätzliche Unverständnis über den Unterschied zwischen Klima und Wetter. Klima ist die statistische Zusammenfassung der vielen möglichen Wetterereignisse. Man findet dies durch die Mittelung von Wetter über lange Zeiträume. Bei den Modellen findet man diesen Unterschied ebenfalls. Die Modelle, die für die IPCC-Projektionen verwendet werden, sind Klimamodelle. Sie sollen etwas dazu sagen, wie sich das Klima ändert in Abhängigkeit von gewählten Randbedingungen. Das sind Aussagen, die man auch für ein Jahrhundert sinnvoll treffen kann. Das Wetter ist eine einzelne Realisierung des statistischen Mittels, das vom Klima dargestellt wird. Wetter kann man vorhersagen, indem man einen möglichst genau ermittelten Anfangszustand weiterentwickelt, bis er irgendwann durch die chaotischen Anteile in unvorhersagbare Zustände hineinläuft. Das Modell des Geomar-Forschungszentrums in Kiel versucht im Gegensatz zu den IPCC-Modellen eine langfristige Wettervorhersage. Die Abweichungen zwischen dem IPCC und diesem Modell rühren also nur daher, daß das IPCC Mittelwerte für sehr verschiedene Einzelrealisierungen der verwendeten Modelle angibt. Man kann also nicht etwa behaupten, daß das Geomar-Modell besser wäre. Es hat sogar, wenn man sich die Originalpublikation anschaut, eine eher schwache Prognosegüte. Kein Wunder, daß Rahmstorf eine Wette gegen die Interpretation der Modellergebnisse durch Latif und seine Kollegen anbietet. Eine Wettervorhersage über 30 Jahre ist einfach noch verfrüht. Dies grundsätzliche Unterschied zwischen Klimaprojektion und Wettervorhersage ist dem Biologen Müller-Jung nicht klar, obwohl er bei Real Climate durchaus die Erläuterungen zu den unterschiedlichen Realisierung der einzelnen Klimamodelle gesehen hatte.
Wenn man tiefer schürft, kommt man auf das Grundproblem, die typische Arroganz des Journalisten, die durchaus Verwandtschaft hat mit der Arroganz des Richters und der Arroganz des Arztes – sie alle sind dabei Opfer ihres Berufes. Der Journalist hat den Beruf, eine Vielzahl von Informationen und Pressemitteilungen zu verwerten, um zusammengefaßte Information unterhaltsam an seine Leser zu vermitteln. Damit verdient er sein Geld. Dies geschieht normalerweise unter großem Zeitdruck, der dazu zwingt, sich genau zu überlegen, ob man eine Pressemitteilung so nimmt, wie sie kommt, oder die Zeit investiert, sich noch weitere Expertenmeinungen einzuholen und sich mehr Wissen dazu anzulesen.
So hat der Journalist zwar viele Informationen, aber nicht den Hintergrund, um diese zu interpretieren und richtig zu werten. Er hat die Illusion breiten Wissens, obwohl es zu oberflächlich ist, um angewendet werden zu können. Und diese Illusion läßt den Journalisten unter Umständen glauben, er sei mit den Experten auf Augenhöhe. Das führt dann dazu, daß der Journalist eben nicht mehr nur der Bote ist, der die Nachricht dem Leser bringt, sondern gleich auch diese Nachricht selbst interpretieren will. Und kein Gefühl dafür hat, wie wenig ihn dazu befähigt. Kein Wunder, daß Wissenschaftler, die schon ihre Erfahrung mit den Medien gemacht haben, Journalisten gerne vor Fehlinterpretationen bewahren möchten, und gleich versuchen, Sprachregelungen mitzuliefern. Leider fühlen sich Journalisten dadurch gegängelt, umso mehr, je erfahrener sie sind und je stärker sich die Illusion der Kompetenz aus der Vielzahl unverdauter und oberflächlicher Informationen entwickelt hat.
Und diesen Trotz gegen die gefühlte Gängelung und die entwickelte Arroganz, schon selbst die Informationen interpretieren zu können, merkt man Müller-Jung in dem ersten Satz seines Blogbeitrags deutlich an, wenn er schreibt:
„Mit der aktuellen Klimabilanz des Jahres 2008, (...) steigt offenbar wieder die Sorge bei den Klimatologen, die Journaille könnte das Ergebnis (wieder einmal) fehlinterpretieren.“ Genau diese Sorge hat er erfüllt.
Weil aber nun dieses Jahr vergleichsweise wenig warm ist (kühl ist das falsche Wort für ein Jahr, dessen Temperatur zu keiner Zeit vor 1997 übertroffen wurde, seit es Wetteraufzeichnungen gibt), gibt es naturgemäß denen Auftrieb, die von der wissenschaftlichen Arbeit zum Klima wenig halten und ihre Verschwörungstheorie von der angeblich erfundenen anthropogenen Klimaerwärmung pflegen. Einige inzwischen von diesen Verschwörungstheorien lang genug geplagte Wissenschaftler sehen dieses voraus, und geben den Journalisten eingedenk aller schlechten Erfahrungen Sprachregelungen auf den Weg. Das ist ein hoffnungsloses Unetrfangen und davon handelt dieser Beitrag.
Mein Beispiel ist dieser Kommentar in der FAZ vom Ressortleiter für den Wissenschaftsteil Joachim Müller-Jung, den er zu allem Unglück auch in seinem Blog weiter erläutert hatte, damit man jede Unschuldsvermutung verliert. Es gibt so einiges in dem Artikel, das einem den Magen umdrehen kann. Und das frappierende ist, daß der Artikel von korrekten Fakten ausgeht, daß der Autor, ein Biologe, durchaus sich auch Quellen angesehen hatte, deren Inhalte ihn von falschen Schlüssen hätten abhalten können, doch hatte es nichts genutzt. Vielleicht gab Müller-Jung die Tatsache, daß Gavin Schmidt einen alten Fehler gemacht hatte, das Jahrtausend mit dem Jahr 2000 anfangen zu lassen, ein falsches Gefühl der Sicherheit, auf Augenhöhe kritisieren zu können. Genau da aber stellt sich der Biologe, der selbst keine Erfahrung als Wissenschaftler hat, selbst ein Bein. Im wesentlichen sind es folgende Fehler, auf die der Autor aufläuft.
Da ist zunächst mal der Satz aus seinem Blog: „Allerdings muss sich der Potsdamer Klimadeuter auch den Hinweis gefallen lassen, dass die - bei aller Variation - erkennbare Stagnation in den vergangenen acht Jahren dem in langen statistischen Reihen vom IPCC ermittelten Erwärmungstrend von 0,2 Grad pro Jahrzehnt nicht mehr folgt.“ Hier stecken gleich zwei grundsätzliche Fehler drin. Zum einen haben die Modelle, die für den letzten IPCC-Bericht verwendet wurden, niemals einen aktuellen Erwärmungstrend von 0,2 Grad pro Jahrzehnt berechnet. Vielmehr sagen die Modelle abhängig von den verschiedenen Szenarien verschiedene Temperaturverläufe vorher, die am Ende des Jahrhunderts zu einer bestimmten Temperaturspanne führen. Auf dem Weg dahin machen die Modelle Temperaturschwankungen um den langfristigen Trend mit. Diese Schwankungen sind nur im statistischen Sinne korrekt. Man kann also am Ende des Jahrhunderts sagen, daß dann im Mittel die Temperatur um 0,15 bis 0,4 Grad je Jahrzehnt gestiegen ist. Dazwischen können aber einzelne Jahrzehnte liegen, in denen die Temepratur gar nicht oder viel schneller gestiegen ist. Dies ist schon hier erläutert worden. Der zweite Fehler ist der Schluß, wenn in einer Reihe von 8 Jahren das letzte Jahr eine niedrigere Temperatur als das erste Jahr zeigt, daß dann die Temperatur stagniert sei oder sogar gefallen. Da aber die Jahre um einen Trend herum variieren, kann man erst nach einer statistisch signifikanten Stichprobe von Jahren Aussagen zum Trend machen. Wir wissen, daß man dazu mehr als 8 Jahr braucht. Ab 15 Jahre kann man es versuchen, aber eigentlich sinnvoll wird es erst bei mindestens 20 Jahren und bei 30 Jahren ist der Trend sicher statistisch signifikant.
Der dritte Fehler steckt in der Darstellung einer Klimawette von Rahmstorf, die man sowohl im Kommentar als auch im Blog findet. Das wird erschöpfend bei Georg Hoffmann in seinem Primaklima-Blog erläutert, daher schreibe ich nichts weiter dazu. Hintergrund des ganzen ist die Temperaturprognose aus einem Modell des Forschungszentrums Geomar in Kiel, zu dem ich hier etwas geschrieben hatte.
Ein weiterer Fehler steckt aber darin, daß Müller-Jung die Natur der Modelle, die er vergleicht, verkennt. Dahinter steckt das grundsätzliche Unverständnis über den Unterschied zwischen Klima und Wetter. Klima ist die statistische Zusammenfassung der vielen möglichen Wetterereignisse. Man findet dies durch die Mittelung von Wetter über lange Zeiträume. Bei den Modellen findet man diesen Unterschied ebenfalls. Die Modelle, die für die IPCC-Projektionen verwendet werden, sind Klimamodelle. Sie sollen etwas dazu sagen, wie sich das Klima ändert in Abhängigkeit von gewählten Randbedingungen. Das sind Aussagen, die man auch für ein Jahrhundert sinnvoll treffen kann. Das Wetter ist eine einzelne Realisierung des statistischen Mittels, das vom Klima dargestellt wird. Wetter kann man vorhersagen, indem man einen möglichst genau ermittelten Anfangszustand weiterentwickelt, bis er irgendwann durch die chaotischen Anteile in unvorhersagbare Zustände hineinläuft. Das Modell des Geomar-Forschungszentrums in Kiel versucht im Gegensatz zu den IPCC-Modellen eine langfristige Wettervorhersage. Die Abweichungen zwischen dem IPCC und diesem Modell rühren also nur daher, daß das IPCC Mittelwerte für sehr verschiedene Einzelrealisierungen der verwendeten Modelle angibt. Man kann also nicht etwa behaupten, daß das Geomar-Modell besser wäre. Es hat sogar, wenn man sich die Originalpublikation anschaut, eine eher schwache Prognosegüte. Kein Wunder, daß Rahmstorf eine Wette gegen die Interpretation der Modellergebnisse durch Latif und seine Kollegen anbietet. Eine Wettervorhersage über 30 Jahre ist einfach noch verfrüht. Dies grundsätzliche Unterschied zwischen Klimaprojektion und Wettervorhersage ist dem Biologen Müller-Jung nicht klar, obwohl er bei Real Climate durchaus die Erläuterungen zu den unterschiedlichen Realisierung der einzelnen Klimamodelle gesehen hatte.
Wenn man tiefer schürft, kommt man auf das Grundproblem, die typische Arroganz des Journalisten, die durchaus Verwandtschaft hat mit der Arroganz des Richters und der Arroganz des Arztes – sie alle sind dabei Opfer ihres Berufes. Der Journalist hat den Beruf, eine Vielzahl von Informationen und Pressemitteilungen zu verwerten, um zusammengefaßte Information unterhaltsam an seine Leser zu vermitteln. Damit verdient er sein Geld. Dies geschieht normalerweise unter großem Zeitdruck, der dazu zwingt, sich genau zu überlegen, ob man eine Pressemitteilung so nimmt, wie sie kommt, oder die Zeit investiert, sich noch weitere Expertenmeinungen einzuholen und sich mehr Wissen dazu anzulesen.
So hat der Journalist zwar viele Informationen, aber nicht den Hintergrund, um diese zu interpretieren und richtig zu werten. Er hat die Illusion breiten Wissens, obwohl es zu oberflächlich ist, um angewendet werden zu können. Und diese Illusion läßt den Journalisten unter Umständen glauben, er sei mit den Experten auf Augenhöhe. Das führt dann dazu, daß der Journalist eben nicht mehr nur der Bote ist, der die Nachricht dem Leser bringt, sondern gleich auch diese Nachricht selbst interpretieren will. Und kein Gefühl dafür hat, wie wenig ihn dazu befähigt. Kein Wunder, daß Wissenschaftler, die schon ihre Erfahrung mit den Medien gemacht haben, Journalisten gerne vor Fehlinterpretationen bewahren möchten, und gleich versuchen, Sprachregelungen mitzuliefern. Leider fühlen sich Journalisten dadurch gegängelt, umso mehr, je erfahrener sie sind und je stärker sich die Illusion der Kompetenz aus der Vielzahl unverdauter und oberflächlicher Informationen entwickelt hat.
Und diesen Trotz gegen die gefühlte Gängelung und die entwickelte Arroganz, schon selbst die Informationen interpretieren zu können, merkt man Müller-Jung in dem ersten Satz seines Blogbeitrags deutlich an, wenn er schreibt:
„Mit der aktuellen Klimabilanz des Jahres 2008, (...) steigt offenbar wieder die Sorge bei den Klimatologen, die Journaille könnte das Ergebnis (wieder einmal) fehlinterpretieren.“ Genau diese Sorge hat er erfüllt.
Labels:
Klima und Wetter,
Presse
Dienstag, 16. Dezember 2008
Beschleunigt sich der Klimawandel?
In den Medien und Blogs gibt es stellenweise noch Diskussionen, ob denn nun ein Klimawandel läuft und ob dieser von Menschen verursacht wurde oder nicht. Es ist eine fruchtlose Diskussion, weil die wissenschaftliche Diskussion seit den 90er Jahren darüber hinweg ist. Man konnte vielleicht noch in den 80er Jahren einen Disput anfangen, ob die bis dahin aufgetretene Erwärmung den Bereich üblicher Schwankungen verlassen hat, ob man bereits eine menschliche Signatur sehen kann und ob man die Abläufe im wesentlichen verstanden hat. Die 90er Jahre waren das Jahrzehnt der Bestätigung der Feststellungen, die in den 70er Jahren vorbereitet wurden (z.B. durch Berichte an die US-Regierung und an der National Academy of Science in den USA 1979 und 1983) und in den 80er Jahren als ernstzunehmende Theorien verbreitet wurden. Gerade meldet das Hadley Centre für die WMO, daß nach vorläufigen Werten 2008 das zehntwärmste Jahr in ihrer Zeitreihe ist und das aktuelle Jahrzehnt im Mittel 0,2 Grad wärmer als das vorherige.
Worüber man disputieren kann, sind andere Fragen. Sind wir bereits über bestimmte Instabilitätspunkte hinweg (tipping points), an denen unumkehrbare Veränderungen geschehen? Offensichtlich ist bei der Meereisbedeckung in der Arktis so ein Punkt überschritten worden, bei dem es nun eine Verstärkung der Klimaerwärmung in polaren Breiten gibt, weil nun im Sommer Teile des arktischen Meeres eisfrei sind. Das jedenfalls erklären Wissenschaftler des National Snow and Ice Data Center (NSIDC) in den USA nach einer Meldung im "Independent". Es gibt weitere solche Instabilitätspunkte, wie etwa Instabilität der Eisschilde, Veränderungen von Klimazonen usw. Man kann auch diskutieren über das Ausmaß, in dem bisherige Modellprojektionen bestätigt wurden. Vergangene Modellerfolge sagen nur begrenzt etwas aus über die zukünftige Übereinstimmung von Projektionen und Ergebnissen, ein weiterer Diskussionspunkt. Oder man kann darüber reden, ob wir bereits aus den Daten ablesen können, daß sich der Klimawandel beschleunigt.
Das ist kein einfacher Punkt, denn man braucht eine gewisse Menge an Daten, um überhaupt einen klimatologischen Trend zu erkennen und viel, viel mehr Daten, um eine Serie von Trends zu haben, bei denen man dann nach einer Veränderung schauen kann, sozusagen einen Trend der Trends. Das einfachste ist das, was man im IPCC-FAQ sehen kann: es zeigt den Temperaturtrend über 150, 100, 50 und 25 Jahre und findet, wenig überraschend, daß diese Trends um so steiler sind, je näher der Startpunkt zur Gegenwart liegt. Das ist ein primitives Maß für eine Beschleunigung der Klimaänderung, aber unbefriedigend, denn wir mischen den Zeitraum, in dem menschliche Einflüsse überwiegen (geschätzt so ab Ende der 60er Jahre) mehr oder weniger mit Zeiträumen, von denen wir denken, daß sie von natürlicher Variabilität geprägt waren (aufgrund von Vulkanausbrüchen und Änderungen der Sonneneinstrahlung vor allem). Wenn man mehr oder weniger Zeitanteile ohne Trend zumischt, variiert natürlich der insgesamt bestimmte Trend, aber man erfährt nicht wirklich etwas darüber, ob der Trend jetzt sich verändert.
Geübte Statistiker (ich bin keiner) haben verschiedene Möglichkeiten, zu berechnen, ob ein vorliegender Trend im Rahmen des Fehlers wirklich linear ist oder ein anderes Modell (z.B. ein exponentieller Anstieg) besser passt. Ich könnte zwar eine entsprechende Anpassung an die Daten vornehmen, aber die Gefahr ist groß, daß ich dabei Fehler mache, denn ich müsste berücksichtigen, daß die Daten ein Gedächtnis haben (die Meerestemperaturen ändern sich träge), also autokorreliert sind, und die Fehler auf den Daten wären zu berücksichtigen. Man kann sich das Leben erleichtern, indem man von vornherein robuste Statistiken wählt, die weniger empfindlich für Fehler in den Daten sind, die dann aber auch nur grobe Aussagen erlauben.
Zunächst mal habe ich mir die Mittelwerte für Dekaden angeschaut, wobei die letzte Dekade noch nicht vollständig ist. Der Mittelwert der Temperaturanomalien für die 70er, 80er, 90er und 2000er Jahre (beginnend 1971-1980 usw.) aufgrund der HadCruT3-Jahresmittel der globalen Temperatur ist -0,06; 0,10; 0,23; 0,44. Daraus lässt sich nur ablesen, daß wir einen robusten Anstieg der Temperatur haben, wobei der Schritt von den 90er zu den 2000er Jahren der größte ist mit 0,21 Grad. (Wenn die Jahre 2008 und 2009 hinzukommen, kann sich das noch ändern- das relativ kalte Jahr 2008 könnte den letzten Mittelwert bis ca. 0,42 herunterziehen, womit der letzte Schritt immer noch bei 0,19 Grad über den anderen liegt. 2009 wird aber ohne einen La Nina-Einfluß wohl eher wieder wärmer werden.)
Da die Zeit, in der wir Temperaturänderungen vor allem durch den gesteigerten Treibhauseffekt annehmen, nur seit Ende der 60er Jahre reicht und vorher eine Dominanz natürlicher Einflüsse nicht ausschließen können, haben wir kaum mehr als 40 Jahre zur Verfügung. Wir brauchen aber mindestens 20, besser 30 Jahre, um sinnvoll eine lineare Regression zu rechnen und eine Steigung, also einen Trend zu bestimmen, der statistisch signifikant ist. Also müssen wir überlappende Zeiträume berechnen. Z.B. die Trends für 1969-1988; 1979-1998 und 1988-2007. Dabei erhalte ich als Steigungen 0,0125; 0,0141 und 0,0198. (Nehme ich 2008 hinzu und lasse die letzte Regression bei 1989 anfangen, komme ich bei mindestens 0,0180 an – ein Maß für den relativ großen Fehler in der Steigung, aber keine Änderung des Trends in den drei Werten.) Diese Trends sind statistisch signifikant. Und man erkennt, daß diese Steigungen selbst einen Trend haben – sie werden steiler. In dem betrachteten Zeitraum wuchsen die Temperaturänderungen je Jahrzehnt von 0,125 über 0,141 auf 0,198 Grad an. Extrapoliere ich auf 1999-2018, erwarte ich einen Wert bei oder über 0,2. Die Frage ist aber, ob ich extrapolieren darf. Die Steigerung des Trends ist offensichtlich nicht linear, und für die Zukunft bleiben daher alle Möglichkeiten offen – daß 1988-2007 ein Ausreißer nach oben war (nehme ich 2008 mit, erhalte ich ja eine flachere Steigung), daß der Trend nicht nur steigt, sondern beschleunigt steigt oder daß er sich auf einem höheren Niveau stabilisiert. Daher keine weiteren Spekulationen – robust ist nur die Feststellung, daß sich die globale Erwärmung, seit wir sie als einen signifikanten Trend wahrnehmen, beschleunigt hat, von 0,125 Grad je Dekade auf fast 0,2 Grad je Jahrzehnt (und über 0,18 Grad, wenn wir das relativ kühle Jahr 2008 berücksichtigen). Das allein ist bereits eine schlechte Nachricht.
Worüber man disputieren kann, sind andere Fragen. Sind wir bereits über bestimmte Instabilitätspunkte hinweg (tipping points), an denen unumkehrbare Veränderungen geschehen? Offensichtlich ist bei der Meereisbedeckung in der Arktis so ein Punkt überschritten worden, bei dem es nun eine Verstärkung der Klimaerwärmung in polaren Breiten gibt, weil nun im Sommer Teile des arktischen Meeres eisfrei sind. Das jedenfalls erklären Wissenschaftler des National Snow and Ice Data Center (NSIDC) in den USA nach einer Meldung im "Independent". Es gibt weitere solche Instabilitätspunkte, wie etwa Instabilität der Eisschilde, Veränderungen von Klimazonen usw. Man kann auch diskutieren über das Ausmaß, in dem bisherige Modellprojektionen bestätigt wurden. Vergangene Modellerfolge sagen nur begrenzt etwas aus über die zukünftige Übereinstimmung von Projektionen und Ergebnissen, ein weiterer Diskussionspunkt. Oder man kann darüber reden, ob wir bereits aus den Daten ablesen können, daß sich der Klimawandel beschleunigt.
Das ist kein einfacher Punkt, denn man braucht eine gewisse Menge an Daten, um überhaupt einen klimatologischen Trend zu erkennen und viel, viel mehr Daten, um eine Serie von Trends zu haben, bei denen man dann nach einer Veränderung schauen kann, sozusagen einen Trend der Trends. Das einfachste ist das, was man im IPCC-FAQ sehen kann: es zeigt den Temperaturtrend über 150, 100, 50 und 25 Jahre und findet, wenig überraschend, daß diese Trends um so steiler sind, je näher der Startpunkt zur Gegenwart liegt. Das ist ein primitives Maß für eine Beschleunigung der Klimaänderung, aber unbefriedigend, denn wir mischen den Zeitraum, in dem menschliche Einflüsse überwiegen (geschätzt so ab Ende der 60er Jahre) mehr oder weniger mit Zeiträumen, von denen wir denken, daß sie von natürlicher Variabilität geprägt waren (aufgrund von Vulkanausbrüchen und Änderungen der Sonneneinstrahlung vor allem). Wenn man mehr oder weniger Zeitanteile ohne Trend zumischt, variiert natürlich der insgesamt bestimmte Trend, aber man erfährt nicht wirklich etwas darüber, ob der Trend jetzt sich verändert.
Geübte Statistiker (ich bin keiner) haben verschiedene Möglichkeiten, zu berechnen, ob ein vorliegender Trend im Rahmen des Fehlers wirklich linear ist oder ein anderes Modell (z.B. ein exponentieller Anstieg) besser passt. Ich könnte zwar eine entsprechende Anpassung an die Daten vornehmen, aber die Gefahr ist groß, daß ich dabei Fehler mache, denn ich müsste berücksichtigen, daß die Daten ein Gedächtnis haben (die Meerestemperaturen ändern sich träge), also autokorreliert sind, und die Fehler auf den Daten wären zu berücksichtigen. Man kann sich das Leben erleichtern, indem man von vornherein robuste Statistiken wählt, die weniger empfindlich für Fehler in den Daten sind, die dann aber auch nur grobe Aussagen erlauben.
Zunächst mal habe ich mir die Mittelwerte für Dekaden angeschaut, wobei die letzte Dekade noch nicht vollständig ist. Der Mittelwert der Temperaturanomalien für die 70er, 80er, 90er und 2000er Jahre (beginnend 1971-1980 usw.) aufgrund der HadCruT3-Jahresmittel der globalen Temperatur ist -0,06; 0,10; 0,23; 0,44. Daraus lässt sich nur ablesen, daß wir einen robusten Anstieg der Temperatur haben, wobei der Schritt von den 90er zu den 2000er Jahren der größte ist mit 0,21 Grad. (Wenn die Jahre 2008 und 2009 hinzukommen, kann sich das noch ändern- das relativ kalte Jahr 2008 könnte den letzten Mittelwert bis ca. 0,42 herunterziehen, womit der letzte Schritt immer noch bei 0,19 Grad über den anderen liegt. 2009 wird aber ohne einen La Nina-Einfluß wohl eher wieder wärmer werden.)
Da die Zeit, in der wir Temperaturänderungen vor allem durch den gesteigerten Treibhauseffekt annehmen, nur seit Ende der 60er Jahre reicht und vorher eine Dominanz natürlicher Einflüsse nicht ausschließen können, haben wir kaum mehr als 40 Jahre zur Verfügung. Wir brauchen aber mindestens 20, besser 30 Jahre, um sinnvoll eine lineare Regression zu rechnen und eine Steigung, also einen Trend zu bestimmen, der statistisch signifikant ist. Also müssen wir überlappende Zeiträume berechnen. Z.B. die Trends für 1969-1988; 1979-1998 und 1988-2007. Dabei erhalte ich als Steigungen 0,0125; 0,0141 und 0,0198. (Nehme ich 2008 hinzu und lasse die letzte Regression bei 1989 anfangen, komme ich bei mindestens 0,0180 an – ein Maß für den relativ großen Fehler in der Steigung, aber keine Änderung des Trends in den drei Werten.) Diese Trends sind statistisch signifikant. Und man erkennt, daß diese Steigungen selbst einen Trend haben – sie werden steiler. In dem betrachteten Zeitraum wuchsen die Temperaturänderungen je Jahrzehnt von 0,125 über 0,141 auf 0,198 Grad an. Extrapoliere ich auf 1999-2018, erwarte ich einen Wert bei oder über 0,2. Die Frage ist aber, ob ich extrapolieren darf. Die Steigerung des Trends ist offensichtlich nicht linear, und für die Zukunft bleiben daher alle Möglichkeiten offen – daß 1988-2007 ein Ausreißer nach oben war (nehme ich 2008 mit, erhalte ich ja eine flachere Steigung), daß der Trend nicht nur steigt, sondern beschleunigt steigt oder daß er sich auf einem höheren Niveau stabilisiert. Daher keine weiteren Spekulationen – robust ist nur die Feststellung, daß sich die globale Erwärmung, seit wir sie als einen signifikanten Trend wahrnehmen, beschleunigt hat, von 0,125 Grad je Dekade auf fast 0,2 Grad je Jahrzehnt (und über 0,18 Grad, wenn wir das relativ kühle Jahr 2008 berücksichtigen). Das allein ist bereits eine schlechte Nachricht.
Labels:
Klimawandel,
Trend
Sonntag, 14. Dezember 2008
Extremwertstatistik, Klimawandel und Versicherungen
Der Deutsche Wetterdienst gibt für die meteorologische Fortbildung eine Zeitschrift heraus namens Promet (die aktuelle Nummer ist noch nicht on-line). Zu einem festen Thema schreiben hier Experten in den unregelmäßig erscheinenden Heften Übersichtsartikel. Die aktuelle Ausgabe Jahrgang 34, Nr. 1/2, 2008 beschäftigt sich mit dem Thema Meteorologie und Versicherungswirtschaft.
Gleich im Eingangsartikel geht es zur Sache, wenn G.Berz von der Münchener Rückersicherung Zahlen nennt. Danach waren von 17000 Naturkatastrophen von 1980 bis 2007 85% in irgendeiner Form meteorologisch bedingt. Das ist genau die Kategorie, die im Falle eines Klimawandels weitere Veränderungen zeigen sollte. Nun ist es sicher spekulativ, ob und in welcher Weise in der Zukunft mit mehr Sturmereignissen zu rechnen ist, weil dies von der Art, Stärke und Region der Stürme abhängt, und es hier eine offene Diskussion der Experten gibt. Unstrittig ist aber, daß die Lufttemperatur steigen wird und davon andere Faktoren betroffen sein werden, etwa das Wasserangebot und die Feuchte oder die Verbreitung wärmeliebender Krankheitserreger. Ein Beispiel war dabei der Jahrhundertsommer 2003, in dessen Folge Lehmböden in England austrockneten, was zu Bodensenkungen und dadurch zu Gebäudeschäden führte. Ein teurer Spaß für die Betroffenen und die Versicherer, und für mich eine überraschende Folge eines solchen Sommers. Von Berz nicht erwähnt, aber für mich eher bekannt ist, daß im aktuellen bayrischen Waldschadensbericht hervorgehoben wird, daß es immer noch kranke Bäume als Folge der Trockenheit im Jahrhundertsommer 2003 gibt.
Was aber nun als Jahrhundertsommer gilt, ist eine Frage der Statistik, und die ändert sich. Steigt die mittlere Temperatur, verschiebt sich auch die Verteilung der Temperaturen mit, die es in einem bestimmten Zeitraum geben kann. Und dabei sind die Veränderungen an den Rändern viel stärker als im Zentrum der Verteilung (das Thema der Extremwertstatistik hatte ich hier schon mit erwähnt). Steigt die Mitteltemperatur um harmlos klingende 1,6 Grad, so steigt die Wahrscheinlichkeit eines Sommers wie 2003 von 1,3% auf 33,3%, wie im Rahmen der Studie Climate Change Impacts 2004 für England bestimmt wurde. Auch wenn die Zahlen für Deutschland etwas andere sind, das Prinzip ist das gleiche. Aus einem Jahrhundertsommer wird ein Ereignis, das alle 3 Jahre auftritt. Und da nach Extremereignissen Lebewesen den Hitze- oder Trockenheitsstreß eine Weile im Gedächtnis behalten, kann eine kürzere Folge von Extremereignissen eine aufschaukelnde Wirkung haben. Ein „Jahrhundertsommer“ alle 3 Jahre ist zu kurz, damit sich hitzegeplagte Bäume wieder erholen können. Das Ende der Fichte ist daher zum Beispiel in den meisten Regionen Deutschlands vorgezeichnet.
Versicherungen bewerten nicht nur, daß mit dem Anstieg des Mittelwertes der obere Rand der Verteilung überproportional stark anwächst, sie bewerten auch, daß sich Verteilungen von Ereignissen in der Form ändern können. Wird die Verteilung breiter, gibt es in besonders starkem Maße auch mehr Extremereignisse, wie Dürren, Hitzewellen oder Überschwemmungen. Die Frage ist, werden Verteilungen für Wetterereignisse durch den Klimawandel breiter? Das ist nicht sicher, aber möglich. Das liegt daran, daß einerseits die Temperatur der Luft und an Land durch den Treibhauseffekt ein starken Erwärmungstrend zeigt. Diese Erwärmung muß in die Ozeane hineinwandern, was eine gewisse Zeit braucht. Damit steigt der Temperaturgradient, der Temperaturanstieg zwischen tiefen und flachen Meeresschichten. Dies kann dazu führen, daß die Temperaturvariabilität zwischen Phasen stärkeren und schwächeren Wärmetransports in die Meere größer wird. Und so die Verteilung der Temperaturen und der daran gekoppelten Wetterereignisse breiter wird.
Im gleichen Heft beschäftigt sich auch Prof. Schönwiese von der Uni Frankfurt mit dem Thema der Extremwertstatistik. Am Beispiel der Temperaturen in Frankfurt zeigt er, daß zumindest diese Verteilung nur ihren Mittelwert im Rahmen des Klimawandels bisher verschoben hat. Beim Niederschlag hingegen sieht es komplizierter aus. Starke Veränderungen konnten an der Station Eppenrod bei Limburg nur in bestimmten Monaten festgestellt werden. Dann aber vor allem hin zu einer breiteren Verteilung. Sowohl Tage mit geringen als mit sehr hohen Niederschlägen treten im Laufe der letzten 100 Jahre in den Wintermonaten immer stärker auf, während sich am Sommerniederschlag wenig geändert hatte. Das verdeutlicht, daß der Niederschlag eine Größe ist, bei der man sehr stark differenzieren muß, wenn man Aussagen zu den Folgen des Klimawandels machen will.
Die Extremwertstatistik ist ein Schlüssel, um zu verstehen, welche Folgen der Klimawandel mit sich bringt.
Gleich im Eingangsartikel geht es zur Sache, wenn G.Berz von der Münchener Rückersicherung Zahlen nennt. Danach waren von 17000 Naturkatastrophen von 1980 bis 2007 85% in irgendeiner Form meteorologisch bedingt. Das ist genau die Kategorie, die im Falle eines Klimawandels weitere Veränderungen zeigen sollte. Nun ist es sicher spekulativ, ob und in welcher Weise in der Zukunft mit mehr Sturmereignissen zu rechnen ist, weil dies von der Art, Stärke und Region der Stürme abhängt, und es hier eine offene Diskussion der Experten gibt. Unstrittig ist aber, daß die Lufttemperatur steigen wird und davon andere Faktoren betroffen sein werden, etwa das Wasserangebot und die Feuchte oder die Verbreitung wärmeliebender Krankheitserreger. Ein Beispiel war dabei der Jahrhundertsommer 2003, in dessen Folge Lehmböden in England austrockneten, was zu Bodensenkungen und dadurch zu Gebäudeschäden führte. Ein teurer Spaß für die Betroffenen und die Versicherer, und für mich eine überraschende Folge eines solchen Sommers. Von Berz nicht erwähnt, aber für mich eher bekannt ist, daß im aktuellen bayrischen Waldschadensbericht hervorgehoben wird, daß es immer noch kranke Bäume als Folge der Trockenheit im Jahrhundertsommer 2003 gibt.
Was aber nun als Jahrhundertsommer gilt, ist eine Frage der Statistik, und die ändert sich. Steigt die mittlere Temperatur, verschiebt sich auch die Verteilung der Temperaturen mit, die es in einem bestimmten Zeitraum geben kann. Und dabei sind die Veränderungen an den Rändern viel stärker als im Zentrum der Verteilung (das Thema der Extremwertstatistik hatte ich hier schon mit erwähnt). Steigt die Mitteltemperatur um harmlos klingende 1,6 Grad, so steigt die Wahrscheinlichkeit eines Sommers wie 2003 von 1,3% auf 33,3%, wie im Rahmen der Studie Climate Change Impacts 2004 für England bestimmt wurde. Auch wenn die Zahlen für Deutschland etwas andere sind, das Prinzip ist das gleiche. Aus einem Jahrhundertsommer wird ein Ereignis, das alle 3 Jahre auftritt. Und da nach Extremereignissen Lebewesen den Hitze- oder Trockenheitsstreß eine Weile im Gedächtnis behalten, kann eine kürzere Folge von Extremereignissen eine aufschaukelnde Wirkung haben. Ein „Jahrhundertsommer“ alle 3 Jahre ist zu kurz, damit sich hitzegeplagte Bäume wieder erholen können. Das Ende der Fichte ist daher zum Beispiel in den meisten Regionen Deutschlands vorgezeichnet.
Versicherungen bewerten nicht nur, daß mit dem Anstieg des Mittelwertes der obere Rand der Verteilung überproportional stark anwächst, sie bewerten auch, daß sich Verteilungen von Ereignissen in der Form ändern können. Wird die Verteilung breiter, gibt es in besonders starkem Maße auch mehr Extremereignisse, wie Dürren, Hitzewellen oder Überschwemmungen. Die Frage ist, werden Verteilungen für Wetterereignisse durch den Klimawandel breiter? Das ist nicht sicher, aber möglich. Das liegt daran, daß einerseits die Temperatur der Luft und an Land durch den Treibhauseffekt ein starken Erwärmungstrend zeigt. Diese Erwärmung muß in die Ozeane hineinwandern, was eine gewisse Zeit braucht. Damit steigt der Temperaturgradient, der Temperaturanstieg zwischen tiefen und flachen Meeresschichten. Dies kann dazu führen, daß die Temperaturvariabilität zwischen Phasen stärkeren und schwächeren Wärmetransports in die Meere größer wird. Und so die Verteilung der Temperaturen und der daran gekoppelten Wetterereignisse breiter wird.
Im gleichen Heft beschäftigt sich auch Prof. Schönwiese von der Uni Frankfurt mit dem Thema der Extremwertstatistik. Am Beispiel der Temperaturen in Frankfurt zeigt er, daß zumindest diese Verteilung nur ihren Mittelwert im Rahmen des Klimawandels bisher verschoben hat. Beim Niederschlag hingegen sieht es komplizierter aus. Starke Veränderungen konnten an der Station Eppenrod bei Limburg nur in bestimmten Monaten festgestellt werden. Dann aber vor allem hin zu einer breiteren Verteilung. Sowohl Tage mit geringen als mit sehr hohen Niederschlägen treten im Laufe der letzten 100 Jahre in den Wintermonaten immer stärker auf, während sich am Sommerniederschlag wenig geändert hatte. Das verdeutlicht, daß der Niederschlag eine Größe ist, bei der man sehr stark differenzieren muß, wenn man Aussagen zu den Folgen des Klimawandels machen will.
Die Extremwertstatistik ist ein Schlüssel, um zu verstehen, welche Folgen der Klimawandel mit sich bringt.
Labels:
Klimafolgen,
Statistik
Abonnieren
Posts (Atom)