Nachdem ich schon vor 2 Wochen angefangen habe, was zum Thema zu schreiben, möchte ich es doch auch endlich on-line stellen, auch wenn der Artikel eigentlich noch nicht fertig ist. Zur Sicherheit von Kernreaktoren oder den Einzelheiten der Geschehnisse in Japan kann ich mangels Fachkenntnisse naturgemäß nichts beitragen. Nachdem ich mich mit vielen Stellen im Netz beschäftigt hab, kann ich folgenden Link empfehlen (Physikblog). Aktuelle Informationen zu Strahlungswerten in Deutschland erhält man hier, wobei ich gleich dazu schreiben muss, dass das irrelevant ist. Es gibt kein denkbares Szenario, bei dem eine radioaktive Wolke im Ausmaß des Unfalls in Tschernobyl Europa erreichen könnte. Die Spurenaktivitäten, die man messen wird, sind eher von akademischem Interesse. Das Reaktorunglück weist aber mehrere Überschneidungen mit dem Thema Klimawandel auf. Stichworte sind die Auswirkungen auf die CO2-Bilanz, die Frage nach dem „fetten Schwanz“ und die Frage nach dem „schwarzen Schwan“.
Für Japan ist der Unfall tragisch. Vor allem ist aber das Erdbeben ein furchtbares Ereignis mit voraussichtlich über 25.000 bis zu 28.000 Toten. Da viele Verstorbene ins Meer hinausgezogen wurden, wird es noch einige Zeit dauern, bis Klarheit über das Schicksal der vielen Vermissten besteht. Nach dem gegenwärtigen Kenntnisstand, der sich natürlich ändern kann, sind nach wie vor das Erdbeben und der nachfolgende Tsunami die eigentliche Katastrophe für Japan. Gesundheitliche Folgen müssen die Arbeiter und Hilfskräfte vor Ort erwarten, die versuchen, die Lage unter Kontrolle zu bringen. Das Erdbeben war mit der Stärke 9,0 möglicherweise so stark oder noch stärker als ein Erdbeben in der Region vor über 1200 Jahren. Es handelt sich also um ein Jahrtausendereignis. In der Konzeption des Kernkraftwerks Fukushima I wurde ein Erdbeben dieser Stärke und (insbesondere) ein Tsunami von 14 (nach anderen Angaben 10) Metern Höhe nicht berücksichtigt. Zwar gibt es außerdem Hinweise darauf, dass bei den Kontrollen der Sicherheitseinrichtungen geschlampt wurde und der Betreiberkonzern TEPCO unangemessenen Einfluss auf politische Entscheidungen nehmen konnte, aber nach dem gegenwärtigen Kenntnisstand war der Tsunami, der die Notstromaggregate wegspülte oder beschädigte, der eigentliche Grund dafür, dass die Situation außer Kontrolle geriet. Ein Ingenieur, der bei der Planung des Kraftwerks 1967 beteiligt war, soll Medien gegenüber geäußert haben, daß die Möglichkeit eines Tsunamis damals für die Auslegung des Kernkraftwerks keine Rolle spielte. Der Schluß wäre: ein überaltertes Kraftwerk, ursprünglich mit Planungsfehlern, schlampig überwacht, trifft auf ein Jahrtausendereignis, mit dem man bei der Auslegung nicht rechnen wollte.
Die Frage ist, ist das ein „schwarzer Schwan“ (ein Begriff, den der Philosoph Karl Popper für ein Ereignis geprägt hat, mit dem bei der Erstellung einer Theorie niemand rechnete, wie die Existenz schwarzer Schwäne in Australien, wenn jemand die Theorie aus Beobachtungen in Europa aufstellt, alle Schwäne seien weiß - der Ausdruck wurde noch mal populärer nach dem Buch "Black Swan" on Nicholas Taleb, allerdings wird das Buch als oberflächlich kritisiert)? Ist das Reaktorunglück ein Ereignis, mit dem man nicht rechnen konnte? In einem Blog wird genau diese Frage besprochen und mit „Nein“ beantwortet. Das Erdbeben und der Tsunami sind für die Region nicht wirklich ohne Präzedenz. Zwar gab es eine sehr unglückliche Abfolge von Zufällen, die insgesamt wahrscheinlich extrem unwahrscheinlich waren, aber mit jedem dieser Zufälle hätte gerechnet werden können. Das Problem ist eher das, was mit einem „fat tail“, einem „fetten Schwanz“ einer Risikoverteilung bezeichnet wird. Das Risiko ist das Produkt von Schadenshöhe und Wahrscheinlichkeit des Schadens. Das Risiko von Schäden durch Kernkraftwerke leidet ganz dramatisch unter dem Einfluß des „fetten Schwanzes“. Während die wahrscheinlichen und auch weniger wahrscheinliche Störfälle letztlich zu beherrschbaren Fällen führen, bis hin zu einer teilweisen Kernschmelze, bei der jedoch der Schutzbehälter intakt bleibt, gehen bei extrem unwahrscheinlichen Verkettungen unglücklicher Zufälle die möglichen Schäden so steil in die Höhe, daß das Risiko am Ende der unwahrscheinlichen Fälle mit hohen Schäden nicht vernachlässigbar wird.
Tatsächlich steht hinter dem "fetten Schwanz" auch die Diskussion um die Art der Verteilung für die Häufigkeit eines Schadensereignisses. Diese Verteilungen können eher gutartig oder eher bösartig sein in dem Sinne, daß die Verteilungen zu den Rändern hin rasch abfallen oder sich weit an den Rändern ausdehnen. Gutartig wäre zum Beispiel eine Normalverteilung. Ereignisse, die um mehr als zwei Standardabweichungen vom Mittelwert in einer Richtung abweichen, haben eine Wahrscheinlichkeit unter 2,3 Prozent, bei 3 Standardabweichungen von gut 0,15 Prozent, bei 4 Standardabweichungen liegen wir bei Bruchteilen einer Promille. Beschreibt die Verteilung Ereignisse, die entsprechend oft pro Jahr vorkommen können, wären wir bei 4 Standardabweichungen bei Ereignissen, die seltener als einmal pro Jahrtausend vorkommen. Wäre nun die Toleranz des betrachteten Systems, noch Abweichungen vom Mittelwert von 4 Standardabweichungen auszuhalten, würde man das System als stabil betrachten, denn es wäre davon auszugehen, daß ein Fehler des System auch über ein Jahrtausend hinweg unwahrscheinlich wäre. Die Verteilung könnte aber auch bösartig sein und zu den Rändern hin nicht exponentiell, wie eine Normalverteilung, sondern schwächer abfallen. Dann könnten Ereignisse, die in der Normalverteilung eine Wahrscheinlichkeit von unter einer Promille haben, hier wesentlich häufiger vorkommen, zum Beispiel eher bei einigen Promille oder einem Prozent liegen.Dahinter steckt eine statistische Größe, die Wölbung oder Kurtosis der Verteilung. Kurtosis 0 hat zum Beispiel die Normalverteilung, negative Werte beschreiben eine Verteilung, die sich stärker zu den Rändern hin ausdehnt.
Es ist also sowohl ein Problem, wenn die Schadenswahrscheinlichkeit eine starke Ausdehnung zu den Rändern hin aufweist und daher auch starke Schadensereigtnisse nicht vernachläßigt werden können, es ist aber auch ein Problem, wenn das Produkt mit der Schadenshöhe zu einer Verteilung mit starken Ausläufern zu den Rändern, zu einer Verteilung mit einem "fetten Schwanz" führt.
Genau um diesen „fetten Schwanz“ geht wohl der Atomstreit. Die Gegner der Atomkraft argumentieren mit der Existenz des „fetten Schwanzes“, die Befürworter der Atomkraft würden ihn gerne bestreiten. Wirklich berechnet werden kann er nicht. Das schreibe ich mit Vorbehalt, denn es gibt durchaus Möglichkeiten der Extremwertstatistik, Rechnungen zu extrem seltenen Ereignissen durchzuführen. Die Rechnungen sind aber nicht validierbar, denn zwei Ereignisse in gut 50 Jahren, in denen man ernsthaft die Kernenergie zur Stromversorgung nutzt, würden gut zu einem Reaktorunfall mit starkem Austritt von radioaktivem Material in 5000 Betriebsjahren passen, aber natürlich ist das statistisch nicht zu unterscheiden von einer Wahrscheinlichkeit von einmal in 2000 Jahren oder einmal in 20.000 Jahren. Noch gravierender ist aber, daß die beiden schwersten Unfälle beim Betrieb ziviler Kernkraftwerke in gewisser Hinsicht wenig überraschend waren. Der Unfall von Tschernobyl betraf einen bekannt unsicheren Kernkraftwerkstyp. Die Moderierung mit Graphit hat zwei Nachteile. Zum einen müßte man, um die Kernreaktion zunächst zu stoppen, das Graphit als Moderator aktiv entfernen. Wenn durch einen Schaden das nicht geht, wird also gerade bei einem Unfall die Kettenreaktion am Laufen gehalten. Außerdem liefert ein Graphitbrand zusätzlich gewaltige Energie, um einen Reaktor durchgehen zu lassen. Von Kernkraftwerken des sowjetischen Typs kann man nicht wirklich etwas über Risiken anderer Kraftwerkstypen ableiten. Im Fall von Fukushima ist genau das Kraftwerk durchgegangen, das besonders alt war und ohnehin als gefährdet gelten mußte, und es ist bei einem Jahrtausendereignis geschehen mit genau der Komplikation, die man bei der Reaktorauslegung sträflich vernachläßigt hatte. Auch hier kann man zwar sagen, daß Kernkraftwerke, die veraltet sind und in Risikozonen stehen, prioritär abgeschaltet werden sollten, aber für Kernkraftwerke eines neueren Typs kann man daraus wenig ableiten. Kernkraftwerke sind statistisch ein Gemisch aus Elementen mit um Größenordnungen unterschiedlichem Eintrittswahrscheinlichkeiten für den Fall eines Austritts radioaktivem Material. Gerade weil Tschernobyl und Fukushima keine „schwarzen Schwäne“ waren, sind sie so schlechte Argumente gegen den Betrieb von Kernkraftwerken der dritten Generation, wie sie inzwischen ans Netz gehen oder in letzter Zeit gebaut wurden. Wir haben nichts gelernt, sondern erhielten nur bestätigt, daß unsichere Kernkraftwerkstypen bei schlampiger Überwachung und/oder einem extremen äußeren Ereignis nicht mehr sicher sind. Aber wie „fett“ ist die Risikoverteilung bei neuen Kernkraftwerken?
Interessanterweise ist das eine ähnliche Frage, die sich beim Klimawandel stellt. Es gibt zwar einen Konsens, daß die Verdopplung des Mischungsverhältnisses von CO2 in der Atmosphäre zu einer Temperaturerhöhung von 2 bis 4,5 Grad führt. Aber die Wahrscheinlichkeit für eine höhere Sensitivität ist nicht gleich Null. Da es aber bei den gegenwärtigen Emissionsszenarien recht sicher ist, daß der Strahlungsantrieb der Treibhausgase bis zur Jahrhundertwende einer Vervielfachung des CO2-Gehalts entsprechen wird, sind damit Szenarien mit globalen Temperatursteigerungen über 10 Grad zwar nicht sehr wahrscheinlich, aber auch nicht ausgeschlossen. Bei solchen Temperatursteigerungen werden Klimafolgen plausibel, bei denen größere Weltregionen unbewohnbar werden, bei denen Klimazonen sich massiv verschieben und die Nahrungsmittelversorgung für Teile der Weltbevölkerung zusammenbrechen. Das sind Szenarien, in denen die Zahl der Klimaopfer nicht mehr in Millionen gerechnet wird, sondern in mehreren 100 Millionen oder gar Milliarden.
Relevant dazu sind zum Beispiel Arbeiten von Martin Weitzmann, der sich mit den ökonomischen Folgen des Klimawandels beschäftigt hat und dabei den "fetten Schwanz" der Verteilung im Blick hat. Bei Auswertung der Ergebnisse von Klimamodellen zu den Klimasensitivitäten fällt auf, daß hohe Klimasenisitivitäten, also ein starker Anstieg der globalen Temperatur schwächer als exponential abfallen - die Verteilung ist also in dem Sinne "fett", nicht nur in dem Sinne, wie ich es oben beschrieben hatte, wenn man die Schadenshöhe bei Extremereignissen dazu nimmt. Was aber in letzterem Sinne auch nach Weitzmann hinzukommt, ist die Möglichkeit, daß zusätzliche Rückkopplungen bei einer stärkeren globalen Temperaturerhöhung einsetzen können, wie etwa eine erhebliche Freisetzung von Methan aus Permafrostböden oder aus Methanhydraten in Flachwassergebieten in gemäßigten und polaren Breiten.
Beim Klimawandel machen uns also nicht so sehr der zentrale Teil der Verteilung der möglichen Temperatursteigerung und der möglichen Schäden sorgen, sondern der „fette Schwanz“, der obere Rand der Verteilung, der sich umso stärker ausdehnt, je größer wird die Unsicherheit bei den Klimaprognosen ansetzen. Wenn Judith Curry also behauptet, die Klimasensitivität müsse man irgendwo zwischen 0 und 10 Grad je Verdopplung des CO2-Äquivalents ansetzen, füttert sie besonders extrem den „fetten Schwanz“.
Vergleicht man die Risiken des Klimawandels und der Kernenergie, ist die Größenordnung der Risiken durch einen Klimawandel bei den extremen Ausreißern der Verteilung geradezu atemberaubend und durchaus weniger spekulativ als extreme Auswirkungen von Reaktorunfällen. Doch um daraus Handlungen abzuleiten, müßte man die möglichen Schadensverläufe noch besser vergleichen und dabei zugleich die weiteren Alternativen gewichten. Immerhin kann man ja auf die Möglichkeit von Reaktorunfällen verschieden reagieren - man könnte Atomkraftwerke durch Kohle- und Gaskraftwerke ersetzen, man könnte Energie sparen und regenerative Energien ausbauen und man könnte Atomkraftwerke sicherer machen. Insbesondere könnte man eine Mischung aus all diesen Alternativen erwägen.
Sonntag, 3. April 2011
Abonnieren
Kommentare zum Post (Atom)
2 Kommentare:
Sehr geehrter Herr Zimmermann,
m.E. verkürzen Sie die AKW-Problematik nur auf die Betrachtung von Unfallwahrscheinlichkeiten und
-auswirkungen im regulären Betrieb. Aber auch sonst gibt es problematische Fragen, die Proliferation von radioaktivem oder spaltbarem Material betreffend oder die Notwedigkeit einer sicheren Endlagerung von Abfall über sehr lange Zeit.
MfG
Die Probleme der Nutzung der Kernspaltung zur Stromerzeugung füllen Bücher. Mein Blog kann es nicht leisten, hier vollständige Abhandlungen zu liefern. Obwohl Proliferation und Endlagerung wichtige Fragestellungen sind, blende ich sie aus. Ich vermute außerdem, daß Proliferation eher ein politisches Problem ist. Beispiele einer Weiterverbreitung spaltfähigen Materials sind wohl Iran, Pakistan, Nordkorea. Das Problem liegt hier in Russland, China, Nordkorea, Pakistan und wird von Europa nicht wirklich beeinflusst. Das ist nur meine inkompetente Meinung dazu.
Die Endlagerung ist ein sehr komplexes Thema. Aber ich denke auch, daß wir hier bereits vor vollendeten Tatsachen stehen. Wo geeignete geologische Formationen für eine Endlagerung sind, kann ich nicht entscheiden. Aber es ist auch nicht nötig, diese Frage in den nächsten Jahrzehnten zu lösen – Zwischenlagern kann man recht lange, wenn es erforderlich ist. Zudem gäbe es auch Möglichkeiten, durch Aufarbeitung und „brüten“ (wobei das Thema „Proliferation“ wieder aufkäme), gar nicht so lange strahlende Abfälle entstehen zu lassen. Das sind wohl auch eher politische Fragen, die ich nicht beantworten kann. Mein vereinfachender Ansatz ist, mich auf den Betrieb von Kernkraftwerken zu konzentrieren.
Kommentar veröffentlichen