Beiträge

Im Rahmen des internationalen Projektes „PAGES 2k“ (https://pastglobalchanges.org/science/wg/2k-network/intro/) haben 78 Wissenschaftler aus 24 Ländern sieben Jahre lang eine neue Rekonstruktion des Klimas der Erde erarbeitet. Mit 2k sind in diesem Fall die letzten 2000 Jahre gemeint.

Weiterlesen

Fakt ist, dass uns und den ganzen Planeten unsere Ernährungsweise nachhaltig krank macht. Daher fordern immer mehr Menschen eine ganz generelle Ernährungswende. Susanne Rolinski und Benjamin Bodirsky sind am Potsdam Institut für Klimafolgenforschung tätig und wissen, wie eine nachhaltige Ernährungsweise aussehen müsste. Was dabei vielleicht etwas erstaunen mag, ist ihre These, dass ein totaler Verzicht auf Fleischkonsum gar nicht unbedingt erstrebenswert ist.

Ungefähr ein Drittel der globalen Treibhausgasemissionen geht Schätzungen zufolge auf das Konto des Ernährungssystems. Zehn bis 15 Prozent davon verursacht die Landwirtschaft, zum Beispiel der Reisanbau oder die Viehzucht. Weitere zehn Prozent ergeben sich durch Rodungen und die Trockenlegungen von Mooren zur Erzeugung weiterer Ackerflächen. Ebenfalls zehn Prozent tragen der Transport, die Kühlung, die Zubereitung und die Entsorgung von Lebensmitteln bei. Die Produktion von Düngemitteln ist darüber hinaus auch mit circa zehn Prozent beteiligt. Was dabei aber besonders zu Buche schlägt, ist das Verhalten der Konsumenten.

Jeder von uns entscheidet jeden Tag darüber, was und wie viel er kauft, aber auch darüber, wo beziehungsweise bei wem er das macht. Dabei hat der Staat durchaus Hebel in der Hand, das Ganze zu steuern, zum Beispiel mit der Mehrwertsteuer. Damit lassen sich Anreize schaffen, vermehrt pflanzliche Nahrungsmittel zu konsumieren, was ein Zurückdrängen des viel zu hohen Fleischkonsums mit seinem riesigen ökologischen Fußabdruck bedeuten würde.

Aus den Perspektiven der Ernährung und der Landnutzung ist es allerdings nicht einmal erstrebenswert, dass die Menschen ganz und gar auf Fleisch verzichten. Gerade in Ökobetrieben kommt den Tieren eine wichtige Rolle zu. Beispielsweise liefern sie organischen, natürlichen Dünger für die Felder. In Deutschland wäre schon viel erreicht, wenn wir die Empfehlungen der Deutschen Gesellschaft für Ernährungsforschung umsetzen würden und im Durchschnitt pro Kopf höchstens 30 kg Fleisch pro Jahr verbrauchen würden. Zurzeit kommen wir auf in etwa den doppelten Betrag.

Weltweit betrachtet können natürlich nicht alle Menschen ihren Fleischkonsum reduzieren, denn dies würde unmittelbar eine bedrohliche Unterernährung zur Folge haben.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter dazu an:

Wie könnte eine nachhaltige Ernährung aussehen?

Genau mit dieser Frage beschäftigen sich verschiedene Institutionen und Kommissionen. Eine besonders umfassende Studie wurde von der EAT Lancet Kommission veröffentlicht. Darin wurde Wert darauf gelegt, gesunde Ernährung mit minimaler Umweltbelastung in Einklang zu bringen. Fleisch wurde dabei mitnichten ausgeklammert, aber andere proteinhaltige Lebensmittel wie Hülsenfrüchte und Nüsse bekamen darin einen viel höheren Stellenwert. Die Kernbotschaft ist, dass wir unseren Proteinbedarf stets aus verschiedenen Quellen decken sollen. Nachhaltige Ernährung bedeutet immer Diversität.

Welche Rolle kommt Fleischersatzprodukte dabei zu?

Tatsächlich haben Fleischersatzprodukte trotz industrieller Produktion einen deutlich günstigeren „Umweltfußabdruck“ als ihre tierischen Pendants. Beim Fleisch fällt oft der Begriff „Veredelung“, womit aber das Problem angesprochen wird, dass sehr viele pflanzliche Kalorien erforderlich sind, um daraus eine einzige Kalorie aus Fleisch zu generieren.

So wird zum Beispiel ein großer Teil des Soja-Anbaus in der Tierhaltung verfüttert. Würden diese Sojaprodukte direkt als Nahrungsmittel angeboten werden, so könnten viel mehr Menschen satt gemacht werden als mit dem Fleisch, das auf der gleichen Sojamenge basiert. Auch die damit verbundene Umweltbilanz würde deutlich günstiger ausfallen. Im Übrigen wird den Fleischersatzprodukten auch gesundheitlich eine zumindest leicht bessere Bewertung zugeordnet.

Unsere Proteinversorgung ist kein Problem

Mit Blick auf unsere Proteinversorgung stellt Hühnereiweiß sozusagen den Goldstandard dar, weil es exakt jene essenziellen Aminosäuren enthält, die unser Körper dringend braucht. Wir sollten uns aber darüber im Klaren sein, dass eine geeignete Kombination aus verschiedenen pflanzlichen Produkten eine ebenso gute Proteinquelle sein kann. Im Fokus stehen hierbei durchaus heimische Proteinquellen wie Hülsenfrüchte und Nüsse. Wer Bananen und Reis zusammen verzehrt, zieht einen Vorteil daraus, dass sich die Proteine beider Nahrungsmittel sehr gut ergänzen.

In Deutschland haben wir weniger ein Problem mit Proteinquellen als mit einer ausreichenden Versorgung des Organismus mit Ballaststoffen. Auch dies ließe sich mit mehr pflanzlichen Nahrungsmitteln hervorragend bewältigen.

Mikroorganismen als Proteinproduzenten

Inzwischen wird an und mit Technologien gearbeitet, die für die Herstellung von Proteinen keine Landflächen mehr benötigen. In diesem Rahmen werden in großen Tanks spezielle Mikroorganismen gezüchtet. Dabei handelt es sich um Bakterien, Pilze oder Algen. Hierbei lässt sich die Zusammensetzung der Proteine recht genau steuern und Antibiotika braucht man dafür nicht. Auf diese Weise könnte eines Tages auf Soja als Tierfutter verzichtet werden.

Erste Produkte dieses Genres gibt es schon, was bereits viele Start-ups auf den Plan gerufen hat. Eine gewisse Kehrseite der Medaille liegt in dem damit verbundenen starken Gewicht bei der industriellen Nahrungsmittelproduktion ohne Landwirtschaft. Hierin liegt nämlich ein großes disruptives Potenzial für unser Ernährungssystem, das wir im Auge behalten müssen.

Zur Lösung unserer Probleme sind massive Veränderungen sowohl auf der Produktions- als auch auf der Nachfrageseite erforderlich. Zum ersten Punkt gehört, dass wir wieder ein ganz großes Augenmerk auf die Moorböden legen. Deren Trockenlegung war und ist eine starke Quelle für Treibhausgasemissionen. In der Landwirtschaft müssen wir endlich weg von dem immensen Stickstoffüberschuss durch Überdüngung.

Auf der Seite der Konsumenten muss dafür gesorgt werden, dass diese sich endlich gesünder ernähren (können). Das fängt bei der Preisgestaltung (Stichwort Mehrwertsteuer) an und zieht sich weiter über die Kantinen, die noch immer nicht genügend preiswerte vegetarische Optionen im Angebot haben. Und dann ist da noch das ganz große Thema Krankenhaus- und Seniorenheimverpflegung.

Ist Vegetarismus nur in Deutschland auf dem Vormarsch oder sogar weltweit?

Die Menge an Fleisch, die konsumiert wird, ist immer auch ein Maß für den Wohlstand. Da Letzterer weltweit steigt, so ist jedenfalls die Bestrebung, wird rein statistisch leider auch der Fleischkonsum zunehmen. In den Ländern, wo viele Menschen mit sehr hohen Einkommen leben, ist diesbezüglich allerdings eine Sättigung in der ansteigenden Kurve des Fleischkonsums zu beobachten. In Deutschland zum Beispiel wurde inzwischen mit rund 60 kg Fleisch pro Kopf und Jahr ein Plateau auf hohem Niveau erreicht.

Doch in jenen Staaten, die sich gerade entwickeln, ist der Trend für das Fleisch ungebrochen. Was also nottut, ist eine ganz massive Änderung beim Image von Fleisch. Bedenken Sie, dass die meisten Vegetarier weltweit in Indien leben (Gesamtbevölkerung ca. 1,5 Milliarden Menschen), aber gerade dort zeigt der gegenwärtige Trend ganz stark in Richtung tierische Produkte.

Das Problem mit dem Stickstoff

Die EU hat gegen Deutschland wegen der zu hohen Stickstoffeinträge ein Vertragsverletzungsverfahren eingeleitet. Sie sah darin die Gefahr der Belastung der Gewässer und der Gefährdung der Biodiversität. Hinzu kommt noch die damit verbundene Luftverschmutzung, weil Ammoniak ein wesentlicher Baustein für Feinstaub ist.

Man schätzt, dass durch die Stickstoffemissionen der Landwirtschaft in Deutschland jedes Jahr circa 15.000 Menschen vorzeitig sterben. Eine Handlungsoption dagegen wäre eine empfindliche Besteuerung der Stickstoffüberschüsse. Dazu sollte man wissen, dass all jene Landwirte, die sich darum bemühen, nachhaltig mit Stickstoff umzugehen, zurzeit einen klaren Wettbewerbsnachteil erleiden.

Im niederdeutschen „Schweinegürtel“ ergab sich das massive Gülleproblem durch jahrelange Subventionen für mehr Effizienz. In der Folge haben die Ställe der Mastbetriebe immer größere Dimensionen angenommen. Der Kapitalismus mit seiner Abhängigkeit von ständigem Wachstum wurde den landwirtschaftlichen Betrieben übergestülpt. Wir müssen endlich verstehen, dass für unsere Landwirtschaft allein ökonomische Maßstäbe falsch sind.

In den Niederlanden ist die verfehlte Politik inzwischen deutlich zum Ausdruck gekommen. Doch als dort 2022 Maßnahmen beschlossen worden sind, um den Stickstoffüberschuss zu senken, hat dies geradezu tumultartige Aufstände ausgelöst. Sogar direkt vor dem Wohnsitz der zuständigen Ministerin wurde protestiert. In der Konsequenz wird niederländische Gülle nun nach Deutschland exportiert, was das Fass hierzulande zum Überlaufen bringt. Damit dies auch möglichst schnell und effizient passiert, schippern deutsche Frachtkähne täglich den schönen Rhein hinunter und versorgen die Niederlande üppig mit Stickstoff. Geht doch!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter mit den „5 Wundermitteln“ an:

Kleine Anmerkung: Die Sache mit den „5 Wundermitteln“ ist mit Abstand der beliebteste Newsletter, den meine Patienten gerne lesen…
Dieser Beitrag wurde am 20.07.2023 erstellt.

Um diese Frage zu beantworten müssen wir uns mal den Wind anschauen.

Wind ist eine Folge des Ausgleichs zwischen Hoch- und Tiefdruckgebieten, wobei die Corioliskraft eine ganz entscheidende Rolle spielt. Der Klimawandel verändert nun die gewohnten großen saisonalen Windsysteme auf dem gesamten Planeten. Im Schlepptau dessen werden Extremwetter wie Dürren oder Starkregen auch in Regionen wie Mitteleuropa immer wahrscheinlicher, die bislang eher davon verschont waren. In der Arktis steigen die Temperaturen deutlich schneller als in allen anderen Klimazonen und deshalb sind gerade dort die Antworten auf viele Fragen zu finden.

Atlantische Hurrikans entwickeln sich schon seit eh und je zunächst in tropischen Zonen nahe dem Äquator und bewegen sich dann regelmäßig in Richtung Ostküste der USA, wo sie ganze Landstriche verwüsten. Doch dies geschieht nun weitaus öfter, intensiver und zu sogar außerhalb der typischen Hurrikan-Saison.

Über der gesamten Nordhalbkugel sorgen die steigenden Temperaturen dafür, dass das wichtige Windsystem „Nordpolar-Jetstream“, das sich in ungefähr zehn Kilometern Höhe befindet, ins Schlingern gerät. Dessen Winde sausen nahezu laminar mit bis zu 500 km/h von Westen nach Osten um das riesige Nordpolargebiet.

Doch in den letzten Jahren schwächelt dieser Luftstrom und das hat Folgen, insbesondere für Europa. Herbe Dürreperioden, wie sie das Jahr 2018 mit sich brachte, und Regenkatastrophen, wie sie uns beispielsweise der Sommer 2021 beschert hat, werden zukünftig immer öfter auftreten. Verursacht wird das Ganze in der Arktis, weil dort die Temperaturen schneller steigen als überall sonst auf dem Planeten.

Der Klimawandel ändert die Winde und die veränderten Windsysteme beschleunigen ihrerseits den Klimawandel, das ist ein klassischer Teufelskreis, den wir unbedingt durchbrechen müssen, denn alles hängt mit allem zusammen. Im Pazifik zum Beispiel war in den letzten Jahren eine geradezu tödliche Warmwasserblase zu beobachten.

Was hat es mit dem Blob auf sich?

Ungefähr seit der Jahrtausendwende gibt es vor der nordamerikanischen Westküste immer wieder verheerende Hitzewellen, die als „Blob“ bezeichnet werden. Zuletzt kostete ein solches dreijähriges Ereignis (2019 bis 2021) Abertausenden Walen, Robben und Seevögeln das Leben. Das Wissenschaftler-Team um Armineh Barkhordarian von der Uni Hamburg hat sich dieses Phänomens angenommen.

Der Blob nimmt auf dem Pazifik eine Fläche von bis zu drei Millionen Quadratkilometern ein. Die Wassertemperatur liegt in diesem riesigen Areal bis zu sechs Grad Celsius über dem langjährigen Durchschnitt, viel zu warm für so viele Tiere. Außerdem begünstigt das warme Wasser eine giftige Algenblüte, die dem Wasser viel Sauerstoff entzieht.

Dass der Temperaturanstieg auf menschengemachte Treibhausgase zurückzuführen ist, ist nach Aussage der Wissenschaftler so gut wie sicher. Während des vergangenen Vierteljahrhunderts ist die Wassertemperatur im nordöstlichen Pazifik in jedem Jahr um durchschnittlich 0,05 °C angestiegen. In der Folge haben sich die Hochdruckgebiete im Winter über dem Wasser verstärkt, das heißt, die Wolkenbildung ist reduziert, sodass die Sonne das Meer nahezu ungehindert erwärmen kann, und zwar etwas mehr als die nächtliche Abstrahlung an Wärme-Energie abzieht.

Seit der Jahrtausendwende traten über 30 Hitzewellen im Pazifik auf, wodurch die Ökosysteme dramatisch belastet wurden und die Biodiversität massiv bedroht ist. Wird dabei eine kritische Schwelle überschritten, ist eine Erholung prinzipiell nicht mehr möglich.

Auch frühere Studien haben bereits aufgezeigt, dass Blob-Ereignisse durch den Klimawandel zukünftig ungefähr 20-mal wahrscheinlicher auftreten. Tatsächlich wären die Folgen katastrophal, sollte es auf unserem Planeten insgesamt um „nur“ drei Grad wärmer werden.

An düsteren Vorwarnungen zu diesem Thema hat es das Intergovernmental Panel on Climate Change (IPCC) im Rahmen seiner bislang 14 Sonderberichte nicht mangeln lassen. Dennoch veröffentlichte das Fachjournal PNAS im März 2022 seine „Perspektive“ unter dem Titel „Klima-Endspiel“.

Hans Joachim Schellnhuber, Gründer des Potsdam-Instituts für Klimafolgenforschung (PIK), und Johan Rockström, gegenwärtiger PIK-Chef, werfen dem Klimarat und überhaupt den Entscheidungsträgern auf dieser Welt vor, sich um die alles entscheidende Frage herumzudrücken, die da lautet:

Kann der vom Menschen gemachte Klimawandel zum Zusammenbruch der Gesellschaften und sogar zum endgültigen Aussterben der Menschheit führen?

Dass der Klimarat vergleichsweise moderate Töne anschlägt, liegt sehr wahrscheinlich daran, dass er nicht der Panikmache bezichtigt werden möchte. Immerhin ist er darauf angewiesen, in seinen Formulierungen einen Konsens mit mehr als 190 Staaten zu finden. Es gibt aber noch einen gewichtigeren Grund: Würde der Klimarat jetzt schon deutlich höhere Temperaturen in Aussicht stellen, dann würde das proklamierte Ziel der Begrenzung der Erderwärmung auf 1,5 Grad ad absurdum geführt werden. „Wenn alles egal ist“, braucht sich niemand mehr bemühen.

Die von zunehmender Hitze betroffenen Länder in Nordafrika und am Persischen Golf sind zum einen sehr dicht besiedelt und zum anderen politisch besonders instabil, was große Gefahren birgt. Die zu erwartenden sozialen und politischen Folgen tangieren zwei Atommächte und zurzeit insgesamt sieben Hochsicherheitslabors, die die gefährlichsten Krankheitserreger enthalten. Der Weg in die Katastrophe hat viele Facetten, nicht nur Hitze, Stürme, Starkregen, Erdrutsche oder das Verschwinden ganzer Inselketten.

Wenn es in der Erdgeschichte zu einem Massenaussterben kam, war stets ein massiver Klimawandel daran beteiligt. Ganze Imperien sind nachweislich dadurch zugrunde gegangen und unsere empfindliche moderne Zivilisation ist mit Sicherheit noch weniger dagegen gefeit.

Dieser Beitrag wurde am 22.08.2022 erstellt.

Durch den Betrieb von Atomkraftwerken fällt täglich hochgiftiger, radioaktiver Abfall an. Dieser muss dringend sicher verwahrt werden, und zwar mit einem Zeithorizont von mindestens einer Million Jahren. Aber wie macht man das?

Allein in Deutschland werden mehrere Hunderttausend Tonnen strahlenden Atommülls in unsicheren Hallen und Kavernen „zwischengelagert“. In einigen Fällen handelt es sich um einsturzgefährdete ehemalige Salzbergwerke oder sogenannte Abklingbecken. Nicht zu unterschätzen sind überdies die strahlenden Gase und Stäube, die mit der Abluft und dem Abwasser aus den Atomanlagen direkt in die Umwelt gelangen.

Alle bisherigen Versuche zur dauerhaften sicheren Lagerung des strahlenden Mülls sind kläglich gescheitert. Das ehemalige Salzbergwerk Asse II, gut 8 km südöstlich von Wolfenbüttel gelegen, säuft ab und ist einsturzgefährdet. Der bereits eingelagerte Atommüll muss da unbedingt heraus. Knapp 10 km westlich von Wolfenbüttel befinden sich die Schächte Konrad I und II, die zu einer ehemaligen Eisenerzgrube gehören. Dort findet ein Ausbau für die Lagerung schwach- und mittelradioaktiver Abfälle statt, allerdings dringt auch dort schon Wasser ein.

Nur 6 km östlich von Helmstedt befindet sich bereits in Sachsen-Anhalt das Endlager Morsleben, dessen Situation mit der von Asse II gut vergleichbar ist. Seit den 1970er-Jahren wird der Salzstock Gorleben circa 15 km südöstlich von Dannenberg mit Blick auf seine Eignung als Endlager aufwendig wissenschaftlich-technisch erkundet mit dem Ergebnis, dass der Salzstock und sein Hutgestein von unzähligen Rissen und Klüften durchzogen sind und daher ebenfalls direkten Grundwasserkontakt haben.

Im Jahre 2017 wurde das Standortauswahlgesetz (StandAG) verabschiedet, um mit der Suche nach einem wirklich geeigneten Standort innerhalb Deutschlands zur Endlagerung des strahlenden Atommülls sozusagen ganz von vorne anzufangen. Da es aber einen gesellschaftlichen Konsens zum Umgang mit der strahlenden Hinterlassenschaft gar nicht gibt, wird die Endlagerung, ganz egal, wo sie dann stattfinden wird, auch in Zukunft zu massiven Demonstrationen und langwierigen rechtlichen Auseinandersetzungen führen.

Was wir heute schon wissen, ist, dass das alles viel Geld kosten wird. Daher haben (mussten) die AKW-Betreiber vorausschauend 24 Milliarden Euro in einen staatlichen Fonds eingezahlt. Eine Nachschusspflicht wurde aber, wahrscheinlich sogar absichtlich, versäumt zu vereinbaren. Da das Geld bei Weitem nicht reichen wird, muss der Steuerzahler wieder einmal mehr einspringen.

Trotz allem wurde und wird fleißig Atomstrom produziert

Das Atomgesetz besagte, dass Atomkraftwerke und andere Atomanlagen nur dann betrieben werden dürfen, wenn es sichergestellt ist, dass der entstehende Atommüll „geordnet beseitigt“ werden kann. Da dies ja niemand gewährleisten konnte, wurde das Gesetz 1979 dahingehend industriefreundlich abgemildert, dass der AKW-Betreiber lediglich für die nächsten sechs Jahre den Verbleib des strahlenden Mülls zu klären habe. Die daraufhin beantragten Baugenehmigungen für Zwischenlagerhallen laufen übrigens spätestens in den 2040er-Jahren aus.

Über welche Mengen reden wir hier eigentlich?

Ende 2022 wird in Deutschland auch das letzte noch Strom produzierende AKW abgeschaltet. Dann liegen in unserem Lande ungefähr 17.000 Tonnen hoch radioaktiven Mülls herum, das sind abgebrannte Brennelemente oder Abfälle der Plutonium-Abtrennung. Außerdem dürfen wir circa 600.000 Kubikmeter schwach- bis mittelradioaktive Abfälle unser Eigen nennen. Diese Abfälle befinden sich zumeist direkt an den AKW-Standorten, beim ehemaligen Kernforschungszentrum in Karlsruhe oder auf Halden anderer Sammelstellen.

Das Endlager Morsleben wurde bereits in der DDR genutzt. Dort liegen 37.000 Kubikmeter Atommüll, der bis ins Jahr 1998 weiter angehäuft wurde. Im ehemaligen Salzbergwerk Asse II gibt es 200.000 Kubikmeter strahlenden Mülls, und wenn alle Reaktoren endlich abgerissen sind, kommen nochmals 200.000 Kubikmeter dazu. Ach ja, da wäre auch noch die Urananreicherungsanlage Gronau, die uns mit zusätzlichen 100.000 Kubikmetern Uranmülls beglücken wird.

In Asse II befindet sich vor allem schwach- und mittelradioaktiver Abfall

Asse II wurde einst kurzerhand zu einem Forschungsbergwerk umgewidmet. Von 1967 bis 1978 wurde dort nahezu der gesamte in Westdeutschland anfallende schwach- und mittelradioaktive Abfall untergebracht, sodass dort heute knapp 124.500 Fässer mit schwachradioaktiven Abfällen und fast 1.300 Fässer mit mittelradioaktiven Abfällen lagern. Deren Quellen sind Atomkraftwerke, Atomforschungszentren, die Atomindustrie, Atommüllsammelstellen sowie die Wiederaufarbeitungsanlage Karlsruhe.

Die Eignung dieses Bergwerks für eine Einlagerung von Atommüll wurde nie geprüft Einige Fässer sind nachweislich korrodiert oder weisen Leckagen auf, wobei eine Vielzahl der Abfälle flüssig ist. Sogar circa 28 kg Plutonium sind dabei und mindestens 94 Fässer enthalten kugelförmige Brennelemente aus dem Versuchsreaktor AVR (Kernforschungszentrum Jülich).

Ganz schlecht für das Grundwasser

Die Gesellschaft für Strahlenforschung (GSF) war der Betreiber von Asse II im Auftrag des Bundes und passte die Annahmebedingungen stets flexibel so an, dass diese gut mit dem angelieferten Atommüll übereinstimmten. In den Jahren 1969 und 1970 wurden die zulässigen Grenzwerte klar überschritten. Durch deren Heraufsetzen um 500 Prozent konnte das Problem schnell erledigt werden.

Ungefähr im Jahre 2009 wurde es dann amtlich: Seit 1988 dringen jeden Tag circa zwölf Kubikmeter Wasser in die Stollen ein. Dadurch entsteht unten im Bergwerk eine Salzlauge, die unter anderem mit radioaktivem Plutonium, Americium und Cäsium kontaminiert ist. Durch den Druck aus der Bevölkerung kam nun die Politik schwerfällig zu der Auffassung, dass der Atommüll dort so nicht verbleiben kann. Seit 2017 ist die Bundesgesellschaft für Endlagerung (BGE) Betreiber dieser havarierten Atommüllkippe und damit beauftragt, eine Rückholung der Fässer zu erledigen. Allerdings hat sie damit noch Zeit bis 2033. Die gut sechs Milliarden Euro dafür bezahlt natürlich die Allgemeinheit.

Könnte es etwa sein, dass Atommüll ungesund ist?

In der Zeit von 2002 bis 2009 erkrankten in der Samtgemeinde Asse dreimal so viele Menschen an Schilddrüsenkrebs und doppelt so viele an Leukämie, wie es die mittleren statistischen Erwartungswerte vorgeben.

Zwischenlager für hoch radioaktive Abfälle

In Abklingbecken der Atomkraftwerke lagern abgebrannte Brennelemente bis zum Sankt-Nimmerleins-Tag. Oder die Brennelemente sowie die hoch radioaktiven Rückstände aus der Wiederaufarbeitung und der Abtrennung von Plutonium werden in Castor-Behältern eingepfercht.

Solche heißen, tonnenschweren Atommüll-Behälter befinden sich heute in 16 Zwischenlagern, die über die ganze Republik verteilt sind. In Neckarwestheim sind das oberflächennahe Stollen, ansonsten meistens oberirdische Betonhallen, alle mit großen Lüftungsschlitzen ausgestattet. Die Dichtheit der Behälter wurde gemäß Zulassung für immerhin 40 Jahre garantiert.

Gegen den Absturz eines Passagierflugzeugs oder gar gegen außer Rand und Band geratene moderne panzerbrechende Waffen sind solche Lagerstätten nicht gerüstet. Es gab in der Sache einen Rechtsstreit, woraufhin dem Zwischenlager Brunsbüttel die Genehmigung entzogen wurde. Dass die anderen Zwischenlagerhallen keinen Deut stabiler sind, dafür hat sich offenbar noch niemand interessiert.

Rache als Kriterium für eine Standortwahl

Die Entscheidung für das Endlager Gorleben, genauer für das „Nuklearzentrum“, im Jahre 1977 so dicht an der Grenze zur DDR durch den damaligen niedersächsischen Ministerpräsidenten Ernst Carl Julius Albrecht war eine Art politische Rache für Morsleben. Ein atomrechtliches Genehmigungsverfahren gab es dafür nicht, somit auch keine Beteiligung der Öffentlichkeit. Das Deckgebirge über dem Salzstock Gorleben ist nicht dicht, obwohl dies schon damals eine Voraussetzung gewesen wäre. Gemäß StandAG darf Gorleben bei der Neuorientierung erst einmal nicht ausgeschlossen werden.

Auch bei der neuen Suche nach einem deutschen Atommüll-Endlager haben politische Interessen das größere Gewicht als wissenschaftliche Vernunft. Was ist damit gemeint?

  • Die Öffentlichkeitsbeteiligung erfolgt lediglich auf dem niedrigen Niveau von Information und Anhörung. Der Rechtsschutz für Betroffene ist von vorn herein von untergeordneter Bedeutung.
  • Die Öffentlichkeit wird immer erst dann informiert, wenn praktisch schon vollendete Tatsachen geschaffen worden sind. Die formal gewährten Reaktionszeiträume reichen in der Praxis nicht aus.
  • Das Standortauswahlgesetz sieht vor, dass der Atommüll-Lager-Standort bis 2031 vorliegen muss. Dies ist für ein Unterfangen dieser Tragweite ein ziemlich ambitionierter Zeithorizont.

Wiederaufarbeitung und Transmutation

Warum sollte man nicht den hoch radioaktiven Atommüll einfach wieder aufarbeiten? Wäre das nicht ein vorbildliches Recycling? Nein, denn in einer Wiederaufarbeitungsanlage (WAA) wird die Menge des Atommülls sogar vervielfacht. Besonders problematisch ist dabei das in nahezu reiner Form anfallende Plutonium, das liebend gern von Hinz und Kunz für den Bau von Atombomben verwendet wird. Zum anderen fällt dabei eine hoch radioaktive, sich immer weiter selbst erhitzende, explosionsgefährdete „Atomsuppe“ an.

Verglichen mit La Hague ist die Wiederaufarbeitungsanlage Karlsruhe (WAK) geradezu winzig. Dennoch sind dort fast 70 Kubikmeter Atommüll angefallen, deren Verglasung allein schon circa 2,6 Milliarden Euro verschlungen hat.

Die Wiederaufarbeitungsanlagen in Sellafield und La Hague verfrachten enorme Mengen an Radionukliden in die Luft und ins Wasser. Aus diesem Grunde dürfen die Brennelemente aus deutschen Atomkraftwerken seit 2005 nicht mehr in diese Wiederaufarbeitungsanlagen transportiert werden.

Die Transmutation bedeutet jetzt kein Themenwechsel hin zur Biologie. Es geht vielmehr um eine neue Nukleartechnologie, mit deren Hilfe Atommüll in weniger schädliche Stoffe umwandelt werden kann, also um eine Illusion, die den Wiedereinstieg in die Atomenergie beflügeln soll. Auf jeden Fall würden die riskanten Arbeitsprozesse enorme Energien verschlingen, wobei eine solche Anlage pro Jahr maximal circa 300 kg Atommüll verarbeiten könnte.

Da aber mehrere Hunderttausend Tonnen Atommüll vorliegen, kann jeder leicht abschätzen, dass uns dieser Job mindestens 100.000 Jahre lang beschäftigen würde.