Wirtschaftskonzerne, Politik und Medien hämmern uns seit vielen Jahrzehnten das Mantra des ständigen Wachstums in unsere Hirne. Kein Wunder, dass so viele Menschen das so glauben und sogar überzeugt davon sind. Zwar zeichnete sich die daraus generierte ökologische Katastrophe schon in den 1960er-Wachstumsjahren ab, zum Beispiel bei einem verstohlenen Blick aufs Ruhrgebiet, aber darauf reagiert hat kaum jemand.

Inzwischen sind weitere 60 Jahre vergangen und eine zunehmende Zahl an jungen Klima-Aktivisten ist weltweit unterwegs mit dem dringenden Wunsch, den Klimakollaps vielleicht doch noch abzuwenden. Manche von ihnen haben den fatalen Zusammenhang zwischen Überbevölkerung des Planeten, Energieverschwendung, Konsumrausch, Umweltvergiftung und Zusammenbruch der Biosphäre begriffen, doch all die anderen machen weiter wie bisher nach dem vermeintlich einzig attraktiven Motto: Geld regiert die Welt.

Die Bundesregierung hat sich bemüht, gegenzusteuern. Es wurde der Kohleausstieg vorangetrieben, Hausbesitzer wurden gezwungen, ihre Häuser zu dämmen, was nicht selten wegen der vermehrten Schimmelbildung auf Kosten der Gesundheit geht, die Glühlampe wurde verboten und durch vermeintlich viel klimafreundlichere LED-Sparlampen ersetzt, unzählige Verbrennungsmotoren, die noch viele Jahre ihren Dienst tun würden, werden verschrottet, um der E-Mobilität Vorschub zu leisten und so weiter. In der Tat bestätigte sich die Hoffnung, dass andere Länder dem deutschen Vorzeigebeispiel zumindest in Teilen folgen.

Aber was nützt das alles, wenn gleichzeitig andere Länder gegeneinander Kriege führen?

Da wird schweres Kriegsgerät über weite Landschaften geschoben, Kampfhubschrauber toben über Städte, Jagdbomber lassen Tanklager explodieren. Ein einziger Kriegstag vernichtet mit Blick auf den Klimaschutz das in 20 Jahren Erreichte anderer Länder. Ist das ein Irrsinn!

Dem Planeten ist es egal, ob es sich um einen aggressiven Angriffskrieg oder um einen defensiven Verteidigungskrieg handelt. Auch Letzterer wäre vermeidbar, würde man sich noch an jene alten, weisen Hippies erinnern, die einst sagten: „Stell dir vor, es ist Krieg und keiner geht hin“. Der Geist von Woodstock „make love and peace, but not war“ ist mit der heutigen Generation leider gestorben.

Klimaschutz und die vielen anderen Problemlösungen, die den gesamten Planeten betreffen, setzen eine geeinigte Weltgemeinschaft voraus, die keine Nationalstaaten mehr zulässt. Dabei kommt es überhaupt nicht darauf an, unter welcher Ägide oder nach welchen „Werten“ eine solche Weltregierung geführt wird. Hauptsache ist, wir ziehen alle gleichzeitig an einem Strang in die gleiche Richtung.

Betrachten wir eine Alternative zum globalisierten Wirtschaftswachstum etwas genauer

Darüber ist in den Wirtschaftswissenschaften schon lange eine Debatte entbrannt. Da sind diejenigen, die gerade in mehr Wachstum und Innovationen einen Schlüssel für die Nachhaltigkeit sehen, und jene, die der Postwachstumsbewegung des Umweltökonomen Niko Paech anhängen, der „grünes Wachstum“ für eine Illusion hält.

Paech forscht und lehrt an der Universität Siegen und weiß, dass jetzt ein „Zeitalter des Weniger“ dringend erforderlich ist, wollen wir weitere Krisen verhindern. Unsere Gesellschaft muss sich dahingehend wandeln, Güter zu teilen und immer wieder zu reparieren. Für Lebensqualität brauchen wir endlich einen ganz anderen Maßstab.

Schon vor über 50 Jahren stand im Bericht des Club of Rome geschrieben, dass unser Wirtschaftssystem kollabiert, wenn die Menschheit so weitermacht. Paech hält diese Formulierung sogar für eine „fulminante Untertreibung“, denn damals ging es ja nur um die Verknappung der Ressourcen und um eine Überlastung der Ökosphäre im Kontext des zu straffen Bevölkerungswachstums. Die Folgen einer totalen Globalisierung mit den Instabilitäten der weltweit verzweigten Spezialisierungen und eine Technologieabhängigkeit, die uns alle in höchstem Maße gefährdet, waren damals überhaupt noch nicht im Fokus.

Der Krieg in der Ukraine ist so ein Anlass, der die installierten Abhängigkeiten ins Wanken bringt. Deutschland bezieht 55 Prozent des importierten Erdgases aus Russland. Diesen Energieträger in überschaubarer Frist zu substituieren, ist unmöglich, weil der größte Teil des Immobilienbereiches von Gas abhängig ist. Wenn überdies Metalle und seltene Erden knapp werden, ist die Krise nicht mehr abzuwenden. Kleine Impulse reichen aus, um unser Kartenhaus zusammenbrechen zu lassen.

Wir können und müssen es uns abschminken, auch in China, Indien oder Afrika einen Wohlstand aufbauen zu wollen, der in etwa mit jenem vergleichbar ist, der bei uns vor 30 Jahren zu verzeichnen war. Die gegenwärtige ökonomische Situation Chinas basiert bereits auf der Ausplünderung Afrikas. Gleichzeitig zeigen uns die Farben der chinesischen Flüsse an, was in Europa gerade Mode ist.

Es bleibt die Frage, wie wollen wir Lebensstandard bemessen? Ist es der Pro-Kopf-Verbrauch an Gütern oder vielleicht doch eher die psychosoziale Stabilität eines Landes? Die moderne Konsumforschung lehrt uns, dass Menschen innerlich ausbrennen, wenn man sie immer mehr Konsummöglichkeiten aussetzt. Die damit verbundene Lawine unüberschaubarer Selbstverwirklichungsoptionen überfordert die Menschen in gleich mehreren Hinsichten. Wir sollten nicht den Fehler machen, Lebensqualität und Lebensstandard in einen Topf zu werfen.

In seinem Buch Befreiung vom Überfluss plädiert Paech für eine Reduktion des individuellen Konsums, um die Wirtschaft auf diese Weise nachhaltig zu machen. Dabei spielt es gar keine Rolle, ob es eine Regierung ist, die einen autofreien Sonntag oder einen auf 20 kg begrenzten Jahresfleischkonsum pro Kopf verordnet, oder ob die Menschen aus Vernunft und Einsicht solche Schritte mitgehen.

Wir dürfen dabei in der Tat auf die Fantasie der Menschen hoffen. Irgendwo werden neue Lösungsansätze erprobt, die sich vielleicht gut bewähren und deshalb vielerorts aufgegriffen werden. Daraus erwächst dann eine neue Bewegung. Nur in einer solchen Situation ist die Regierung in der Lage, ohne politischen Selbstmord dabei zu helfen, dass sich diese Neuerung durchsetzt, indem Rahmenbedingungen oder Anreizsysteme und nicht zuletzt entsprechende Gesetze geschaffen werden.

Die CO2-Steuer ist leider reine Makulatur. Die vielen Bezieher mittlerer und höherer Einkommen beeindruckt sie jedenfalls nicht genug, um zum Beispiel die Anzahl der Urlaubsflüge signifikant zu reduzieren. Kommen wir deshalb noch kurz auf das Stichwort Postwachstumsökonomie zu sprechen.

In Oldenburg gibt es ein kommunales Ressourcenzentrum, wo postwachstumstaugliche Lebensweisen gemeinschaftlich entwickelt und erprobt werden können. Daran beteiligen sich auch Unternehmer, Handwerker und Freiberufler. Einen Schwerpunkt bildet die Reparatur von Gütern, die sonst auf dem Müll landen würden, sowie deren gemeinschaftliche Nutzung. Außerdem nimmt dort die Selbstversorgung einen breiten Raum ein, um zu zeigen, dass es durchaus ohne Kängurufleisch aus dem Outback geht.

Es ist doch eigentlich ganz logisch, dass sich vier oder fünf Menschen völlig problemlos ein Auto, einen Staubsauger, einen Rasenmäher, die große Leiter oder die Waschmaschine teilen könnten, etwas guten Willen vorausgesetzt. Das würde allen Beteiligten nicht nur viel Geld sparen, sondern auch viel Energie und Ressourcen für all die Produkte, die nun gar nicht mehr produziert werden müssten. Überdies brauchen Produkte, die nicht hergestellt wurden, auch keinen Lagerplatz, der gerade in den Großstädten zu einem Problem geworden ist.

Bislang waren wir alle „Konsumdeppen“, die einen mehr oder weniger spezialisierten Beruf ausübten. Die Postwachstumsökonomie bietet uns dagegen Strukturen, die uns wieder kompetent machen, die Dinge selbst zu reparieren, Anbau in kleinem Rahmen zu betreiben und unsere Nahrungsmittel selbst zuzubereiten und Waren eigenhändig zu produzieren, um sie gemeinsam mit anderen Menschen zu nutzen. Wer am Ende des Tages sehen und anfassen kann, was er mit seiner Hände Arbeit erschaffen hat, erfährt einen deutlichen Zuwachs an Freiheit und Glück.

Beitragsbild: pixabay.de – Noupload

Dieser Beitrag wurde am 23.04.2022 erstellt.

Die Abhängigkeit Deutschlands vom russischen Gas ist gerade in aller Munde, aber überhaupt nichts Besonderes, haben wir uns doch mit der Globalisierung gleichzeitig blind in tausend Abhängigkeiten gestürzt, und zwar von Ländern, die in puncto Menschenrechte mitnichten besser dastehen als Russland.

Aber bleiben wir erst einmal in Europa. In den letzten Monaten ist die Berichterstattung über Serbiens Hauptstadt Belgrad möglicherweise aus bekannten Gründen etwas untergegangen. Dort haben Tausende Menschen gegen Rio Tinto demonstriert, weil der australisch-britische Konzern in Jadar im Westen Serbiens ein Bergwerk zur Gewinnung von Lithium und Bor errichten will. Die Menschen ahnen allerdings, was das für ihre Umwelt, für ihre Gesundheit und für die Gesellschaft insgesamt bedeutet.

Fakt ist, dass in dem Maße, wie wir fossile Energieträger durch Sonnen- und Windenergie ersetzen wollen, erst einmal Bergwerke für (Metall)Erze entstehen müssen, doch die will niemand in seiner Nähe haben.

Das Pariser Klimaabkommen gibt uns noch 28 Jahre für einen Prozess, an dessen Ende der Ausstoß klimakritischer Gase auf null zurückgeschraubt worden sein muss. Es geht also um einen massiven industriellen Wandel, der auf eine ganz andere Rohstoffbasis gestellt wird. Gemäß dem Bericht der Internationalen Energieagentur (IEA) erfordert eine moderne Fotovoltaikanlage gut doppelt so viele metallische Rohstoffe wie ein Kohlekraftwerk mit etwa gleicher Leistung und bei Onshore-Windenergieanlagen sind das gleich fünfmal so viele Metalle. Sogar die siebenfache Menge brauchen Offshore-Windräder.

Das Seltenerd-Metall Neodym zum Beispiel wird zur Herstellung von Permanentmagneten benötigt und bietet den Vorteil, dass Windkraftanlagen weniger wartungsintensiv sind. Die Deutsche Rohstoffagentur (DERA), die der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) angehört, hat sich wissenschaftlich mit dem voraussichtlichen Rohstoffbedarf für die Energiewende auseinandergesetzt. Aus ihrem Bericht geht unter anderem hervor, dass sich der globale Bedarf an Neodym bis zum Jahr 2040 wahrscheinlich versechsfachen wird. Eine ganz ähnliche Prognose gilt demnach für mehr als 20 andere kritische Metalle.

Die Energiewende erfordert neue Technologien, die wiederum alle einen enormen Bedarf an exotischen Metallen wie Scandium oder Iridium aufweisen. Neben Solar- und Windenergieanlagen geht es da zum Beispiel um:

  • Elektrofahrzeuge
  • Stationäre Stromspeicher
  • Großanlagen für die Wasserelektrolyse zur Produktion von „grünem Wasserstoff“
  • Rechenzentren
  • Quantencomputer
  • Radiofrequenz-Mikrochips für die 5G- und 6G-Funkmasten
  • Meerwasserentsalzungsanlagen

Es liegt also auf der Hand, dass viele Volkswirtschaften in neue Abhängigkeiten stürzen werden, die in einem direkten Zusammenhang mit solcherlei Metallen stehen.

Bergbau war einst eine deutsche Domäne

Interessanterweise ging die deutsche Wiedervereinigung mit dem Rückzug des deutschen Metallbergbaus in Ost und West einher. Die Vorkommen sind dort durchaus nicht in jedem Fall erschöpft, aber die zunehmende Zahl neuer Umweltgesetze, die hohe Standards für Vorsorge- und Sicherheitsmaßnahmen fordern, haben den Bergbau in Deutschland absolut unrentabel gemacht. Überdies wurden sogar die Reserven kritischer Rohstoffe aufgelöst, gibt es doch so viele Länder, deren Lohnniveaus auf unbestimmte Zeit unschlagbar niedrig liegen.

Die geopolitischen Spannungen haben allerdings in den letzten Jahren dramatisch zugenommen und ein Ende dieser fatalen Entwicklung ist leider nicht in Sicht. Damit schließt sich die Tür für günstige Rohstoffeinfuhren immer weiter zu. Zu Beginn des Ukraine-Krieges stieg beispielsweise der Nickel-Preis innerhalb von nur zwei Tagen um ungefähr 250 Prozent, was ein temporäres Aussetzen des Handels erforderlich machte. Dabei ist Nickel nicht einmal so selten und Russland stellt lediglich ein Zehntel der globalen Fördermenge bereit.

Schon lange vor dem Ukraine-Konflikt forderten Wirtschaftsverbände wie der BDI, dass Deutschland seine Versorgung mit metallischen Rohstoffen dringend wieder in die eigene Hand nehmen muss. Tatsächlich hat die sonst so träge Europäische Kommission 2020 die European Raw Materials Alliance auf die Beine gestellt, ein Bündnis mit dem Auftrag, die Versorgungssicherheit der europäischen Industrie zu verbessern. Der Fokus liegt hierbei auf einer verstärkten Zusammenarbeit mit stabilen Partnerstaaten wie Australien oder Kanada sowie auf der Unterstützung nachhaltigen Bergbaus in afrikanischen Staaten.

Der Geologe Jens Gutzmer leitet seit vielen Jahren das Freiberger Helmholtz-Institut für Ressourcentechnologie und weiß, dass Deutschland praktisch nichts dafür getan hat, neue Bergwerke zu erschließen, weil so etwas allein die Aufgabe der Wirtschaft sei. China hat dagegen verstanden, dass der Abbau von Rohstoffen weitgehend in staatliche Hand gehört, und so läuft es dort auch seit den 1990er-Jahren. Inzwischen dominiert China nicht nur den Abbau und die Verarbeitung der Seltenen Erden, sondern auch die Prozessketten um Gallium, Vanadium und Indium.

Kommen wir nun noch einmal auf das Geschehen in Serbien zurück, weil es so deutlich zeigt, was mit der EU los ist. Im Jahre 2013 suchte die serbische Regierung händeringend nach Investoren sowohl für die Kupfermine als auch für die Kupferhütte in der Nähe der Kleinstadt Bor im Osten des Landes, denn gerade wegen der Entdeckung einer neuen Kupferlagerstätte wäre das frühere Industriekombinat nun sanierbar gewesen.

An Interesse einiger Bergbauunternehmen fehlte es nicht, sehr wohl aber an wohlwollenden Bürgschaften von Regierungen in der EU. So blieb der serbischen Regierung gar nichts anderes übrig, als dem chinesischen Unternehmen Zijin den Zuschlag zu erteilen. Das war 2018. Inzwischen werden in Bor jährlich mehr als 27.000 Tonnen Kupferkonzentrat gefördert, die entlang der chinesischen Seidenstraße von Europa weg diffundieren.

In der westspanischen Extremadura birgt der Untergrund reiche Lithiumvorkommen, aber die Anwohner lehnen ein Bergwerk geschlossen ab. Weiter nordwestlich in Portugal wird sogar das größte Lithiumvorkommen Europas vermutet. Doch der portugiesische Präsident Marcelo Rebelo de Sousa hat sich klar gegen ein Bergwerk ausgesprochen.

Nach massiven Protesten gegen die Kupfermine bei Jadar entschied sich die serbische Premierministerin Ana Brnabic Anfang des Jahres 2022 gegen das Projekt. Der Grund des Unmuts hat mit den enttäuschenden Erfahrungen zu tun, die im Zusammenhang mit dem chinesisch geführten Kupferbetrieb in Bor bereits gemacht worden sind, denn dort haben sich die wirtschaftlichen Verhältnisse der Anwohner praktisch nicht verbessert. Das Unternehmen stellte vorwiegend Arbeitskräfte aus China und Vietnam ein, aber mit der schlechten Luftqualität durch die Kupferproduktion mussten sich alle herumplagen.

 

Eine Problemlösung könnte in der Kreislaufwirtschaft liegen

Die Automobilwirtschaft beklagt die gestörten Lieferketten schon seit vielen Jahren, was dem zunehmenden Einbau von elektronischen Komponenten in die Fahrzeuge geschuldet ist. Elektrofahrzeuge enthalten die siebenfache Menge metallischer Rohstoffe als Autos mit Verbrennungsmotoren. In weniger als zehn Jahren will daher zum Beispiel Volkswagen einen großen Teil der Metalle, die in Elektrowagen verbaut sind, zurückgewinnen. Dies sollte die Abhängigkeit von Importen drastisch verringern. Bei Windrädern und auch bei hochwertigen Solarzellen können die Produktzyklen aber durchaus 30 Jahre und mehr betragen, sodass hierbei ein Rohstoffkreislauf nur sehr verzögert anrollen kann.

Im Übrigen ist die Verfahrenstechnik beispielsweise zur wirtschaftlichen Rückgewinnung des in einer Fotovoltaikzelle dünn aufgedampften Galliums noch längst nicht entwickelt. Die Rückgewinnung von Hightech-Metallen aus den elektronischen Komponenten verschrotteter Fahrzeuge ist Stand heute viel zu teuer, als dass ein solches Unterfangen überhaupt probiert würde.

 

Wie immer reagiert die Politik mit unrealistischen Vorschriften

Im Rahmen des Green Deal der EU-Kommission wird nun ein schärferes Recycling wertvoller Metalle vorgeschrieben. Die nachhaltig steigenden Rohstoffpreise könnten dazu führen, dass sich Bergbau in Ländern mit strengen Umweltgesetzen und hohem Lohnniveau wieder etablieren kann, solange das Recycling von Rohstoffen noch so komplex und teuer ist. Natürlich bedeutet das am Ende der Kette eine deutliche Verteuerung der Produkte.

Ob wir es uns dann noch leisten können, dass (laut IEA) die Schaffung eines neuen Bergwerks vom Planungsbeginn bis zur Aufnahme der Produktion ungefähr 16 Jahre dauert, steht auf einem ganz anderen Blatt. Ohne einen beherzten Abbau von Bürokratie wird es wohl nicht gehen.

Was bisher geschah, dass die europäischen Gutmenschen mit ihrer einengenden Gesetzgebung ihren nachhaltigen Umweltschutz nachweisen, während sie zur gleichen Zeit billig Rohstoffe oder Kleidung aus weniger entwickelten Ländern aufkaufen, auf die sie mit dem moralischen Finger zeigen, das ist extrem verlogen und wurde in der Welt als solches längst erkannt

Dieser Beitrag wurde am 23.04.2022 erstellt.

Es ist kein Geheimnis, dass die US Amerikaner ihr teures Flüssiggas gewinnbringend loswerden wollen und deshalb darauf dringen, dass Nord Stream 2 erst gar nicht in Betrieb genommen wird. Doch dass gerade Deutschland sich an einer „Erpressung“ Russlands mit der Abnahme von Erdgas beteiligen soll, um sich ins eigene Fleisch zu schneiden, ist extrem trauriger Irrwitz.

Grüne Politik, die Klimaschutz zur Chefsache gemacht hat, möchte, dass ein Milliardenprojekt, in das so viel Arbeit und Material, Energie und Umweltbelastung geflossen ist, vollkommen sinnlos fertiggestellt worden ist, um sich niemals zu amortisieren, das muss man sich mal auf der Zunge zergehen lassen. Solcher Art Handeln ist ein Schlag ins Gesicht jedes einzelnen umweltbewussten Bürgers, der vom Auto aufs Fahrrad umgestiegen ist oder für teures Geld gezwungen wird, sein Haus zu isolieren.

Die Importe von Flüssiggas sind angeblich ein Beitrag zum Klimaschutz

Und die Grünen werden es wohl schaffen, der deutschen Bevölkerung das so zu verkaufen. Deutschland ist in der Tat längst zum geostrategischen Spielball degradiert worden. Kräfte, die nicht zu bändigen sind, schaffen gerade vollendete Tatsachen durch die Schaffung von Infrastruktur. Nein, nicht die russische Ostsee-Pipeline ist gemeint, sondern insgesamt drei Flüssiggas-Terminals in Niedersachsen und Schleswig-Holstein, wo bald Riesentanker aus den USA Fracking-Gas anliefern werden, das ist seitens der USA beschlossene Sache.

Dabei sind die geplanten LNG-Importe (Liquified Natural Gas) aus Sicht des Umwelt- und Klimaschutzes mehr als bedenklich. Dies geht zumindest aus einem Gutachten der Deutschen Umwelthilfe hervor. So wird das Flüssiggas in riesigen Tankern transportiert, deren Länge zum Teil 350 Meter beträgt. Mehrere solche Ungetüme werden in Stade jede Woche anlanden. Logisch, dass dafür die Elbe weiter ausgebaggert werden muss.

Überdies ist die Ladung hochexplosiv. Zufällig befindet sich im Hafen eine beeindruckende Chemiefabrik von Dow Chemical und ganz in der Nähe ist ein Atommülllager geplant. Unnötig zu erwähnen, dass ein Naturschutzgebiet direkt an den Hafen angrenzt.

 

Seit Jahren arbeiten PR-Agenturen der Gas-Lobby an der Botschaft, dass Erdgas unser Klima schützt.

Niedersachsens Ministerpräsident Stephan Weil (SPD) wird nicht müde zu betonen, dass Gas vielleicht das wichtigste Vehikel „auf dem Weg zur klimaneutralen Gesellschaft“ sei. Wie Mecklenburg-Vorpommern hat auch Niedersachsen eine landeseigene Erdgas- oder besser LNG-Agentur, die den niedersächsischen Steuerzahlern jedes Jahr circa 750.000 Euro kostet.

Laut Weltklimarat IPCC ist Methan, der Hauptbestandteil von Erdgas, für ungefähr 25 Prozent der menschengemachten Erderwärmung verantwortlich. In einem Beitrag des Fachmagazins Nature wurde kürzlich nachgewiesen, dass die Methankonzentration in der Atmosphäre gerade in den letzten 20 Jahren exorbitant zunahm.

Abgesehen davon, dass Erdgas auf jeden Fall zu den Klimakillern gehört, kommt es zusätzlich noch darauf an, wo und wie Erdgas gefördert wird. Klar, dass die Länge des Transportweges einen Einfluss haben muss, hinzu kommen die Methanlecks an den Bohrstellen und in den Leitungen, die es bei allem Bemühen nun mal gibt.

 

Hinsichtlich der Klimabilanz ist Gas eben nicht gleich Gas

Der größte Teil des Erdgases wird in den USA aus sehr tiefen, stark kompaktierten Sedimentschichten gefördert. Da der Porenraum meistens sehr dicht verpresst ist, entweicht das oftmals in Tonschiefer oder Sandstein gespeicherte Gas mitnichten freiwillig. Es muss dazu aufwendig geradezu gezwungen werden. Dafür steht das Wort „Fracking“.

Zu diesem Zweck wird Wasser unter extrem hohem Druck in diese Gesteinsschichten eingepresst, um die dort bereits vorhandenen tektonischen Störungen, die zum Teil wieder „verheilt“ sind, aufzusprengen. Auf diese Weise werden druckentlastete „Wegigkeiten“ für das Gas geschaffen, das über diese Pfade langsam zur Oberfläche hin diffundieren kann. Das Ganze wird noch mit bestimmten Chemikalien garniert, die dabei helfen sollen, den Prozess zu optimieren. Um was genau es sich bei diesen toxischen Stoffen handelt, ist natürlich Betriebsgeheimnis der daran beteiligten Konzerne.

Abgesehen von der damit verbundenen Grundwasserkontamination gilt es heute als nachgewiesen, dass Fracking Erdbeben auslöst.

Kurze Betrachtung zum erforderlichen Druck

Mit wie viel Energie die Pumpen dabei anhaltend gespeist werden müssen lässt sich vielleicht erahnen, wenn man sich einmal den enormen Gesteinsdruck vor Augen führt, der mit dem Wasserstrahl überwunden werden muss.

Pro zehn Meter Wassertiefe nimmt der Druck um eine Atmosphäre zu. Da tiefere Sedimentgesteine über Dichten von oft mehr als 2.500 Kilogramm pro Kubikmeter verfügen, macht so eine zehn Meter mächtige Gesteinsplatte einen zusätzlichen Druck von circa 2,5 Atmosphären aus. Die Bohrungen bis zu den begehrten Fracking-Positionen gehen nicht selten bis über 5.000 Meter in die Erdkruste hinein. Dort herrschen dann ein Druck um 500 x 2,5 = 1.250 Atmosphären und eine Temperatur von mehr als 160 Grad Celsius. Um das Gestein unter solchen Druck-Temperatur-Bedingungen aufzusprengen, muss chemisch behandeltes Wasser in großen Mengen mit noch höherem Druck verpresst werden.

Es geht immer was in die Umwelt verloren

Dass es zu Gaslecks kommt, ist kein Geheimnis und wird sogar im Fall der Fälle an die Umweltbehörde der USA gemeldet. Im Fachmagazin Science erschien 2018 eine Studie, aus der die Abschätzung hervorgeht, dass aus den dort offiziell gemeldeten Gaslecks circa 60 Prozent mehr Gas entwichen war, als der US-Umweltbehörde bekannt war. Die US-Umweltorganisation Environmental Defense Fund belegt mit eigenen Messungen, dass allein an den Förderstätten in den USA ungefähr 1,4 Millionen Tonnen Gas in die Luft entweichen.

Wird das Flüssiggas schließlich mit Containerschiffen über die Weltmeere verfrachtet, kommt eine weitere erhebliche Energiemenge im Verein mit Umweltverschmutzung auf die Rechnung. Zur Verflüssigung muss das Gas auf -163 Grad Celsius herunter gekühlt werden. Sinn der Sache ist die drastische Volumenreduktion des Gases auf den nur noch sechshundertsten Teil des ursprünglichen Volumens. Am Bestimmungsort angekommen erfolgt die Rückwandlung in Pipelinegas, die als „Regasifizierung“ bezeichnet wird.

Vor der Einspeisung ins Gasnetz sieht die Prozesskette von LNG so aus:

  • Gasförderung
  • Gasaufbereitung einschließlich Gastransport via Pipelines
  • Verflüssigung
  • LNG-Transport
  • Regasifizierung (optional)

Die Klimabilanz von Pipelinegas ist nachweislich etwas besser

So jedenfalls lassen sich die Ergebnisse einer diesbezüglichen Studie des Fraunhofer-Instituts für System- und Innovationsforschung verstehen. Es sind vor allem die geringeren Vorkettenemissionen, die diese Erkenntnis untermauern, wenngleich sich dieser Vorteil mit zunehmender Länge der Pipeline immer weiter relativiert. Die Ostseepipelines Nord Stream I und II weisen Längen um 1.200 km auf, was aber unter diesem Aspekt noch im Rahmen ist.

Ganz egal, welche wirren Entscheidungen aus vorgeschobenen politischen Beweggründen nun für oder gegen Nordstream 2 beziehungsweise die Flüssiggas-Terminals getroffen werden, Fakt ist, dass die EU beschlossen hat, bis 2050 die Verbrennung fossiler Energieträger, wozu eben auch Erdgas gehört, zu beenden. Wir sind daher gut beraten, Nordstream 2 die paar verbleibenden Tage noch zu nutzen, damit sich der Bau dieses Großprojektes wenigstens noch ein paar Prozent amortisieren kann, alles andere wäre unverantwortliche Verschwendung unserer ohnehin schwindenden Ressourcen.

Die vermeintliche Abhängigkeit vom russischen Gas, die uns die Amerikaner gebetsmühlenartig einreden, entbehrt insofern ihrer Grundlage, weil die Sowjetunion während des gesamten Kalten Krieges ohne jegliche Zwischenfälle Gas nach Europa geliefert hatte. Wer die Geschichte ein bisschen kennt, weiß, dass Handel zwischen den Nationen eine ganz wesentliche Basis für friedliches Miteinander ist.

Dieser Beitrag wurde am 07.04.2022 erstellt.

Die bislang problematische Nordwestpassage entlang der Nordküste des amerikanischen Kontinents mit dem Schiff zu befahren, wird „dank“ des Klimawandels immer realistischer und eines Tages vielleicht eine zuverlässig schiffbare verkürzende Reiseroute zwischen Pazifik und Atlantik sein. Bereits im Jahre 2007 ist es sogar gelungen, die mehr als 7.200 km lange Strecke ohne Motorkraft nur mithilfe des Windes zu meistern.

Dazu bedurfte es allerdings einer besonderen Segelboot-Konstruktion, die auf den Namen Babouche getauft wurde und von Sebastien Roubinet entworfen worden war. Roubinet hat das Schiff zudem maßgeblich selbst gebaut, um dann auch noch die herausfordernde Expeditionsleitung zu übernehmen.

Für den Bau des 7,5 Meter langen Eiskatamarans brauchte sein Team etwas mehr als ein Jahr. Der Clou an diesem Schiff ist, dass es sowohl durch Wasser als auch über Eis gleiten kann. Die Crew bestand schließlich aus Roubinet und den zwei Team-Mitgliedern Anne-Lise Vacher-Morazzani und Eric André. Gestartet sind sie am 19. Mai 2007 in Vancouver, um zunächst nach Anchorage (Alaska) und dann durch die Behring-Straße vorbei an Cape Barrow und den Nordwest-Territorien zu segeln. Ab hier wurde es etwas schwieriger, doch nach drei Monaten und 21 Tagen sind sie schließlich am 9. September 2007 in Grönland angekommen.

Was genau ist die Nordwestpassage?

Die NWP ist jener Seeweg, der nördlich von Kanada die beiden Ozeane Atlantik und Pazifik verbindet, aber regelmäßig monatelang durch dickes Packeis blockiert ist. Natürlich lassen sich die beiden Ozeane auch dadurch verbinden, dass man sein Schiff entlang der sibirischen Nordküste manövriert, was der geografischen Logik folgend als Nordostpassage (NEP) bezeichnet wird. Allein, das Wetter und damit die Stärke des Packeises bieten hier keinerlei Vorteil, wohl aber die Strecke ungleich länger ist.

Was die NWP aber noch etwas komplizierter macht, das sind die vielen großen und kleinen Inseln, die es dem Kapitän schwer machen, den optimalen Weg zu finden, denn da gibt es viele „Sackgassen“, die in unüberwindlichem Packeis abrupt enden. Bereits seit Jahrhunderten haben sich verschiedene Forscher immer wieder vergebens damit beschäftigt, die geeignetste Wasserstraße durch das Insel-Labyrinth zu finden:

 

  • 1850: Robert McClure (Irland)
  • 1854: John Rae (Schottland)
  • 1903: Roald Amundsen (Norwegen)

 

Erst seit 2010 ist es wegen des Rückzugs des Eises zunehmend realistisch geworden, tatsächlich die Durchfahrt durch die NWP zu wagen.

Beitragsbild:

Dieser Beitrag wurde am 17.03.2022 erstellt.

Für die Forschung war es ein Glücksfall, dass vor ungefähr 30 Jahren eine Havarie dazu führte, dass ein Schiff seine ganze Ladung „Quietscheenten“ verlor, erinnern Sie sich noch daran?

Über den nördlichen Pazifik im Bereich der Datumsgrenze fegte damals ein schwerer Wintersturm. Jenes Containerschiff, das sich auf dem Weg von Hongkong nach Tacoma an der Westküste der USA befand, hatte am 10. Januar 1992 schwer mit den Brechern zu kämpfen. Als sich das riesige Schiff wieder einmal stark zur Seite neigte, rissen sich gleich zwölf Container aus der Verankerung und schossen Torpedos gleich über Bord hinaus.

Der Aufprall aufs Wasser war für einen Container zu hart aus dieser Höhe. Insgesamt 28.800 Plastiktiere entluden sich in den Ozean: gelbe Quietscheentchen, rote Biber, grüne Frösche und blaue Schildkröten. Martin Visbeck vom Kieler GEOMAR erklärt, dass sich zufällig an dieser Stelle die Meeresströmungen von gleich zwei großen Wirbelsystemen überlappen, dem Subpolar- und dem Subtropenwirbel. Dies führte zu einem Transport der Plastiktiere, der zunächst nach Osten auf Seattle zu gerichtet war. Doch dort übernahm der Subpolarwirbel das Regiment und lenkte die Ladung nach Norden auf Alaska zu.

Ein paar Jahre sind die Plastiktiere im Nordpazifik erst einmal Karussell gefahren, so bestätigen es auch die Modellrechnungen der Wetter- und Ozeanografiebehörde der USA (NOAA). Da sich alle Wasserströmungen mit der Zeit weltweit austauschen, gelangte ein Teil der inzwischen etwas ausgeblichenen Plastiktiere über die Arktis hinweg in den Nordatlantik. Möglich war dies, weil seit einigen Jahren unsere nördliche Polkappe im Sommer zum größten Teil wegschmilzt.

Der US-Autor Donovan Hohn ging der Odyssee der Plastikentchen ergriffen nach und schrieb das Buch „Moby Duck“. Dabei stellte er fest, dass es zum ersten „Landfall“ in Alaska ungefähr zehn Monate nach der Havarie gekommen war, nachdem die Entchen über 3.000 km zurückgelegt hatten. Zu identifizieren waren und sind sie übrigens am Herstellervermerk auf der Unterseite: „First Years Inc.

Gemäß den Strömungsmodellen ist damit zu rechnen, dass einige dieser Tierchen auch an der Ostküste von Nordamerika an Land getrieben werden. Dort irgendwo ist der Sitz des Herstellers, der sogleich eine furiose Werbekampagne aus der Sache gemacht hat und jeden Fund dort mit 100 Dollar honorieren will.

Christian Haas ist Geophysiker am Alfred-Wegener-Institut, das sich in Bremerhaven befindet und zum Helmholz-Zentrum für Polar- und Meeresforschung gehört. Er erläutert, dass der Meeresspiegel des Nordpazifiks wegen seines relativ geringen Salzgehaltes etwas höher liegt als jener des Nordatlantiks. In der Folge gibt es im arktischen Ozean eine ständige Strömung von der Beringstraße zum Nordatlantik hin.

Der Nordpol verliert sein Eis

Christian Haas war schon öfter in der Arktis, unter anderem an Bord der Polarstern. Im September 1991 fiel es dem Eisbrecher noch schwer, das circa 2,5 m dicke arktische Packeis bis zum geografischen Nordpol hin zu knacken. Inzwischen hat sich die Eisfläche in dieser nördlichsten Region der Erde fast halbiert und Eisdickenmessungen verraten, dass sich gleichzeitig auch die Stärke der Eisplatten mehr als halbiert hat und im letzten Sommer weniger als einen Meter betrug.

Im Rahmen der MOSAiC-Expedition ließ man die Polarstern gezielt im Eis einfrieren, um die Strömungen und das Driften des Eises quantitativ zu erfassen. Wegen der Vorzugsrichtung von Ostsibirien nach Grönland ist das Eis auf sibirischer Seite besonders dünn und der Eisschwund dort sehr deutlich.

Die Polkappen sind für uns unentbehrlich

Der Strahlungshaushalt der Erde wird maßgeblich durch die Albedo (Rückstrahlvermögen) geregelt, die umso größer ist, je mehr helle Eisflächen den Planeten bedecken. Diese wirken wie Spiegel, die die eintreffende Sonnenstrahlung direkt wieder zurück in den Weltraum katapultieren. Werden diese kleiner, wird immer mehr Sonnenenergie von der Erde absorbiert.

Damit wird sogleich ein sich selbst verstärkender Teufelskreis eingeleitet, denn die vermehrte Energie, die auf der Erde verbleibt, führt zu zusätzlichem Abschmelzen der Polkappen, aber auch der Gletscher in den Hochgebirgen. Ein Ergebnis daraus ist die sogenannte „Arktische Amplifikation“, die bedeutet, dass sich die Polargebiete in den letzten Jahren messbar stärker erwärmt haben als der Rest der Erdkugel.

So kam es auch, dass die Gummitiere nur circa sechs Jahre lang im Packeis des Nordpols gefangen waren, kurz nach der Jahrtausendwende hat sie die Erderwärmung daraus befreit und ihnen den Weg in den Nordatlantik geöffnet. Tatsächlich treibt vor allem der Wind das Eis gegen den Uhrzeigersinn langsam von Alaska in Richtung Grönland, wo das Packeis Dicken bis fünf Meter erreicht.

Die Gletscher bewegen sich immer schneller

Durch das zunehmende Abschmelzen des Eises gelangen die Massen an Schmelzwasser immer tiefer durch Gletscherspalten hindurch bis auf das unterliegende Felsbett, wo das Wasser wie eine Art Gleitfilm für die aufliegenden Eismassen fungiert, die dadurch in eine beschleunigte Horizontalbewegung geraten. Von diesem Prozess ist Grönland in besonderem Maße erfasst und das hat Folgen.

Unter der thermohalinen Zirkulation verstehen Wissenschaftler unter anderem das Absinken von kaltem, salzreichen Oberflächenwasser, das sich durch eine etwas höhere Dichte auszeichnet, in die Tiefen des Ozeans. Es handelt sich sozusagen um eine riesige Umwälzpumpe im Sinne eines Antriebs einer großen Meeresströmung. Je mehr grönländische Gletscher in den Nordatlantik abfließen, desto geringer wird der Salzgehalt im Oberflächenwasser der Region, was die Effizienz der Umwälzpumpe bis auf null zurückfahren kann.

Der Nordatlantikstrom, von dem hier die Rede ist, ist im Prinzip die Verlängerung beziehungsweise Ergänzung des Golfstroms, der warmes Wasser aus der Karibik bis nach Nordnorwegen hochschaufelt und für West- und Nordeuropa geradezu eine „Fußbodenheizung“ darstellt. Wenn dieses große Strömungssystem durch ungebremsten Süßwassereintrag an der grönländischen Ostküste angehalten wird, bedeutet die Erderwärmung für Europa eine drastische Abkühlung des Klimas mit unabsehbaren Folgen.

Ein Indiz für die dramatischen Auswirkungen auf den Golfstrom könnte die sogenannte Kälteblase sein, das einzige Gebiet südlich von Grönland und Island, das sich während der letzten 100 Jahre abgekühlt hat. Jene Klimamodelle, die die thermohaline Atlantikzirkulation einbeziehen, weisen diesen Effekt auch in ihren Berechnungen nach. Überdies zeigen solche Modellrechnungen, dass die dadurch beeinflusste atmosphärische Zirkulation zu Verlagerungen des Jetstreams führt mit der Folge, dass es in Westeuropa zu stärkeren Stürmen und im Sommer zu mehr und intensiveren Hitzewellen kommt, was die Realität schon längst bestätigt hat.

Nur das Tiefenwasser ist eine effektive Kohlendioxidsenke

Während die oberflächennahen Wasserschichten bereits mit CO2 gesättigt sind, kann der tiefe Ozean noch schier unendliche Mengen davon lösen. Solange die Umwälzpumpe gut funktioniert und Oberflächenwasser in die Tiefe befördert, gibt es also einen dankbaren CO2-Abnehmer. Insofern ist die Abschwächung des Golfstroms auch unter diesem Aspekt fatal, da das Abschneiden dieser Kohlendioxidsenke zu noch schnellerer Erderwärmung führt.

Wie steht es eigentlich um das Immunsystem der Erde?

Tatsächlich verfügt unser Planet über eine Vielzahl von Regelkreisen, die eben gerade so einen sich selbst induzierenden Dynamo, der zu immer schnellerer Klimaerwärmung führt, verhindern sollen. Einer davon ist in den Wolken zu suchen. Sonnenanbeter, die immerzu über unser zu trübes Wetter klagen, sollten den Wolken unbedingt mehr Dankbarkeit zollen. Mehr Energieeintrag und stärkere Erwärmung bedeuten zugleich mehr Verdunstung und damit zunehmende Wolkenbildung.

Dicke zusammenhängende Wolkendecken sind vom Weltall aus gesehen so hell wie Eisdecken und erhöhen daher die Albedo maßgeblich. Dadurch wird mehr Sonnenlicht in den Weltraum reflektiert und die Erwärmung der Erdoberfläche lässt nach. Doch jeder Regelkreis hat eine begrenzte Dynamik. Die Selbstheilungskräfte der Natur sind für uns mitnichten ein Freibrief dafür, dass wir uns in diesem Paradies völlig danebenbenehmen dürfen.

An Strände angeschwemmt wurde übrigens erst ein Bruchteil der bunten Gummitiere. Es lohnt sich, weiterhin Ausschau zu halten nach einstmals gelben Enten, grünen Fröschen, blauen Schildkröten und roten Bibern. Bedenken Sie, dass das Plastik im Meer leider mehr als 100 Jahre überdauern kann.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 10.02.2022 erstellt.


Bildquelle:

Deutschlands gut gemeinte Bemühungen um Nachhaltigkeit erweisen sich als schädlich

Artig sind immer mehr Deutsche dazu bereit, auf die E-Mobilität umzusteigen, sind wir doch alle fest entschlossen, dem Klimawandel auf dem ganzen Planeten den Kampf anzusagen. Doch jede Medaille hat zwei Seiten, das weiß jedes Kind. In Argentinien und Chile, wo sich zurzeit die weltweit größten ausbeutbaren Lithiumvorkommen befinden, schmelzen deshalb die Lebensgrundlagen der dort ansässigen indigenen Völker zusammen. Aber gut, das ist ja nun wirklich sehr weit weg, fast auf der anderen Seite der Erde.

Das vorrangigste Problem besteht darin, dass der Lithiumabbau extrem viel Durst auf Wasser hat und genau das ist dort ein seltenes wertvolles Gut. Fakt ist, der vermeintlich nachhaltige Trendkonsum der westlichen Welt bringt die Natur und die Gesellschaften in Lateinamerika völlig aus dem Gleichgewicht. Schauen wir uns dazu ein weiteres Beispiel an.

Die Drogenmafia kontrolliert den Avocado-Anbau in Mexiko

Die Avocado gilt als die „Superheldin der Küche“, denn dieses vitaminreiche Superfood ist gut fürs Herz und kurbelt den Stoffwechsel an. Es ist zudem ein Gewinn für nahezu jedes Rezept, wird die Avocado doch als klimafreundlicher Fleischersatz gehandelt. Doch schauen wir noch einmal über unseren Tellerrand.

Ungefähr 150 km nördlich der chilenischen Hauptstadt Santiago befindet sich die Provinz Petorca. In dieser wüstenhaften Region fallen durchschnittlich nur circa 200 Millimeter Regen im ganzen Jahr. Mit den Menschen, die das bisschen Nass dort dringend zum Überleben brauchen, sind nun Millionen Obstbäume in Konkurrenz getreten. Es geht um eine ungefähr 8.000 Hektar große Fläche, auf der Exportobst, vornehmlich eben Avocados angebaut werden. Jeder einzelne Avocadobaum säuft rund 600 Liter Wasser pro Woche, so jedenfalls hat es die NGO „Rettet den Regenwald“ ausgerechnet.

Die Betreiberfirmen fördern das Wasser mit Pumpen aus Tiefbrunnen, um es in Bewässerungsteiche zu überführen. Für die ansässigen Kleinbauern ergibt sich daraus ein düsteres Bild: Ausgetrocknete Flüsse und verdorrter Vegetation, die Felder liegen brach und Grundwasser gibt es fast nicht mehr. Die Wasserwirtschaft ist in Chile übrigens Privatsache.

In Mexiko, allem voran in Uruapan, haben die Avocados die Gesellschaft schon gespaltet. Mehr als 40 Prozent der Avocados, die die USA importieren, stammen aus jener Region. Doch in Uruapan bestimmt nicht Wohlstand das Stadtbild, sondern ein geradezu brutaler Kampf um Marktanteile im lukrativen Avocadogeschäft. Lokalpolitiker, Gewerkschaftler oder Zwischenhändler sterben einen plötzlichen unnatürlichen Tod, wenn sie dem Geschäft vermeintlich irgendwie im Weg stehen. Während in den USA und Europa genüsslich gesund und klimaneutral geschmaust wird, werden in Lateinamerika dafür Menschen vertrieben oder ermordet.

Warum nicht den Klimawandel mit Biosprit stoppen?

Jürgen Trittin, einstmals grüner Bundesumweltminister, war begeistert über die Machenschaften des brasilianischen Präsidenten Lula da Silva (Amtszeit 2003–2011), der versprach, Europas Energieprobleme mit „seiner“ Biospritproduktion zu lösen. Zu Hause startete Trittin sofort nach seiner Rückkehr mit einer groß angelegten Lobbyarbeit für eine Energiewende, die sich an dem vorbildlichen Brasilien orientieren sollte. Wie hieß es damals so verheißend: „Der Acker wird zum Bohrloch des 21. Jahrhunderts, der Landwirt wird zum Energiewirt.

Professor Guilherme Ferreira ist Geograf und Umweltblogger aus Recife. Er sagt, dass der für unser Klima so wichtige Regenwald der Verlierer dieses blinden Aktionismus ist, denn für die Biosprit-Produktion wurden immense Agrarflächen gebraucht und diese fand man ausgerechnet im Amazonas-Dschungel, wo tropische Pflanzen und indigene Volksgruppen durch Monokulturen und Pestizide ersetzt wurden.

Im Bundesstaat Maranhao wurde zur Jahrtausendwende auf knapp 20.000 Hektar Zuckerrohr angebaut. Im Jahr 2019 war die Fläche für die Produktion von Bioethanol auf 47.400 Hektar angewachsen. Die gleiche Entwicklung sehen wir heute mit Blick auf Lithiumkarbonat. Unsere zukünftigen Vorzeigeautos fahren emissionsfrei, weil es in Brasilien keine Bäume mehr gibt, ein toller Umwelt-Deal.

Die Volkswagen AG kommentiert die Nachteile der Lithiumgewinnung damit, dass dafür kein Trinkwasser verwendet würde. Sehr wohl könne es sein, dass die Entnahme von Salzwasser dazu führt, dass Süßwasser nachströmt und der Grundwasserspiegel im Umfeld der Salare dadurch absinken könnte.

Glücklicherweise werden die satten SUV-Fahrer in Europa nicht müde, die zerstörerische Amazonaspolitik des rechtspopulistischen Präsidenten Jair Bolsonaro zu kritisieren. Ja, die Abholzung hat in dessen ersten drei Amtsjahren erheblich an Fahrt aufgenommen, weil er für eine krasse Liberalisierung von Umweltvorschriften gesorgt hat. Zudem wurde jenen Institutionen der Geldhahn abgedreht, die sich den Schutz der Umwelt zur Aufgabe gemacht haben, doch:

Die Lust auf Fleisch

Neben China braucht Europas Fleischindustrie immense Mengen an Soja als Tierfutter. Völlig richtig kontert Bolsonaro, dass unsere „alte Welt“ einst aus riesigen zusammenhängenden Urwäldern bestand, und erkundigt sich danach, wo die denn jetzt wohl seien. Umweltorganisationen haben abgeschätzt, dass circa sechs Prozent der weltweiten Sojaernte direkt für den menschlichen Verzehr als Tofu, Sojasprossen und Sojaöl verwendet werden, insofern trägt sogar vegane Ernährung einen kleinen Anteil zum Raubbau der Natur bei.

Die Umweltorganisation „Faszination Regenwald“ fordert zu Recht ein Umdenken, damit die flächenfressende Sojaproduktion im Amazonas gestoppt werden kann. Sie weist darauf hin, dass unsere Viehbestände eindeutig zu groß sind, um von einheimischen Futtermitteln ernährt werden zu können. Unsere Massentierhaltung sei überhaupt nur möglich, weil in Brasilien der Regenwald vernichtet wird. Wer das nicht will, muss seinen Fleischkonsum ganz drastisch überdenken.

 

 

 

Da gehen die Meinungen weit auseinander, vielleicht gerade deshalb, weil fast allein dem Kohlendioxid, das die Menschheit in die Atmosphäre entlädt, die ganze „Schuld am Klimawandel“ zugeschrieben wird, und dies nimmt zuweilen extrem dogmatische, ja religiöse Formen an. Wir möchten hiermit versuchen, etwas Licht ins Dunkel des Munkelns zu bringen.

Kein Geringerer als Greenpeace-Gründungsmitglied Patrick Moore erklärte auf Fox News, dass es sich bei der Bezichtigung des Kohlendioxids um „Fake-Wissenschaft“* handeln würde, denn gerade Kohlenstoff sei der unverzichtbare Baustein allen Lebens. In der Tat würden es die Bäume und Wälder schwer haben, würde der CO2-Gehalt unserer Lufthülle signifikant absinken.

*Confessions of a Greenpeace Drop-Out: The Making of a Sensible Environmentalist

Moore weist darauf hin, dass Klimaveränderungen auf unserem Planeten seit eh und je an der Tagesordnung sind. Dazu werden wir später noch auf die Klimakurven eingehen. Es mag allerdings sein, dass das, was im Moment geschieht, erdgeschichtlich gesehen ein relativ steiler globaler Anstieg der Temperaturen sein könnte, wobei die „Betroffenheit“ auf der Erde nicht gleichverteilt ist. Das heißt, es besteht keine Veranlassung dazu, dass wir uns in Deutschland auf mildere Winter freuen können, das Gegenteil könnte passieren.

Neben den großen globalen Vereisungen und Warmperioden gibt es zwischendurch auch viele kleine (hochfrequente) Schwankungen in der globalen Temperaturkurve, die zuweilen an einen mehr oder weniger hoch aufgelösten Börsenchart mit Trendkanälen erinnert. So endete zum Beispiel vor circa 300 Jahren eine kühlere Periode, die wir die „Kleine Eiszeit“ nennen, um das Klima in eine wärmere Periode übergehen zu lassen, in der wir noch heute mitten drin stecken.

Moore weist weiter darauf hin, dass der Bekanntheitsgrad der Umweltorganisation Greenpeace ungefähr Mitte der 1980er-Jahre aufgrund ihrer wichtigen Aktionen, die viel Anklang und viele Unterstützer fanden, richtig durch die Decke ging. Und das weckte Begehrlichkeiten, denn nun kamen enorme Geldsummen ins Spiel. Zudem setzte sich die extreme Linke mit ins Boot und damit passierte genau das, was eigentlich vermieden werden sollte. Die einst auf wissenschaftliche Erkenntnis gegründete Organisation wandelte sich in eine demagogische Brutstätte für Angstmache, Desinformation und Sensationalismus.

In diesem Zusammenhang erinnert Moore an den „Green New Deal“. Dabei geht es um einen sehr weitreichenden Klimaplan, der von Alexandria Ocasio-Cortez initiiert wurde, die den US-Demokraten angehört. Vorgesehen ist hierbei der Ausstieg aus allen Produktionsformen nicht erneuerbarer Energien, ungefähr so, wie wir es gerade in Deutschland aufgrund der diesbezüglich rigorosen Politik von Angela Merkel erleben. Allerdings ist der Zeitplan für das Aus- beziehungsweise Umstiegsszenario in den USA noch ambitionierter.

Grüne Politik bedeutet, dass nicht nur Kernreaktoren, die kaum Kohlendioxid emittieren, sondern aus ideologischen Gründen auch und sogar Wasserkraftwerke abgeschaltet werden sollen/müssen. Alles zusammen macht fast 98,5 Prozent unserer elektrischen Energie aus. Dass so etwas eine massive Staatskrise auslöst, muss wohl nicht extra betont werden.

Zurzeit ist es jedenfalls so, dass in etwa 90 Prozent der Weltbevölkerung von fossilen Energieträgern abhängig sind. Das Kohlendioxid, das bei der Verbrennung in die Atmosphäre entlassen wird, wurde vor vielen Millionen Jahren derselben entzogen, um es in und unter Sedimenten zu speichern. Seit nicht einmal 200 Jahren befreien wir diese Stoffe nach und nach aus ihrer Gefangenschaft. Was soll denn daran schlimm sein?

Eine Antwort darauf gibt möglicherweise die Betrachtung der Temperaturentwicklung:

Die Entwicklung der Temperatur der Erde

In Deutschland instrumentell gemessene Temperaturen liegen für die letzten 135 Jahre vor. Jeder kann sie auf der Webseite des Deutschen Wetterdienstes (DWD) einsehen. Anhand historischer Wetteraufzeichnungen, Torfkerne oder Höhlentropfsteine konnte die Temperaturgeschichte Deutschlands für die vergangenen 11.000 Jahre recht genau rekonstruiert werden.

Die Jahresdurchschnittstemperatur hat sich demnach innerhalb der letzten 30 Jahre um gut 0,5 Grad erhöht, wobei aber die kurzfristige Schwankungsbreite durchaus drei Grad überstreicht. Vergleicht man nur die Januartemperaturen, sind die Durchschnittswerte sogar um ein halbes Grad gefallen und ihre Variabilität erreicht ganze acht Grad.

Wählt man den Betrachtungszeitraum etwas größer, nämlich 150 Jahre, kommt man beim Anstieg der Jahresdurchschnittstemperaturen schon auf 1,5 Grad, wobei die späten 1980er-Jahre geradezu einen Sprung auf ein höheres Niveau markieren. Dieses Phänomen bildet sich auch in den Temperaturen des Oberflächenwassers von Nord- und Ostsee ab. Eine Erklärung dafür könnte in der Nordatlantischen Oszillation (NAO) liegen, die ebenfalls zu dieser Zeit Maximalwerte aufwies. Letztere wird maßgeblich von der Sonnenaktivität gesteuert, die auch erhebliche Einflüsse auf die Verteilung der Niederschläge in Europa hat.

Der „Mittelalterlichen Wärmeperiode“ (MWP) beziehungsweise Klimaanomalie (MCA) ist eine Forschergruppe um Robert Moschen nachgegangen. Die Wissenschaftler rekonstruierten die Temperaturdaten mittels Kohlenstoffisotope eines Torfkerns aus dem rheinland-pfälzischen Dürre Maar. Sie fanden heraus, dass sich die Durchschnittstemperaturen hierzulande seit der Kälteperiode während der Völkerwanderungen zwischen 500 und 700 n. Chr. bis zur MWP auf ganz natürliche Weise um über fünf Grad erhöht haben. Daran gemessen ist die heutige Erwärmung geradezu vernachlässigbar.

Die MWP bildet sich auch in den historischen Eisberichten über den Bodensee ab. Während der 300 Jahre vom 9. bis 12. Jahrhundert kam es nur in wenigen vereinzelten Wintern zu einem vollständigen Zufrieren des Bodensees (Seegfrörnen), ganz anders später in der „Kleinen Eiszeit“, denn im 15. und 16. Jahrhundert geschah dies gleich 14 Mal. Im 20. Jahrhundert gab es das Seegfrörnen nur im Winter von 1963.

 

Wer das Klima verstehen will, muss eine lange Zeitreise wagen

Mit Blick auf den immerwährenden Wechsel zwischen Warm- und Kältephasen sprechen Wissenschaftler von den klimatischen Millenniumszyklen, weil hierbei weltweit Wellenlängen von 1000 bis 2000 Jahre zu beobachten sind. Deren Ursache liegt zu einem großen Teil in der veränderlichen Sonnenaktivität, die sich sogar in der sauerländischen Bunkerhöhle abbildete und von einer Forschergruppe um Jens Fohlmeister untersucht wurde.

Stein des Anstoßes waren dort die Tropfsteine, die rhythmische Veränderungen in den Sauerstoffisotopen aufweisen. Daraus konnte ein immerhin 11.000 Jahre langer Kalender des natürlichen Klimawandels abgeleitet werden, der uns recht genaue Auskunft über den ständigen Wechsel warm-feuchter und kalt-trockener Phasen gibt. Gut erkennbar sind darin auch die oben erwähnte Kältephase der Völkerwanderungszeit, die MWP und die moderne Wärmeperiode.

Eine besonders warme Phase war das „Holozäne Thermische Maximum“ (HTM) vor 8000 bis 5500 Jahren (6000 – 3500 v. Chr.). Kühl & Moschen 2012 rekonstruierten die Temperaturdaten anhand fossiler Pollen, die sich im Bereich des Dürre Maars gebildet hatten. Damals lagen die Temperaturen in der Eifelregion noch über ein Grad höher als jene der heutigen Wärmephase (1990 – 2017). Auch Wissenschaftler des Geoforschungszentrums Potsdam (GFZ) haben sich mit dem Meerfelder Maar in der Eifel beschäftigt. Sie fanden heraus, dass es vor knapp 2.800 Jahren zu einer ziemlich abrupten Abkühlung kam, die immerhin fast 200 Jahre lang anhielt. Das Forscherteam um Celia Martin-Puertas konnte aufzeigen, dass jene Abkühlungsphase direkt mit einer solaren Schwächephase korreliert werden kann.

Wolken verdunkeln die Sonne zyklisch

Wolken kontrollieren geradezu den Strahlungshaushalt der Erde. In der Meteorologie wird der Grad der Bewölkung über den Parameter Sonnenscheindauer erfasst. Dieser wurde seit 1950 vom Deutschen Wetterdienst (DWD) kontinuierlich registriert und ist auf dessen Webseite für jeden einzusehen. Festzustellen ist hierbei ein wellenförmiger Verlauf, der zwischen 1977 und 1988 ein relatives Minimum aufweist. Man bedenke, dass auch der Sonnenfleckenzyklus elf Jahre beträgt.

Die relative Zunahme der Bewölkung korreliert mit einer stark negativen Phase im Ozeanzyklus „Atlantische Multidekaden Oszillation“ (AMO) und einem außergewöhnlich schwachen Sonnenfleckenzyklus. Aktuell im 21. Jahrhundert scheint die Sonne jedes Jahr durchschnittlich ungefähr 200 Stunden länger als noch in den 1980er-Jahren.

Als die Sonne erwachsen wurde

Sternentwicklung ist ein so komplexes Thema, dass wir darauf an dieser Stelle nicht eingehen wollen, aber eine kurze Aussage ist wichtig, um den folgenden Absatz besser einordnen zu können: Vor einer Milliarde Jahre war die Strahlkraft der Sonne geringer als heute.

Eine besonders aussagekräftige Darstellung der Gesamtsituation findet man im geologischen Kalender für den Monat Juli des Jahres 2019 (https://www.dggv.de/fileadmin/user_upload/7-2019.jpg/).

Hier wurden die Kalt- und Warmperioden in den verschiedenen Erdzeitaltern über der Verteilung von Stickstoff, Sauerstoff und Kohlendioxid in der Atmosphäre aufgetragen. Beim Verlauf der Durchschnittstemperaturen ist ein wiederkehrendes Grundmuster zu erkennen: Extrem lange Warmphasen werden jeweils von mehreren längeren, besonders kalten Phasen unterbrochen, wobei stets die sehr ausgedehnte Warmzeit ihrerseits noch einmal von einem kalten Einschnitt unterbrochen wird. Dieses Muster beherrscht den Planeten in immer gleichartiger Weise, obwohl gegen Ende des Präkambriums vor circa 600 Millionen Jahren der CO2-Anteil der Atmosphäre drastisch zurückging zugunsten des Anstiegs des Sauerstoffgehalts.

Nach Lesart der Kohlendioxidfeinde hätte dies eine Klimaänderung von einem extrem heißen Planeten hin zu einer Eiskugel sein müssen. Eine solche Korrelation ist aber nicht zu erkennen.

Die wundersame Regelmäßigkeit des Erdklimas der letzten Milliarde Jahre ist als Hinweis darauf zu werten, dass das Zusammenspiel bestimmter langwelliger Periodizitäten den Motor des Geschehens ausmacht. In frühen Arbeiten wurden schon Fourier-Analysen der Temperaturschwankungen vorgenommen mit dem Ergebnis, dass sich dahinter eine Überlagerung bestimmter bekannter Zyklen verbirgt. Zu nennen wären hier unter anderem die Exzentrizität der Erdbahn, die Präzession der Erde und die vom Mond ausgelöste Erdnutation.

Es gibt Dinge, die Ehrfurcht einflößen

Ohne jetzt esoterisch werden zu wollen, gibt es hier noch eine besonders bemerkenswerte Tatsache, die mit Fug und Recht als etwas metaphysisch aufgefasst werden darf. Dass die Erde während des Präkambriums unter ihrer Kohlendioxidglocke eben nicht in der Hitzestarre feststeckte, so, wie wir es heute von ihrer Schwester, der Venus, kennen, lag daran, dass die noch jüngere Sonne weniger intensiv strahlte.

Letztere drehte erst dann so richtig ihr Thermostat hoch, als in unserer Atmosphäre das Kohlendioxid nahezu vollständig in Pflanzen gebunden wurde und durch einen hohen Sauerstoffanteil ersetzt wurde. Es hat fast den Anschein, als gäbe es eine Kraft, die dafür gesorgt hat, dass die Erde ausreichend viel Zeit hat, komplexes Leben zu entwickeln.

Um Umkehrschluss heißt dies aber auch, dass es ein Zurück zu beträchtlichen CO2-Gehalten der Atmosphäre jetzt tatsächlich nicht mehr geben darf, ansonsten werden wir alle von der gestärkten Sonne gebraten.

„Bei der Atomkraft ist eines sicher, das Risiko“ lautet ein Spruch aus seligen Spontitagen vergangener Jahrzehnte.

Doch wie viel Wahrheit steckt in dieser Aussage?

Sind Atomkraftwerke eine sichere und saubere Energiequelle, oder schlichtweg zu unsicher und somit gefährlich?

In Deutschland sind zur Zeit (Stand Mai 2019) noch sieben Meiler am Netz.

Laut des Bundesamtes für kerntechnische Entsorgungssicherheit traten bei diesen Kraftwerken seit dem jeweiligen Tag ihrer Inbetriebnahme – sie stammen alle aus den 1980er Jahren – insgesamt 1.284 sogenannte „meldepflichtige Ereignisse“ auf.

Doch wir hatten sozusagen seither Glück im Unglück, denn angesichts dieser Zahl ist es mehr als verwunderlich, dass deutsche Kernkraftwerke bislang keinen schweren Atomunfall mit Kernschmelze fabrizierten.

Eine kurze Chronologie der Reaktor-Katastrophen

Andernorts ist so etwas bereits passiert. Die bekanntesten und gefährlichsten Atomunfälle mit Kernschmelze waren insoweit (in chronologischer Reihenfolge):

Windscale 1957

Der Windscale-Brand vom 10. Oktober 1957 im heutigen Sellafield in England markiert den ersten protokollierten schweren Atomunfall mit Kernschmelze.

Es wurde dabei eine radioaktive Wolke freigesetzt, die sich zum Glück für die in der Umgebung lebenden Menschen Richtung Meer absetzte. Nichtsdestotrotz starben infolge der Havarie insgesamt nach Schätzungen über 200 Menschen.

„Three Mile Island“ in Harrisburg

Beim Reaktorunglück im Kernkraftwerk „Three Mile Island“ in Harrisburg, Pennsylvania in den USA ereignete sich am 28. März 1979 eine sogenannte partielle Kernschmelze, da infolge von technischem und menschlichem Versagen die Reaktorkühlung unzureichend verlief.

Dadurch wurde radioaktives Gas (Krypton 85) in die Umwelt abgelassen. Von offizieller Seite wurde keine gesundheitliche Beeinträchtigung der Bevölkerung vermeldet, andere Studien kommen zu dem Ergebnis, dass die Krebshäufigkeit im Umland stark zugenommen habe.

Auf Youtube kann man sich noch den Tagesschau-Bericht dazu ansehen: https://www.youtube.com/watch?v=DGUnbsPrXZQ

Tschernobyl 1986

Am 26. April 1986 wurde durch eine komplette Kernschmelze in Block 4 des Reaktors in Tschernobyl in der damaligen UDSSR (heute in der Ukraine) zum ersten Mal ein Super-GAU ausgelöst.

Das gesamte umgebende Gebiet wurde kontaminiert und bis dato Sperrgebiet. Der radioaktive Fallout reichte bis Westeuropa. 50 Menschen starben unmittelbar an den Folgen der akuten Strahlenkrankheit; insgesamt sollen bis heute circa 4000 Menschen aufgrund dieser Katastrophe verstorben sein.

Und laut verschiedener Schätzungen und Untersuchungen ist das Reaktorunglück von Tschernobyl für tausende von Krebsfällen in der Ukraine und dem Rest Europas verantwortlich.

Fukushima 2011

In jüngster Vergangenheit hat die Nuklearhavarie von Fukushima vom 11. März 2011 gezeigt, dass auch Naturkatastrophen Auslöser von Kernschmelzen sein können.

Denn infolge des Tohoku-Erdbebens und eines darauf folgenden Tsunamis fiel die Kühlung der Reaktoren des Kernkraftwerkes Fukushima-Daiichi in Okuma, Japan aus.

Es kam zu einer Überhitzung der Brennelemente und damit zu Kernfusionen und dadurch bedingten Explosionen. Dieser Unfall gilt als der bislang zweitschwerster nach Tschernobyl. Große Mengen an radioaktivem Material gelangten in das komplette Ökosystem.

Die Zeitung „Tokyo Shimbun“ lässt im Jahre 2015 verlauten, dass über 1000 Menschen infolge der Katastrophe gestorben seien, allerdings soll der Großteil darunter auf Suizide zurückzuführen sein. Jedoch gehen Schätzungen davon aus, dass mehr als 66.000 zusätzlich Krebserkrankungen auf das Konto des Reaktorunglücks gehen können.

Diese kurze Darstellung der schwersten Atomunfälle mit Kernschmelze darf nicht darüber hinweg täuschen, dass die Liste der Störfälle, bei denen nicht gleich ein großes Medienecho zu vernehmen ist, sehr viel länger ausfällt.

Durch den Betrieb von Atomkraftwerken fällt täglich hochgiftiger, radioaktiver Abfall an. Dieser muss dringend sicher verwahrt werden, und zwar mit einem Zeithorizont von mindestens einer Million Jahren. Aber wie macht man das?

Allein in Deutschland werden mehrere Hunderttausend Tonnen strahlenden Atommülls in unsicheren Hallen und Kavernen „zwischengelagert“. In einigen Fällen handelt es sich um einsturzgefährdete ehemalige Salzbergwerke oder sogenannte Abklingbecken. Nicht zu unterschätzen sind überdies die strahlenden Gase und Stäube, die mit der Abluft und dem Abwasser aus den Atomanlagen direkt in die Umwelt gelangen.

Alle bisherigen Versuche zur dauerhaften sicheren Lagerung des strahlenden Mülls sind kläglich gescheitert. Das ehemalige Salzbergwerk Asse II, gut 8 km südöstlich von Wolfenbüttel gelegen, säuft ab und ist einsturzgefährdet. Der bereits eingelagerte Atommüll muss da unbedingt heraus. Knapp 10 km westlich von Wolfenbüttel befinden sich die Schächte Konrad I und II, die zu einer ehemaligen Eisenerzgrube gehören. Dort findet ein Ausbau für die Lagerung schwach- und mittelradioaktiver Abfälle statt, allerdings dringt auch dort schon Wasser ein.

Nur 6 km östlich von Helmstedt befindet sich bereits in Sachsen-Anhalt das Endlager Morsleben, dessen Situation mit der von Asse II gut vergleichbar ist. Seit den 1970er-Jahren wird der Salzstock Gorleben circa 15 km südöstlich von Dannenberg mit Blick auf seine Eignung als Endlager aufwendig wissenschaftlich-technisch erkundet mit dem Ergebnis, dass der Salzstock und sein Hutgestein von unzähligen Rissen und Klüften durchzogen sind und daher ebenfalls direkten Grundwasserkontakt haben.

Im Jahre 2017 wurde das Standortauswahlgesetz (StandAG) verabschiedet, um mit der Suche nach einem wirklich geeigneten Standort innerhalb Deutschlands zur Endlagerung des strahlenden Atommülls sozusagen ganz von vorne anzufangen. Da es aber einen gesellschaftlichen Konsens zum Umgang mit der strahlenden Hinterlassenschaft gar nicht gibt, wird die Endlagerung, ganz egal, wo sie dann stattfinden wird, auch in Zukunft zu massiven Demonstrationen und langwierigen rechtlichen Auseinandersetzungen führen.

Was wir heute schon wissen, ist, dass das alles viel Geld kosten wird. Daher haben (mussten) die AKW-Betreiber vorausschauend 24 Milliarden Euro in einen staatlichen Fonds eingezahlt. Eine Nachschusspflicht wurde aber, wahrscheinlich sogar absichtlich, versäumt zu vereinbaren. Da das Geld bei Weitem nicht reichen wird, muss der Steuerzahler wieder einmal mehr einspringen.

Trotz allem wurde und wird fleißig Atomstrom produziert

Das Atomgesetz besagte, dass Atomkraftwerke und andere Atomanlagen nur dann betrieben werden dürfen, wenn es sichergestellt ist, dass der entstehende Atommüll „geordnet beseitigt“ werden kann. Da dies ja niemand gewährleisten konnte, wurde das Gesetz 1979 dahingehend industriefreundlich abgemildert, dass der AKW-Betreiber lediglich für die nächsten sechs Jahre den Verbleib des strahlenden Mülls zu klären habe. Die daraufhin beantragten Baugenehmigungen für Zwischenlagerhallen laufen übrigens spätestens in den 2040er-Jahren aus.

Über welche Mengen reden wir hier eigentlich?

Ende 2022 wird in Deutschland auch das letzte noch Strom produzierende AKW abgeschaltet. Dann liegen in unserem Lande ungefähr 17.000 Tonnen hoch radioaktiven Mülls herum, das sind abgebrannte Brennelemente oder Abfälle der Plutonium-Abtrennung. Außerdem dürfen wir circa 600.000 Kubikmeter schwach- bis mittelradioaktive Abfälle unser Eigen nennen. Diese Abfälle befinden sich zumeist direkt an den AKW-Standorten, beim ehemaligen Kernforschungszentrum in Karlsruhe oder auf Halden anderer Sammelstellen.

Das Endlager Morsleben wurde bereits in der DDR genutzt. Dort liegen 37.000 Kubikmeter Atommüll, der bis ins Jahr 1998 weiter angehäuft wurde. Im ehemaligen Salzbergwerk Asse II gibt es 200.000 Kubikmeter strahlenden Mülls, und wenn alle Reaktoren endlich abgerissen sind, kommen nochmals 200.000 Kubikmeter dazu. Ach ja, da wäre auch noch die Urananreicherungsanlage Gronau, die uns mit zusätzlichen 100.000 Kubikmetern Uranmülls beglücken wird.

In Asse II befindet sich vor allem schwach- und mittelradioaktiver Abfall

Asse II wurde einst kurzerhand zu einem Forschungsbergwerk umgewidmet. Von 1967 bis 1978 wurde dort nahezu der gesamte in Westdeutschland anfallende schwach- und mittelradioaktive Abfall untergebracht, sodass dort heute knapp 124.500 Fässer mit schwachradioaktiven Abfällen und fast 1.300 Fässer mit mittelradioaktiven Abfällen lagern. Deren Quellen sind Atomkraftwerke, Atomforschungszentren, die Atomindustrie, Atommüllsammelstellen sowie die Wiederaufarbeitungsanlage Karlsruhe.

Die Eignung dieses Bergwerks für eine Einlagerung von Atommüll wurde nie geprüft Einige Fässer sind nachweislich korrodiert oder weisen Leckagen auf, wobei eine Vielzahl der Abfälle flüssig ist. Sogar circa 28 kg Plutonium sind dabei und mindestens 94 Fässer enthalten kugelförmige Brennelemente aus dem Versuchsreaktor AVR (Kernforschungszentrum Jülich).

Ganz schlecht für das Grundwasser

Die Gesellschaft für Strahlenforschung (GSF) war der Betreiber von Asse II im Auftrag des Bundes und passte die Annahmebedingungen stets flexibel so an, dass diese gut mit dem angelieferten Atommüll übereinstimmten. In den Jahren 1969 und 1970 wurden die zulässigen Grenzwerte klar überschritten. Durch deren Heraufsetzen um 500 Prozent konnte das Problem schnell erledigt werden.

Ungefähr im Jahre 2009 wurde es dann amtlich: Seit 1988 dringen jeden Tag circa zwölf Kubikmeter Wasser in die Stollen ein. Dadurch entsteht unten im Bergwerk eine Salzlauge, die unter anderem mit radioaktivem Plutonium, Americium und Cäsium kontaminiert ist. Durch den Druck aus der Bevölkerung kam nun die Politik schwerfällig zu der Auffassung, dass der Atommüll dort so nicht verbleiben kann. Seit 2017 ist die Bundesgesellschaft für Endlagerung (BGE) Betreiber dieser havarierten Atommüllkippe und damit beauftragt, eine Rückholung der Fässer zu erledigen. Allerdings hat sie damit noch Zeit bis 2033. Die gut sechs Milliarden Euro dafür bezahlt natürlich die Allgemeinheit.

Könnte es etwa sein, dass Atommüll ungesund ist?

In der Zeit von 2002 bis 2009 erkrankten in der Samtgemeinde Asse dreimal so viele Menschen an Schilddrüsenkrebs und doppelt so viele an Leukämie, wie es die mittleren statistischen Erwartungswerte vorgeben.

Zwischenlager für hoch radioaktive Abfälle

In Abklingbecken der Atomkraftwerke lagern abgebrannte Brennelemente bis zum Sankt-Nimmerleins-Tag. Oder die Brennelemente sowie die hoch radioaktiven Rückstände aus der Wiederaufarbeitung und der Abtrennung von Plutonium werden in Castor-Behältern eingepfercht.

Solche heißen, tonnenschweren Atommüll-Behälter befinden sich heute in 16 Zwischenlagern, die über die ganze Republik verteilt sind. In Neckarwestheim sind das oberflächennahe Stollen, ansonsten meistens oberirdische Betonhallen, alle mit großen Lüftungsschlitzen ausgestattet. Die Dichtheit der Behälter wurde gemäß Zulassung für immerhin 40 Jahre garantiert.

Gegen den Absturz eines Passagierflugzeugs oder gar gegen außer Rand und Band geratene moderne panzerbrechende Waffen sind solche Lagerstätten nicht gerüstet. Es gab in der Sache einen Rechtsstreit, woraufhin dem Zwischenlager Brunsbüttel die Genehmigung entzogen wurde. Dass die anderen Zwischenlagerhallen keinen Deut stabiler sind, dafür hat sich offenbar noch niemand interessiert.

Rache als Kriterium für eine Standortwahl

Die Entscheidung für das Endlager Gorleben, genauer für das „Nuklearzentrum“, im Jahre 1977 so dicht an der Grenze zur DDR durch den damaligen niedersächsischen Ministerpräsidenten Ernst Carl Julius Albrecht war eine Art politische Rache für Morsleben. Ein atomrechtliches Genehmigungsverfahren gab es dafür nicht, somit auch keine Beteiligung der Öffentlichkeit. Das Deckgebirge über dem Salzstock Gorleben ist nicht dicht, obwohl dies schon damals eine Voraussetzung gewesen wäre. Gemäß StandAG darf Gorleben bei der Neuorientierung erst einmal nicht ausgeschlossen werden.

Auch bei der neuen Suche nach einem deutschen Atommüll-Endlager haben politische Interessen das größere Gewicht als wissenschaftliche Vernunft. Was ist damit gemeint?

  • Die Öffentlichkeitsbeteiligung erfolgt lediglich auf dem niedrigen Niveau von Information und Anhörung. Der Rechtsschutz für Betroffene ist von vorn herein von untergeordneter Bedeutung.
  • Die Öffentlichkeit wird immer erst dann informiert, wenn praktisch schon vollendete Tatsachen geschaffen worden sind. Die formal gewährten Reaktionszeiträume reichen in der Praxis nicht aus.
  • Das Standortauswahlgesetz sieht vor, dass der Atommüll-Lager-Standort bis 2031 vorliegen muss. Dies ist für ein Unterfangen dieser Tragweite ein ziemlich ambitionierter Zeithorizont.

Wiederaufarbeitung und Transmutation

Warum sollte man nicht den hoch radioaktiven Atommüll einfach wieder aufarbeiten? Wäre das nicht ein vorbildliches Recycling? Nein, denn in einer Wiederaufarbeitungsanlage (WAA) wird die Menge des Atommülls sogar vervielfacht. Besonders problematisch ist dabei das in nahezu reiner Form anfallende Plutonium, das liebend gern von Hinz und Kunz für den Bau von Atombomben verwendet wird. Zum anderen fällt dabei eine hoch radioaktive, sich immer weiter selbst erhitzende, explosionsgefährdete „Atomsuppe“ an.

Verglichen mit La Hague ist die Wiederaufarbeitungsanlage Karlsruhe (WAK) geradezu winzig. Dennoch sind dort fast 70 Kubikmeter Atommüll angefallen, deren Verglasung allein schon circa 2,6 Milliarden Euro verschlungen hat.

Die Wiederaufarbeitungsanlagen in Sellafield und La Hague verfrachten enorme Mengen an Radionukliden in die Luft und ins Wasser. Aus diesem Grunde dürfen die Brennelemente aus deutschen Atomkraftwerken seit 2005 nicht mehr in diese Wiederaufarbeitungsanlagen transportiert werden.

Die Transmutation bedeutet jetzt kein Themenwechsel hin zur Biologie. Es geht vielmehr um eine neue Nukleartechnologie, mit deren Hilfe Atommüll in weniger schädliche Stoffe umwandelt werden kann, also um eine Illusion, die den Wiedereinstieg in die Atomenergie beflügeln soll. Auf jeden Fall würden die riskanten Arbeitsprozesse enorme Energien verschlingen, wobei eine solche Anlage pro Jahr maximal circa 300 kg Atommüll verarbeiten könnte.

Da aber mehrere Hunderttausend Tonnen Atommüll vorliegen, kann jeder leicht abschätzen, dass uns dieser Job mindestens 100.000 Jahre lang beschäftigen würde.

Wenn Sie die Überschrift lesen, reiben Sie sich vermutlich die Augen, doch es stimmt: Die unerlaubte, höchst gefährliche (Fehl-)Bedienung eines Atomkraftwerks ist nicht sehr teuer. Die Staatsanwaltschaft Moosbach hat eine amtliche Hausnummer genannt: Es kostet 20.000 Euro.

Was ist geschehen?

Etwas aus Sicht von Fachleuten sehr Gefährliches: Die Betreiber des Kernkraftwerks Obrigheim haben dessen Betrieb fahrlässig und ungenehmigt über Jahre wesentlich geändert.

Technisch handelt es sich um die Funktionsfähigkeit einer vorgesehenen Sicherheitseinspeisung für Notkühlsysteme. Diese verhindert den GAU im ältesten deutschen AKW.

Sie funktionierte schon seit Jahren nicht mehr richtig, doch die verantwortlichen Betriebsleiter nahmen das hin.

Aus „verfahrenstechnischen Gründen“ erschien es ihnen zu aufwendig, die eingeschränkte Funktion:

  • zu melden und
  • zu beseitigen bzw. auf ihre Beseitigung zu drängen – auch wenn das mit einem Abschalten des Blocks (und somit einem hohen finanziellen Aufwand durch Produktionsausfall und Reparaturkosten) verbunden gewesen wäre.

Das ist ungefähr so, als ob Sie mit Ihrem Auto im Winter mit Sommerreifen fahren, weil Ihnen das Geld für den Wechsel fehlt. Motto: Wird schon nix passieren, wenn Sie nur recht vorsichtig unterwegs sind.

Keine strafrechtlichen Folgen

Die Sache wurde gemeldet und untersucht, es folgten Ermittlungen seitens der Staatsanwaltschaft.

Nach drei Jahren stellte schließlich die Anklagebehörde (Staatsanwaltschaft Moosbach) zwei laufende Verfahren wegen des “unerlaubten Betriebs von kerntechnischen Anlagen” gegen die Zahlung einer Geldbuße von 20.000 Euro ein. Zwei Verfahren waren angestrengt worden, weil in der Kontrollzentrale des AKW die Manager und Techniker gemeinschaftlich und damit doppelt versagt hatten.

Die Techniker wussten um diesen Zustand und hatten ihn den Managern gemeldet, sich aber nicht geweigert, die Anlage weiter zu bedienen. Auch waren sie nicht an die Staatsanwaltschaft herangetreten.

Die Manager haben auf ihrer Ebene auf ähnliche Weise versagt. Entdeckt worden war der technische Zustand nur, weil es ihn auch in anderen AKW gab.

Zuerst hatte man ihn im ebenfalls sehr alten AKW Philippsburg festgestellt, danach in anderen EnBW-Atomkraftwerken (was System vermuten lässt).

Überall wurden Ermittlungen eingeleitet, Strafverfahren aber wieder eingestellt. Das geschieht aus juristischer Sicht, um die Gerichte nicht zu überlasten, die Beschuldigten aber auch nicht freizusprechen.

Die Schuldfrage bleibt ungeklärt.

Ebenso wissen wir bis heute nicht, wie gefährlich der technisch mangelhafte Zustand eigentlich war. Wünschenswert wäre daher eine deutlich nachhaltigere juristische Aufarbeitung.

Beitragsbild: fotolia.com – Africa Studio