Warum nehmen Hitzewellen und Dürren zu? Und was hat der BLOB damit zu tun?

Um diese Frage zu beantworten müssen wir uns mal den Wind anschauen.

Wind ist eine Folge des Ausgleichs zwischen Hoch- und Tiefdruckgebieten, wobei die Corioliskraft eine ganz entscheidende Rolle spielt. Der Klimawandel verändert nun die gewohnten großen saisonalen Windsysteme auf dem gesamten Planeten. Im Schlepptau dessen werden Extremwetter wie Dürren oder Starkregen auch in Regionen wie Mitteleuropa immer wahrscheinlicher, die bislang eher davon verschont waren. In der Arktis steigen die Temperaturen deutlich schneller als in allen anderen Klimazonen und deshalb sind gerade dort die Antworten auf viele Fragen zu finden.

Atlantische Hurrikans entwickeln sich schon seit eh und je zunächst in tropischen Zonen nahe dem Äquator und bewegen sich dann regelmäßig in Richtung Ostküste der USA, wo sie ganze Landstriche verwüsten. Doch dies geschieht nun weitaus öfter, intensiver und zu sogar außerhalb der typischen Hurrikan-Saison.

Über der gesamten Nordhalbkugel sorgen die steigenden Temperaturen dafür, dass das wichtige Windsystem „Nordpolar-Jetstream“, das sich in ungefähr zehn Kilometern Höhe befindet, ins Schlingern gerät. Dessen Winde sausen nahezu laminar mit bis zu 500 km/h von Westen nach Osten um das riesige Nordpolargebiet.

Doch in den letzten Jahren schwächelt dieser Luftstrom und das hat Folgen, insbesondere für Europa. Herbe Dürreperioden, wie sie das Jahr 2018 mit sich brachte, und Regenkatastrophen, wie sie uns beispielsweise der Sommer 2021 beschert hat, werden zukünftig immer öfter auftreten. Verursacht wird das Ganze in der Arktis, weil dort die Temperaturen schneller steigen als überall sonst auf dem Planeten.

Der Klimawandel ändert die Winde und die veränderten Windsysteme beschleunigen ihrerseits den Klimawandel, das ist ein klassischer Teufelskreis, den wir unbedingt durchbrechen müssen, denn alles hängt mit allem zusammen. Im Pazifik zum Beispiel war in den letzten Jahren eine geradezu tödliche Warmwasserblase zu beobachten.

Was hat es mit dem Blob auf sich?

Ungefähr seit der Jahrtausendwende gibt es vor der nordamerikanischen Westküste immer wieder verheerende Hitzewellen, die als „Blob“ bezeichnet werden. Zuletzt kostete ein solches dreijähriges Ereignis (2019 bis 2021) Abertausenden Walen, Robben und Seevögeln das Leben. Das Wissenschaftler-Team um Armineh Barkhordarian von der Uni Hamburg hat sich dieses Phänomens angenommen.

Der Blob nimmt auf dem Pazifik eine Fläche von bis zu drei Millionen Quadratkilometern ein. Die Wassertemperatur liegt in diesem riesigen Areal bis zu sechs Grad Celsius über dem langjährigen Durchschnitt, viel zu warm für so viele Tiere. Außerdem begünstigt das warme Wasser eine giftige Algenblüte, die dem Wasser viel Sauerstoff entzieht.

Dass der Temperaturanstieg auf menschengemachte Treibhausgase zurückzuführen ist, ist nach Aussage der Wissenschaftler so gut wie sicher. Während des vergangenen Vierteljahrhunderts ist die Wassertemperatur im nordöstlichen Pazifik in jedem Jahr um durchschnittlich 0,05 °C angestiegen. In der Folge haben sich die Hochdruckgebiete im Winter über dem Wasser verstärkt, das heißt, die Wolkenbildung ist reduziert, sodass die Sonne das Meer nahezu ungehindert erwärmen kann, und zwar etwas mehr als die nächtliche Abstrahlung an Wärme-Energie abzieht.

Seit der Jahrtausendwende traten über 30 Hitzewellen im Pazifik auf, wodurch die Ökosysteme dramatisch belastet wurden und die Biodiversität massiv bedroht ist. Wird dabei eine kritische Schwelle überschritten, ist eine Erholung prinzipiell nicht mehr möglich.

Auch frühere Studien haben bereits aufgezeigt, dass Blob-Ereignisse durch den Klimawandel zukünftig ungefähr 20-mal wahrscheinlicher auftreten. Tatsächlich wären die Folgen katastrophal, sollte es auf unserem Planeten insgesamt um „nur“ drei Grad wärmer werden.

An düsteren Vorwarnungen zu diesem Thema hat es das Intergovernmental Panel on Climate Change (IPCC) im Rahmen seiner bislang 14 Sonderberichte nicht mangeln lassen. Dennoch veröffentlichte das Fachjournal PNAS im März 2022 seine „Perspektive“ unter dem Titel „Klima-Endspiel“.

Hans Joachim Schellnhuber, Gründer des Potsdam-Instituts für Klimafolgenforschung (PIK), und Johan Rockström, gegenwärtiger PIK-Chef, werfen dem Klimarat und überhaupt den Entscheidungsträgern auf dieser Welt vor, sich um die alles entscheidende Frage herumzudrücken, die da lautet:

Kann der vom Menschen gemachte Klimawandel zum Zusammenbruch der Gesellschaften und sogar zum endgültigen Aussterben der Menschheit führen?

Dass der Klimarat vergleichsweise moderate Töne anschlägt, liegt sehr wahrscheinlich daran, dass er nicht der Panikmache bezichtigt werden möchte. Immerhin ist er darauf angewiesen, in seinen Formulierungen einen Konsens mit mehr als 190 Staaten zu finden. Es gibt aber noch einen gewichtigeren Grund: Würde der Klimarat jetzt schon deutlich höhere Temperaturen in Aussicht stellen, dann würde das proklamierte Ziel der Begrenzung der Erderwärmung auf 1,5 Grad ad absurdum geführt werden. „Wenn alles egal ist“, braucht sich niemand mehr bemühen.

Die von zunehmender Hitze betroffenen Länder in Nordafrika und am Persischen Golf sind zum einen sehr dicht besiedelt und zum anderen politisch besonders instabil, was große Gefahren birgt. Die zu erwartenden sozialen und politischen Folgen tangieren zwei Atommächte und zurzeit insgesamt sieben Hochsicherheitslabors, die die gefährlichsten Krankheitserreger enthalten. Der Weg in die Katastrophe hat viele Facetten, nicht nur Hitze, Stürme, Starkregen, Erdrutsche oder das Verschwinden ganzer Inselketten.

Wenn es in der Erdgeschichte zu einem Massenaussterben kam, war stets ein massiver Klimawandel daran beteiligt. Ganze Imperien sind nachweislich dadurch zugrunde gegangen und unsere empfindliche moderne Zivilisation ist mit Sicherheit noch weniger dagegen gefeit.

Dieser Beitrag wurde am 22.08.2022 erstellt.

Methan: Bedenklicher Anstieg in der Atmosphäre

Im Beitrag “Auf der Jagd nach undichten Stellen“, der zuerst auf spektrum.de erschien, ging die Autorin Tamara Worzewski der Frage nach, weshalb das Methan in unserer Atmosphäre eigentlich ansteigt. Die Autorin machte uns freundlicherweise darauf aufmerksam, dass es in unserem folgenden Beitrag noch einige Unstimmigkeiten gäbe, die wir hier selbstverständlich nachbessern werden.

Zunächst der bisherige Beitrag:

Das deutsche Forschungsschiff (FS) Heincke trägt unter dem Bug ein Fächerecholot, mit dessen Hilfe Schallwellen in bestimmten Frequenzen ausgesendet werden. Gefunden werden damit unter anderem Gasblasen in der Wassersäule. Es geht um eine Ausfahrt auf die Nordsee im Jahre 2019 mit dem Ziel, Methanaustritte am Meeresboden aufzuspüren. Im Fokus stehen insbesondere die Bereiche um Altbohrungen. Dabei reden wir von mehr als 16.000 stillgelegte und mit Zement verfüllte Bohrlöcher, die allein am Grunde der Nordsee verteilt liegen.

Gleich nach Kohlendioxid (CO2) ist Methan (CH4) das zweitwichtigste Treibhausgas. Es entstammt zum Teil natürlichen Quellen, das Thema Gashydrate wird später noch gestreift, belastet die Atmosphäre aber auch in zunehmendem Maße durch anthropogene Aktivitäten. Da sind zum Beispiel die Methanaustritte sowohl im Umfeld der aktiven Erdgas- und Erdölförderung als auch der vielen Altbohrungen.

Die gute Nachricht ist, dass Methan ungefähr nur zehn Jahre in der Atmosphäre verbleibt, das ist deutlich kürzer als beim Kohlendioxid, dessen Verweildauer mehr als 100 Jahre beträgt. Die schlechte Nachricht ist, dass Methan über einen Zeitraum von 20 Jahren betrachtet das Klima in etwa 85-mal stärker beeinflusst als CO2.

Der Geochemiker Martin Blumenberg von der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) zählt die Schritte der Erdgasvorkette von der Produktion bis zur Nutzung so auf:

  • Bohrung
  • Förderung
  • Reinigung
  • Komprimierung
  • Transport via Gasleitungen
  • Verteilung auf die Länder
  • Nutzung durch Gasheizungen
  • Nutzung zur Stromproduktion in Kraftwerken

Bild: pixabay – jpenrose

Bei jedem Einzelnen dieser Schritte kann Gas verloren gehen, und das nicht zu knapp. Im Jahre 2018 veröffentlichte der Environmental Defense Fund (EDF) in der Fachzeitschrift Science die Erkenntnis, dass die jährlichen Methangas-Leckagen in der amerikanischen Erdgaskette mit wenigstens 13 Millionen Tonnen deutlich höher liegen als bislang angenommen.

Mittels Satelliten können solche Gasaustritte im infraroten Spektralbereich übrigens sichtbar gemacht werden. Das EDF will deshalb noch in 2022 den Satelliten MethaneSat in eine Erdumlaufbahn bringen. Aber auch die künftigen europäischen Satelliten CO2M und Sentinel5 werden hochauflösende Methanmessungen durchführen. Derartige Messungen über Wasseroberflächen kann man zwar machen, aber welchem Ursprungsort könnte dort wohl eine Methanfahne zugeordnet werden?

Deutschland hat einen „Entenschnabel“

Der eher kleine deutsche Anteil an der Nordsee hat eine etwas merkwürdige Umrandung, die im nordwestlichen Bereich stark ausdünnt und von der Form her mit viel Fantasie an einen Entenschnabel erinnert. Blumenberg wollte 2019 mit anderen Kollegen aus der BGR, des GFZ-Potsdam und des Bremer MARUM genau diesen Entenschnabel auf Gasaustritte hin untersuchen, doch der Sturm tobte so heftig, dass die Aktion abgebrochen werden musste.

Trotzdem konnten auf dem FS Heincke verschiedene ozeanografische, geophysikalische und geochemische Methoden auf die Wassersäule angesetzt werden, um erhebliche Gasansammlungen und Methanaustritte zu kartieren und nachzuweisen. Einen ausführlichen Bericht darüber aus dem Jahre 2021 finden Sie in Frontiers of Earth Sciences.

Bei fast jeder Bohrung wird Erdgas in die Umwelt freigesetzt

In den Geowissenschaften wird unterschieden zwischen dem (heißen) thermogenen Methangas, das aus einigen Kilometern Tiefe gefördert werden soll, und dem biogenen Gas, welches durch mikrobielle Prozesse bei niedrigen Temperaturen in der Nähe der Erdoberfläche entsteht. In etwa 90 Prozent der natürlichen marinen Gasaustritte sind biogener Natur. Bohrlöcher können nach neuesten Erkenntnissen zwei Leckage-Prozesse in den biogen methanhaltigen Sedimenten in Gang setzen.

Beim Bohren schließt das nachgeschobene Rohr nicht sofort dicht an das umgebende Gestein an. Wird eine gashaltige Sedimentschicht angebohrt, kann entlang der äußeren Rohroberfläche im Ringraum Methan nach oben strömen. Aus diesem Grunde wurden Richtlinien erarbeitet, die besagen, dass in europäischen und norwegischen Gewässern kein thermogenes Gasreservoir angebohrt werden darf, falls eine höhere Wahrscheinlichkeit besteht, dass an dieser Stelle eine oberflächennahe biogene Gasansammlung durchbrochen wird.

Die Wissenschaftler vom GEOMAR haben dazu noch eine Hypothese aufgestellt. Sie gehen inzwischen davon aus, dass die Quellen der Gasaustritte an den alten Bohrlöchern sogar relativ weit entfernt liegen. Dies liegt sehr wahrscheinlich daran, dass der Untergrund im Umfeld der Bohrung eine Druckentlastung erfahren hat, wodurch sich ein weitestgehend horizontaler Druckgradient, entlang dessen nun das Gas diffundiert, eingestellt hat. Bei einem dieser Bohrlöcher, aus dem biogenes Gas ausströmte, lag die nächste flache Gasansammlung einen ganzen Kilometer weit entfernt. Zwar wird Gas im Wasser gelöst, aber die Nordsee ist als Flachmeer maximal 120 Meter tief, sodass in etwa ein Drittel des austretenden Methans doch bis in die Atmosphäre gelangt.

Bild: pixabay – Shaun Undem

Das Team um Mathias Haeckel vom GEOMAR schätzte ab, dass aus den 1.700 Bohrlöchern in ihrem Untersuchungsgebiet bis zu 3.700 Tonnen Methan austreten könnten, was in der Fachwelt allerdings noch umstritten ist. Haeckels folgerichtiger Vorschlag, in Zukunft im Umkreis von einem Kilometer um eine oberflächennahe Gasansammlung kein tieferes Bohrloch zu setzen, kommt jedenfalls in der Öl- und Gasindustrie gar nicht gut an.

2021 veröffentlichte eine Forschergruppe um Miriam Römer vom MARUM in Frontiers in Earth Science ein Modell über die Entstehung biogenen Gases, das verdeutlicht, dass es offenbar sehr viele natürliche marine Methanaustritte auf dem Meeresboden geben muss. Aber auch mit Blick auf die vielen historischen Öl- und Gasbohrungen an Land, die es insbesondere in Niedersachsen gibt, haben die Wissenschaftler der BGR schon interessante Untersuchungsergebnisse über Bodenluft-Analysen vorgelegt.

Im Oktober 2021 enthüllten Journalisten des amerikanischen Medienzentrums Boomberg L.P. in gleich mehreren Medienberichten, dass es viele alte, leckende Gasbohrungen in den Appalachen gibt, bei denen von einer ordentlichen Versiegelung keine Rede sein kann, denn das fachgerechte Zubetonieren einer einzigen Bohrung kostet mehr als 10.000 Dollar.

Bereits im Sommer 2021 wies die Deutsche Umwelthilfe (DUH) signifikante Methan-Emissionen an 15 oberirdischen Erdgasanlagen nach. Bis vor wenigen Jahrzehnten wurde das Erdgas in Deutschland durch gusseiserne Rohre geleitet, die an ihren Schweißnähten immer wieder Undichtigkeiten aufwiesen. Inzwischen wurden diese aber durch Kunststoffrohre ersetzt. Wegen der vielen Leckagen zirkuliert sogar die Meinung, dass Kohle für Klima und Umwelt am Ende das geringere Übel darstelle. Auf jeden Fall sollten wir Erdgas lediglich als eine Art Brückentechnologie verstehen.

Was sind Gashydrate beziehungsweise Methanhydrate?

Hierbei handelt es sich um Gemische und Verbindungen, die bei eher geringer Temperatur und relativ hohem Druck einen festen Aggregatzustand angenommen haben. Bei den Bestandteilen handelt es sich unter anderem um:

  • Edelgase wie Argon, Krypton, Xenon
  • Halogene wie Brom und Chlor
  • Aromatische Kohlenwasserstoffe
  • Alkane wie Methan, Ethan, Propan
  • Wasser

Natürliche Gashydrate enthalten in erster Linie Methan (CH4) und Kohlendioxid (CO2) sowie etwas Schwefelwasserstoff (H2S). Erstmals entdeckt wurden Gashydrate im Jahre 1811 durch Humphry Davy in der Form von Chlorhydrat. Um 1930 verstopfte dann eine eisartige Substanz mehrere Erdgaspipelines, die durch kalte Regionen führten. Dieses Problem besteht grundsätzlich beim Transport von Erdgas durch kalte Gebiete. Man begegnet dieser Situation mit bestimmten Chemikalien, den sogenannten Inhibitoren, die dem Gas beigemischt werden.

Erst 1965 entdeckte der sowjetische Erdölingenieur Yuri Makogon natürlich vorkommende Gashydrate in den Sedimenten unterhalb eines sibirischen Erdgasvorkommens. Ganz entscheidend für die Bildung natürlicher Gashydrate sind die Parameter Druck und Temperatur in ihrer spezifischen Kombination, eine hohe Gaskonzentration im Sediment oder im Porenwasser vorausgesetzt. Unter bestimmten Druck-Temperaturbedingungen (P-T-Bedingung) werden die Gasmoleküle im Zuge der Clathratbildung in einem Gitter aus Wassermolekülen „eingefangen“. Im Ergebnis enthält nur ein Kubikmeter Gashydrat gleich 164 m³ Gas.

Die Clathratbildung findet auch im Porenraum von Sedimenten statt, die dadurch erheblich verfestigt werden, was zum Beispiel für die Stabilität von Kontinentalhängen sehr wichtig ist. Wenn aus irgendeinem Grunde die leichten Gashydrate frei werden, steigen sie in der Wassersäule schnell nach oben auf, wobei sie durch die Druckentlastung und die zunehmende Temperatur zu Gas werden. Zwar sind Gashydrate innerhalb der Sedimente recht stabil, aber über längere Zeiträume betrachtet unter Einbeziehung der Umwälzprozesse durch die Kontinentaldrift werden immer wieder größere Anteile von ihnen instabil.

Bild: pixabay – Patrik Houštecký

Aus seismischen Untersuchungen wissen wir, dass gerade in den Schelfbereichen der Kontinente erhebliche Methanhydrat-Lagerstätten vorhanden sind. Zwar sind sie als Energiequelle eine zukünftige Option, doch gegenwärtig stellen sie eher einen Turbo für den Klimawandel dar. Durch die bereits eingesetzte Erwärmung der Meere kommt es vermehrt zu massiven Entgasungen der Methanhydrate, weil der für sie erforderliche P-T-Bereich nicht mehr gegeben ist. Das erhöht nicht nur den Methangehalt der Atmosphäre, was die Erwärmung weiter antreibt, sondern destabilisiert auch größere Bereiche von Kontinentalhängen mit der Folge, dass es dadurch immer wieder zu einem gefährlichen Storegga oder Tsunami kommen kann.

Beitragsbild: pixabay – Michael-Treu.

Dieser Beitrag wurde erstmalig am 2.6.2022 erstellt.

Klimaschutz und Konsumdeppen vertragen sich nicht!

Wirtschaftskonzerne, Politik und Medien hämmern uns seit vielen Jahrzehnten das Mantra des ständigen Wachstums in unsere Hirne. Kein Wunder, dass so viele Menschen das so glauben und sogar überzeugt davon sind. Zwar zeichnete sich die daraus generierte ökologische Katastrophe schon in den 1960er-Wachstumsjahren ab, zum Beispiel bei einem verstohlenen Blick aufs Ruhrgebiet, aber darauf reagiert hat kaum jemand.

Inzwischen sind weitere 60 Jahre vergangen und eine zunehmende Zahl an jungen Klima-Aktivisten ist weltweit unterwegs mit dem dringenden Wunsch, den Klimakollaps vielleicht doch noch abzuwenden. Manche von ihnen haben den fatalen Zusammenhang zwischen Überbevölkerung des Planeten, Energieverschwendung, Konsumrausch, Umweltvergiftung und Zusammenbruch der Biosphäre begriffen, doch all die anderen machen weiter wie bisher nach dem vermeintlich einzig attraktiven Motto: Geld regiert die Welt.

Die Bundesregierung hat sich bemüht, gegenzusteuern. Es wurde der Kohleausstieg vorangetrieben, Hausbesitzer wurden gezwungen, ihre Häuser zu dämmen, was nicht selten wegen der vermehrten Schimmelbildung auf Kosten der Gesundheit geht, die Glühlampe wurde verboten und durch vermeintlich viel klimafreundlichere LED-Sparlampen ersetzt, unzählige Verbrennungsmotoren, die noch viele Jahre ihren Dienst tun würden, werden verschrottet, um der E-Mobilität Vorschub zu leisten und so weiter. In der Tat bestätigte sich die Hoffnung, dass andere Länder dem deutschen Vorzeigebeispiel zumindest in Teilen folgen.

Aber was nützt das alles, wenn gleichzeitig andere Länder gegeneinander Kriege führen?

Da wird schweres Kriegsgerät über weite Landschaften geschoben, Kampfhubschrauber toben über Städte, Jagdbomber lassen Tanklager explodieren. Ein einziger Kriegstag vernichtet mit Blick auf den Klimaschutz das in 20 Jahren Erreichte anderer Länder. Ist das ein Irrsinn!

Dem Planeten ist es egal, ob es sich um einen aggressiven Angriffskrieg oder um einen defensiven Verteidigungskrieg handelt. Auch Letzterer wäre vermeidbar, würde man sich noch an jene alten, weisen Hippies erinnern, die einst sagten: „Stell dir vor, es ist Krieg und keiner geht hin“. Der Geist von Woodstock „make love and peace, but not war“ ist mit der heutigen Generation leider gestorben.

Klimaschutz und die vielen anderen Problemlösungen, die den gesamten Planeten betreffen, setzen eine geeinigte Weltgemeinschaft voraus, die keine Nationalstaaten mehr zulässt. Dabei kommt es überhaupt nicht darauf an, unter welcher Ägide oder nach welchen „Werten“ eine solche Weltregierung geführt wird. Hauptsache ist, wir ziehen alle gleichzeitig an einem Strang in die gleiche Richtung.

Betrachten wir eine Alternative zum globalisierten Wirtschaftswachstum etwas genauer

Darüber ist in den Wirtschaftswissenschaften schon lange eine Debatte entbrannt. Da sind diejenigen, die gerade in mehr Wachstum und Innovationen einen Schlüssel für die Nachhaltigkeit sehen, und jene, die der Postwachstumsbewegung des Umweltökonomen Niko Paech anhängen, der „grünes Wachstum“ für eine Illusion hält.

Paech forscht und lehrt an der Universität Siegen und weiß, dass jetzt ein „Zeitalter des Weniger“ dringend erforderlich ist, wollen wir weitere Krisen verhindern. Unsere Gesellschaft muss sich dahingehend wandeln, Güter zu teilen und immer wieder zu reparieren. Für Lebensqualität brauchen wir endlich einen ganz anderen Maßstab.

Schon vor über 50 Jahren stand im Bericht des Club of Rome geschrieben, dass unser Wirtschaftssystem kollabiert, wenn die Menschheit so weitermacht. Paech hält diese Formulierung sogar für eine „fulminante Untertreibung“, denn damals ging es ja nur um die Verknappung der Ressourcen und um eine Überlastung der Ökosphäre im Kontext des zu straffen Bevölkerungswachstums. Die Folgen einer totalen Globalisierung mit den Instabilitäten der weltweit verzweigten Spezialisierungen und eine Technologieabhängigkeit, die uns alle in höchstem Maße gefährdet, waren damals überhaupt noch nicht im Fokus.

Der Krieg in der Ukraine ist so ein Anlass, der die installierten Abhängigkeiten ins Wanken bringt. Deutschland bezieht 55 Prozent des importierten Erdgases aus Russland. Diesen Energieträger in überschaubarer Frist zu substituieren, ist unmöglich, weil der größte Teil des Immobilienbereiches von Gas abhängig ist. Wenn überdies Metalle und seltene Erden knapp werden, ist die Krise nicht mehr abzuwenden. Kleine Impulse reichen aus, um unser Kartenhaus zusammenbrechen zu lassen.

Wir können und müssen es uns abschminken, auch in China, Indien oder Afrika einen Wohlstand aufbauen zu wollen, der in etwa mit jenem vergleichbar ist, der bei uns vor 30 Jahren zu verzeichnen war. Die gegenwärtige ökonomische Situation Chinas basiert bereits auf der Ausplünderung Afrikas. Gleichzeitig zeigen uns die Farben der chinesischen Flüsse an, was in Europa gerade Mode ist.

Es bleibt die Frage, wie wollen wir Lebensstandard bemessen? Ist es der Pro-Kopf-Verbrauch an Gütern oder vielleicht doch eher die psychosoziale Stabilität eines Landes? Die moderne Konsumforschung lehrt uns, dass Menschen innerlich ausbrennen, wenn man sie immer mehr Konsummöglichkeiten aussetzt. Die damit verbundene Lawine unüberschaubarer Selbstverwirklichungsoptionen überfordert die Menschen in gleich mehreren Hinsichten. Wir sollten nicht den Fehler machen, Lebensqualität und Lebensstandard in einen Topf zu werfen.

In seinem Buch Befreiung vom Überfluss plädiert Paech für eine Reduktion des individuellen Konsums, um die Wirtschaft auf diese Weise nachhaltig zu machen. Dabei spielt es gar keine Rolle, ob es eine Regierung ist, die einen autofreien Sonntag oder einen auf 20 kg begrenzten Jahresfleischkonsum pro Kopf verordnet, oder ob die Menschen aus Vernunft und Einsicht solche Schritte mitgehen.

Wir dürfen dabei in der Tat auf die Fantasie der Menschen hoffen. Irgendwo werden neue Lösungsansätze erprobt, die sich vielleicht gut bewähren und deshalb vielerorts aufgegriffen werden. Daraus erwächst dann eine neue Bewegung. Nur in einer solchen Situation ist die Regierung in der Lage, ohne politischen Selbstmord dabei zu helfen, dass sich diese Neuerung durchsetzt, indem Rahmenbedingungen oder Anreizsysteme und nicht zuletzt entsprechende Gesetze geschaffen werden.

Die CO2-Steuer ist leider reine Makulatur. Die vielen Bezieher mittlerer und höherer Einkommen beeindruckt sie jedenfalls nicht genug, um zum Beispiel die Anzahl der Urlaubsflüge signifikant zu reduzieren. Kommen wir deshalb noch kurz auf das Stichwort Postwachstumsökonomie zu sprechen.

In Oldenburg gibt es ein kommunales Ressourcenzentrum, wo postwachstumstaugliche Lebensweisen gemeinschaftlich entwickelt und erprobt werden können. Daran beteiligen sich auch Unternehmer, Handwerker und Freiberufler. Einen Schwerpunkt bildet die Reparatur von Gütern, die sonst auf dem Müll landen würden, sowie deren gemeinschaftliche Nutzung. Außerdem nimmt dort die Selbstversorgung einen breiten Raum ein, um zu zeigen, dass es durchaus ohne Kängurufleisch aus dem Outback geht.

Es ist doch eigentlich ganz logisch, dass sich vier oder fünf Menschen völlig problemlos ein Auto, einen Staubsauger, einen Rasenmäher, die große Leiter oder die Waschmaschine teilen könnten, etwas guten Willen vorausgesetzt. Das würde allen Beteiligten nicht nur viel Geld sparen, sondern auch viel Energie und Ressourcen für all die Produkte, die nun gar nicht mehr produziert werden müssten. Überdies brauchen Produkte, die nicht hergestellt wurden, auch keinen Lagerplatz, der gerade in den Großstädten zu einem Problem geworden ist.

Bislang waren wir alle „Konsumdeppen“, die einen mehr oder weniger spezialisierten Beruf ausübten. Die Postwachstumsökonomie bietet uns dagegen Strukturen, die uns wieder kompetent machen, die Dinge selbst zu reparieren, Anbau in kleinem Rahmen zu betreiben und unsere Nahrungsmittel selbst zuzubereiten und Waren eigenhändig zu produzieren, um sie gemeinsam mit anderen Menschen zu nutzen. Wer am Ende des Tages sehen und anfassen kann, was er mit seiner Hände Arbeit erschaffen hat, erfährt einen deutlichen Zuwachs an Freiheit und Glück.

Beitragsbild: pixabay.de – Noupload

Dieser Beitrag wurde am 23.04.2022 erstellt.

Hohe Hürden für die Energiewende

Die Abhängigkeit Deutschlands vom russischen Gas ist gerade in aller Munde, aber überhaupt nichts Besonderes, haben wir uns doch mit der Globalisierung gleichzeitig blind in tausend Abhängigkeiten gestürzt, und zwar von Ländern, die in puncto Menschenrechte mitnichten besser dastehen als Russland.

Aber bleiben wir erst einmal in Europa. In den letzten Monaten ist die Berichterstattung über Serbiens Hauptstadt Belgrad möglicherweise aus bekannten Gründen etwas untergegangen. Dort haben Tausende Menschen gegen Rio Tinto demonstriert, weil der australisch-britische Konzern in Jadar im Westen Serbiens ein Bergwerk zur Gewinnung von Lithium und Bor errichten will. Die Menschen ahnen allerdings, was das für ihre Umwelt, für ihre Gesundheit und für die Gesellschaft insgesamt bedeutet.

Fakt ist, dass in dem Maße, wie wir fossile Energieträger durch Sonnen- und Windenergie ersetzen wollen, erst einmal Bergwerke für (Metall)Erze entstehen müssen, doch die will niemand in seiner Nähe haben.

Das Pariser Klimaabkommen gibt uns noch 28 Jahre für einen Prozess, an dessen Ende der Ausstoß klimakritischer Gase auf null zurückgeschraubt worden sein muss. Es geht also um einen massiven industriellen Wandel, der auf eine ganz andere Rohstoffbasis gestellt wird. Gemäß dem Bericht der Internationalen Energieagentur (IEA) erfordert eine moderne Fotovoltaikanlage gut doppelt so viele metallische Rohstoffe wie ein Kohlekraftwerk mit etwa gleicher Leistung und bei Onshore-Windenergieanlagen sind das gleich fünfmal so viele Metalle. Sogar die siebenfache Menge brauchen Offshore-Windräder.

Das Seltenerd-Metall Neodym zum Beispiel wird zur Herstellung von Permanentmagneten benötigt und bietet den Vorteil, dass Windkraftanlagen weniger wartungsintensiv sind. Die Deutsche Rohstoffagentur (DERA), die der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) angehört, hat sich wissenschaftlich mit dem voraussichtlichen Rohstoffbedarf für die Energiewende auseinandergesetzt. Aus ihrem Bericht geht unter anderem hervor, dass sich der globale Bedarf an Neodym bis zum Jahr 2040 wahrscheinlich versechsfachen wird. Eine ganz ähnliche Prognose gilt demnach für mehr als 20 andere kritische Metalle.

Die Energiewende erfordert neue Technologien, die wiederum alle einen enormen Bedarf an exotischen Metallen wie Scandium oder Iridium aufweisen. Neben Solar- und Windenergieanlagen geht es da zum Beispiel um:

  • Elektrofahrzeuge
  • Stationäre Stromspeicher
  • Großanlagen für die Wasserelektrolyse zur Produktion von „grünem Wasserstoff“
  • Rechenzentren
  • Quantencomputer
  • Radiofrequenz-Mikrochips für die 5G- und 6G-Funkmasten
  • Meerwasserentsalzungsanlagen

Es liegt also auf der Hand, dass viele Volkswirtschaften in neue Abhängigkeiten stürzen werden, die in einem direkten Zusammenhang mit solcherlei Metallen stehen.

Bergbau war einst eine deutsche Domäne

Interessanterweise ging die deutsche Wiedervereinigung mit dem Rückzug des deutschen Metallbergbaus in Ost und West einher. Die Vorkommen sind dort durchaus nicht in jedem Fall erschöpft, aber die zunehmende Zahl neuer Umweltgesetze, die hohe Standards für Vorsorge- und Sicherheitsmaßnahmen fordern, haben den Bergbau in Deutschland absolut unrentabel gemacht. Überdies wurden sogar die Reserven kritischer Rohstoffe aufgelöst, gibt es doch so viele Länder, deren Lohnniveaus auf unbestimmte Zeit unschlagbar niedrig liegen.

Die geopolitischen Spannungen haben allerdings in den letzten Jahren dramatisch zugenommen und ein Ende dieser fatalen Entwicklung ist leider nicht in Sicht. Damit schließt sich die Tür für günstige Rohstoffeinfuhren immer weiter zu. Zu Beginn des Ukraine-Krieges stieg beispielsweise der Nickel-Preis innerhalb von nur zwei Tagen um ungefähr 250 Prozent, was ein temporäres Aussetzen des Handels erforderlich machte. Dabei ist Nickel nicht einmal so selten und Russland stellt lediglich ein Zehntel der globalen Fördermenge bereit.

Schon lange vor dem Ukraine-Konflikt forderten Wirtschaftsverbände wie der BDI, dass Deutschland seine Versorgung mit metallischen Rohstoffen dringend wieder in die eigene Hand nehmen muss. Tatsächlich hat die sonst so träge Europäische Kommission 2020 die European Raw Materials Alliance auf die Beine gestellt, ein Bündnis mit dem Auftrag, die Versorgungssicherheit der europäischen Industrie zu verbessern. Der Fokus liegt hierbei auf einer verstärkten Zusammenarbeit mit stabilen Partnerstaaten wie Australien oder Kanada sowie auf der Unterstützung nachhaltigen Bergbaus in afrikanischen Staaten.

Der Geologe Jens Gutzmer leitet seit vielen Jahren das Freiberger Helmholtz-Institut für Ressourcentechnologie und weiß, dass Deutschland praktisch nichts dafür getan hat, neue Bergwerke zu erschließen, weil so etwas allein die Aufgabe der Wirtschaft sei. China hat dagegen verstanden, dass der Abbau von Rohstoffen weitgehend in staatliche Hand gehört, und so läuft es dort auch seit den 1990er-Jahren. Inzwischen dominiert China nicht nur den Abbau und die Verarbeitung der Seltenen Erden, sondern auch die Prozessketten um Gallium, Vanadium und Indium.

Kommen wir nun noch einmal auf das Geschehen in Serbien zurück, weil es so deutlich zeigt, was mit der EU los ist. Im Jahre 2013 suchte die serbische Regierung händeringend nach Investoren sowohl für die Kupfermine als auch für die Kupferhütte in der Nähe der Kleinstadt Bor im Osten des Landes, denn gerade wegen der Entdeckung einer neuen Kupferlagerstätte wäre das frühere Industriekombinat nun sanierbar gewesen.

An Interesse einiger Bergbauunternehmen fehlte es nicht, sehr wohl aber an wohlwollenden Bürgschaften von Regierungen in der EU. So blieb der serbischen Regierung gar nichts anderes übrig, als dem chinesischen Unternehmen Zijin den Zuschlag zu erteilen. Das war 2018. Inzwischen werden in Bor jährlich mehr als 27.000 Tonnen Kupferkonzentrat gefördert, die entlang der chinesischen Seidenstraße von Europa weg diffundieren.

In der westspanischen Extremadura birgt der Untergrund reiche Lithiumvorkommen, aber die Anwohner lehnen ein Bergwerk geschlossen ab. Weiter nordwestlich in Portugal wird sogar das größte Lithiumvorkommen Europas vermutet. Doch der portugiesische Präsident Marcelo Rebelo de Sousa hat sich klar gegen ein Bergwerk ausgesprochen.

Nach massiven Protesten gegen die Kupfermine bei Jadar entschied sich die serbische Premierministerin Ana Brnabic Anfang des Jahres 2022 gegen das Projekt. Der Grund des Unmuts hat mit den enttäuschenden Erfahrungen zu tun, die im Zusammenhang mit dem chinesisch geführten Kupferbetrieb in Bor bereits gemacht worden sind, denn dort haben sich die wirtschaftlichen Verhältnisse der Anwohner praktisch nicht verbessert. Das Unternehmen stellte vorwiegend Arbeitskräfte aus China und Vietnam ein, aber mit der schlechten Luftqualität durch die Kupferproduktion mussten sich alle herumplagen.

 

Eine Problemlösung könnte in der Kreislaufwirtschaft liegen

Die Automobilwirtschaft beklagt die gestörten Lieferketten schon seit vielen Jahren, was dem zunehmenden Einbau von elektronischen Komponenten in die Fahrzeuge geschuldet ist. Elektrofahrzeuge enthalten die siebenfache Menge metallischer Rohstoffe als Autos mit Verbrennungsmotoren. In weniger als zehn Jahren will daher zum Beispiel Volkswagen einen großen Teil der Metalle, die in Elektrowagen verbaut sind, zurückgewinnen. Dies sollte die Abhängigkeit von Importen drastisch verringern. Bei Windrädern und auch bei hochwertigen Solarzellen können die Produktzyklen aber durchaus 30 Jahre und mehr betragen, sodass hierbei ein Rohstoffkreislauf nur sehr verzögert anrollen kann.

Im Übrigen ist die Verfahrenstechnik beispielsweise zur wirtschaftlichen Rückgewinnung des in einer Fotovoltaikzelle dünn aufgedampften Galliums noch längst nicht entwickelt. Die Rückgewinnung von Hightech-Metallen aus den elektronischen Komponenten verschrotteter Fahrzeuge ist Stand heute viel zu teuer, als dass ein solches Unterfangen überhaupt probiert würde.

 

Wie immer reagiert die Politik mit unrealistischen Vorschriften

Im Rahmen des Green Deal der EU-Kommission wird nun ein schärferes Recycling wertvoller Metalle vorgeschrieben. Die nachhaltig steigenden Rohstoffpreise könnten dazu führen, dass sich Bergbau in Ländern mit strengen Umweltgesetzen und hohem Lohnniveau wieder etablieren kann, solange das Recycling von Rohstoffen noch so komplex und teuer ist. Natürlich bedeutet das am Ende der Kette eine deutliche Verteuerung der Produkte.

Ob wir es uns dann noch leisten können, dass (laut IEA) die Schaffung eines neuen Bergwerks vom Planungsbeginn bis zur Aufnahme der Produktion ungefähr 16 Jahre dauert, steht auf einem ganz anderen Blatt. Ohne einen beherzten Abbau von Bürokratie wird es wohl nicht gehen.

Was bisher geschah, dass die europäischen Gutmenschen mit ihrer einengenden Gesetzgebung ihren nachhaltigen Umweltschutz nachweisen, während sie zur gleichen Zeit billig Rohstoffe oder Kleidung aus weniger entwickelten Ländern aufkaufen, auf die sie mit dem moralischen Finger zeigen, das ist extrem verlogen und wurde in der Welt als solches längst erkannt

Dieser Beitrag wurde am 23.04.2022 erstellt.

Ist die Alternative zu Nord Stream 2 flüssiges Fracking-Gas aus den USA?

Es ist kein Geheimnis, dass die US Amerikaner ihr teures Flüssiggas gewinnbringend loswerden wollen und deshalb darauf dringen, dass Nord Stream 2 erst gar nicht in Betrieb genommen wird. Doch dass gerade Deutschland sich an einer „Erpressung“ Russlands mit der Abnahme von Erdgas beteiligen soll, um sich ins eigene Fleisch zu schneiden, ist extrem trauriger Irrwitz.

Grüne Politik, die Klimaschutz zur Chefsache gemacht hat, möchte, dass ein Milliardenprojekt, in das so viel Arbeit und Material, Energie und Umweltbelastung geflossen ist, vollkommen sinnlos fertiggestellt worden ist, um sich niemals zu amortisieren, das muss man sich mal auf der Zunge zergehen lassen. Solcher Art Handeln ist ein Schlag ins Gesicht jedes einzelnen umweltbewussten Bürgers, der vom Auto aufs Fahrrad umgestiegen ist oder für teures Geld gezwungen wird, sein Haus zu isolieren.

Die Importe von Flüssiggas sind angeblich ein Beitrag zum Klimaschutz

Und die Grünen werden es wohl schaffen, der deutschen Bevölkerung das so zu verkaufen. Deutschland ist in der Tat längst zum geostrategischen Spielball degradiert worden. Kräfte, die nicht zu bändigen sind, schaffen gerade vollendete Tatsachen durch die Schaffung von Infrastruktur. Nein, nicht die russische Ostsee-Pipeline ist gemeint, sondern insgesamt drei Flüssiggas-Terminals in Niedersachsen und Schleswig-Holstein, wo bald Riesentanker aus den USA Fracking-Gas anliefern werden, das ist seitens der USA beschlossene Sache.

Dabei sind die geplanten LNG-Importe (Liquified Natural Gas) aus Sicht des Umwelt- und Klimaschutzes mehr als bedenklich. Dies geht zumindest aus einem Gutachten der Deutschen Umwelthilfe hervor. So wird das Flüssiggas in riesigen Tankern transportiert, deren Länge zum Teil 350 Meter beträgt. Mehrere solche Ungetüme werden in Stade jede Woche anlanden. Logisch, dass dafür die Elbe weiter ausgebaggert werden muss.

Überdies ist die Ladung hochexplosiv. Zufällig befindet sich im Hafen eine beeindruckende Chemiefabrik von Dow Chemical und ganz in der Nähe ist ein Atommülllager geplant. Unnötig zu erwähnen, dass ein Naturschutzgebiet direkt an den Hafen angrenzt.

 

Seit Jahren arbeiten PR-Agenturen der Gas-Lobby an der Botschaft, dass Erdgas unser Klima schützt.

Niedersachsens Ministerpräsident Stephan Weil (SPD) wird nicht müde zu betonen, dass Gas vielleicht das wichtigste Vehikel „auf dem Weg zur klimaneutralen Gesellschaft“ sei. Wie Mecklenburg-Vorpommern hat auch Niedersachsen eine landeseigene Erdgas- oder besser LNG-Agentur, die den niedersächsischen Steuerzahlern jedes Jahr circa 750.000 Euro kostet.

Laut Weltklimarat IPCC ist Methan, der Hauptbestandteil von Erdgas, für ungefähr 25 Prozent der menschengemachten Erderwärmung verantwortlich. In einem Beitrag des Fachmagazins Nature wurde kürzlich nachgewiesen, dass die Methankonzentration in der Atmosphäre gerade in den letzten 20 Jahren exorbitant zunahm.

Abgesehen davon, dass Erdgas auf jeden Fall zu den Klimakillern gehört, kommt es zusätzlich noch darauf an, wo und wie Erdgas gefördert wird. Klar, dass die Länge des Transportweges einen Einfluss haben muss, hinzu kommen die Methanlecks an den Bohrstellen und in den Leitungen, die es bei allem Bemühen nun mal gibt.

 

Hinsichtlich der Klimabilanz ist Gas eben nicht gleich Gas

Der größte Teil des Erdgases wird in den USA aus sehr tiefen, stark kompaktierten Sedimentschichten gefördert. Da der Porenraum meistens sehr dicht verpresst ist, entweicht das oftmals in Tonschiefer oder Sandstein gespeicherte Gas mitnichten freiwillig. Es muss dazu aufwendig geradezu gezwungen werden. Dafür steht das Wort „Fracking“.

Zu diesem Zweck wird Wasser unter extrem hohem Druck in diese Gesteinsschichten eingepresst, um die dort bereits vorhandenen tektonischen Störungen, die zum Teil wieder „verheilt“ sind, aufzusprengen. Auf diese Weise werden druckentlastete „Wegigkeiten“ für das Gas geschaffen, das über diese Pfade langsam zur Oberfläche hin diffundieren kann. Das Ganze wird noch mit bestimmten Chemikalien garniert, die dabei helfen sollen, den Prozess zu optimieren. Um was genau es sich bei diesen toxischen Stoffen handelt, ist natürlich Betriebsgeheimnis der daran beteiligten Konzerne.

Abgesehen von der damit verbundenen Grundwasserkontamination gilt es heute als nachgewiesen, dass Fracking Erdbeben auslöst.

Kurze Betrachtung zum erforderlichen Druck

Mit wie viel Energie die Pumpen dabei anhaltend gespeist werden müssen lässt sich vielleicht erahnen, wenn man sich einmal den enormen Gesteinsdruck vor Augen führt, der mit dem Wasserstrahl überwunden werden muss.

Pro zehn Meter Wassertiefe nimmt der Druck um eine Atmosphäre zu. Da tiefere Sedimentgesteine über Dichten von oft mehr als 2.500 Kilogramm pro Kubikmeter verfügen, macht so eine zehn Meter mächtige Gesteinsplatte einen zusätzlichen Druck von circa 2,5 Atmosphären aus. Die Bohrungen bis zu den begehrten Fracking-Positionen gehen nicht selten bis über 5.000 Meter in die Erdkruste hinein. Dort herrschen dann ein Druck um 500 x 2,5 = 1.250 Atmosphären und eine Temperatur von mehr als 160 Grad Celsius. Um das Gestein unter solchen Druck-Temperatur-Bedingungen aufzusprengen, muss chemisch behandeltes Wasser in großen Mengen mit noch höherem Druck verpresst werden.

Es geht immer was in die Umwelt verloren

Dass es zu Gaslecks kommt, ist kein Geheimnis und wird sogar im Fall der Fälle an die Umweltbehörde der USA gemeldet. Im Fachmagazin Science erschien 2018 eine Studie, aus der die Abschätzung hervorgeht, dass aus den dort offiziell gemeldeten Gaslecks circa 60 Prozent mehr Gas entwichen war, als der US-Umweltbehörde bekannt war. Die US-Umweltorganisation Environmental Defense Fund belegt mit eigenen Messungen, dass allein an den Förderstätten in den USA ungefähr 1,4 Millionen Tonnen Gas in die Luft entweichen.

Wird das Flüssiggas schließlich mit Containerschiffen über die Weltmeere verfrachtet, kommt eine weitere erhebliche Energiemenge im Verein mit Umweltverschmutzung auf die Rechnung. Zur Verflüssigung muss das Gas auf -163 Grad Celsius herunter gekühlt werden. Sinn der Sache ist die drastische Volumenreduktion des Gases auf den nur noch sechshundertsten Teil des ursprünglichen Volumens. Am Bestimmungsort angekommen erfolgt die Rückwandlung in Pipelinegas, die als „Regasifizierung“ bezeichnet wird.

Vor der Einspeisung ins Gasnetz sieht die Prozesskette von LNG so aus:

  • Gasförderung
  • Gasaufbereitung einschließlich Gastransport via Pipelines
  • Verflüssigung
  • LNG-Transport
  • Regasifizierung (optional)

Die Klimabilanz von Pipelinegas ist nachweislich etwas besser

So jedenfalls lassen sich die Ergebnisse einer diesbezüglichen Studie des Fraunhofer-Instituts für System- und Innovationsforschung verstehen. Es sind vor allem die geringeren Vorkettenemissionen, die diese Erkenntnis untermauern, wenngleich sich dieser Vorteil mit zunehmender Länge der Pipeline immer weiter relativiert. Die Ostseepipelines Nord Stream I und II weisen Längen um 1.200 km auf, was aber unter diesem Aspekt noch im Rahmen ist.

Ganz egal, welche wirren Entscheidungen aus vorgeschobenen politischen Beweggründen nun für oder gegen Nordstream 2 beziehungsweise die Flüssiggas-Terminals getroffen werden, Fakt ist, dass die EU beschlossen hat, bis 2050 die Verbrennung fossiler Energieträger, wozu eben auch Erdgas gehört, zu beenden. Wir sind daher gut beraten, Nordstream 2 die paar verbleibenden Tage noch zu nutzen, damit sich der Bau dieses Großprojektes wenigstens noch ein paar Prozent amortisieren kann, alles andere wäre unverantwortliche Verschwendung unserer ohnehin schwindenden Ressourcen.

Die vermeintliche Abhängigkeit vom russischen Gas, die uns die Amerikaner gebetsmühlenartig einreden, entbehrt insofern ihrer Grundlage, weil die Sowjetunion während des gesamten Kalten Krieges ohne jegliche Zwischenfälle Gas nach Europa geliefert hatte. Wer die Geschichte ein bisschen kennt, weiß, dass Handel zwischen den Nationen eine ganz wesentliche Basis für friedliches Miteinander ist.

Dieser Beitrag wurde am 07.04.2022 erstellt.

Sébastien Roubinet segelte durch die Nordwestpassage

Die bislang problematische Nordwestpassage entlang der Nordküste des amerikanischen Kontinents mit dem Schiff zu befahren, wird „dank“ des Klimawandels immer realistischer und eines Tages vielleicht eine zuverlässig schiffbare verkürzende Reiseroute zwischen Pazifik und Atlantik sein. Bereits im Jahre 2007 ist es sogar gelungen, die mehr als 7.200 km lange Strecke ohne Motorkraft nur mithilfe des Windes zu meistern.

Dazu bedurfte es allerdings einer besonderen Segelboot-Konstruktion, die auf den Namen Babouche getauft wurde und von Sebastien Roubinet entworfen worden war. Roubinet hat das Schiff zudem maßgeblich selbst gebaut, um dann auch noch die herausfordernde Expeditionsleitung zu übernehmen.

Für den Bau des 7,5 Meter langen Eiskatamarans brauchte sein Team etwas mehr als ein Jahr. Der Clou an diesem Schiff ist, dass es sowohl durch Wasser als auch über Eis gleiten kann. Die Crew bestand schließlich aus Roubinet und den zwei Team-Mitgliedern Anne-Lise Vacher-Morazzani und Eric André. Gestartet sind sie am 19. Mai 2007 in Vancouver, um zunächst nach Anchorage (Alaska) und dann durch die Behring-Straße vorbei an Cape Barrow und den Nordwest-Territorien zu segeln. Ab hier wurde es etwas schwieriger, doch nach drei Monaten und 21 Tagen sind sie schließlich am 9. September 2007 in Grönland angekommen.

Was genau ist die Nordwestpassage?

Die NWP ist jener Seeweg, der nördlich von Kanada die beiden Ozeane Atlantik und Pazifik verbindet, aber regelmäßig monatelang durch dickes Packeis blockiert ist. Natürlich lassen sich die beiden Ozeane auch dadurch verbinden, dass man sein Schiff entlang der sibirischen Nordküste manövriert, was der geografischen Logik folgend als Nordostpassage (NEP) bezeichnet wird. Allein, das Wetter und damit die Stärke des Packeises bieten hier keinerlei Vorteil, wohl aber die Strecke ungleich länger ist.

Was die NWP aber noch etwas komplizierter macht, das sind die vielen großen und kleinen Inseln, die es dem Kapitän schwer machen, den optimalen Weg zu finden, denn da gibt es viele „Sackgassen“, die in unüberwindlichem Packeis abrupt enden. Bereits seit Jahrhunderten haben sich verschiedene Forscher immer wieder vergebens damit beschäftigt, die geeignetste Wasserstraße durch das Insel-Labyrinth zu finden:

 

  • 1850: Robert McClure (Irland)
  • 1854: John Rae (Schottland)
  • 1903: Roald Amundsen (Norwegen)

 

Erst seit 2010 ist es wegen des Rückzugs des Eises zunehmend realistisch geworden, tatsächlich die Durchfahrt durch die NWP zu wagen.

Beitragsbild:

Dieser Beitrag wurde am 17.03.2022 erstellt.

Mit der Erderwärmung steigt die Plastikkonzentration in den Weltmeeren

Für die Forschung war es ein Glücksfall, dass vor ungefähr 30 Jahren eine Havarie dazu führte, dass ein Schiff seine ganze Ladung „Quietscheenten“ verlor, erinnern Sie sich noch daran?

Über den nördlichen Pazifik im Bereich der Datumsgrenze fegte damals ein schwerer Wintersturm. Jenes Containerschiff, das sich auf dem Weg von Hongkong nach Tacoma an der Westküste der USA befand, hatte am 10. Januar 1992 schwer mit den Brechern zu kämpfen. Als sich das riesige Schiff wieder einmal stark zur Seite neigte, rissen sich gleich zwölf Container aus der Verankerung und schossen Torpedos gleich über Bord hinaus.

Der Aufprall aufs Wasser war für einen Container zu hart aus dieser Höhe. Insgesamt 28.800 Plastiktiere entluden sich in den Ozean: gelbe Quietscheentchen, rote Biber, grüne Frösche und blaue Schildkröten. Martin Visbeck vom Kieler GEOMAR erklärt, dass sich zufällig an dieser Stelle die Meeresströmungen von gleich zwei großen Wirbelsystemen überlappen, dem Subpolar- und dem Subtropenwirbel. Dies führte zu einem Transport der Plastiktiere, der zunächst nach Osten auf Seattle zu gerichtet war. Doch dort übernahm der Subpolarwirbel das Regiment und lenkte die Ladung nach Norden auf Alaska zu.

Ein paar Jahre sind die Plastiktiere im Nordpazifik erst einmal Karussell gefahren, so bestätigen es auch die Modellrechnungen der Wetter- und Ozeanografiebehörde der USA (NOAA). Da sich alle Wasserströmungen mit der Zeit weltweit austauschen, gelangte ein Teil der inzwischen etwas ausgeblichenen Plastiktiere über die Arktis hinweg in den Nordatlantik. Möglich war dies, weil seit einigen Jahren unsere nördliche Polkappe im Sommer zum größten Teil wegschmilzt.

Der US-Autor Donovan Hohn ging der Odyssee der Plastikentchen ergriffen nach und schrieb das Buch „Moby Duck“. Dabei stellte er fest, dass es zum ersten „Landfall“ in Alaska ungefähr zehn Monate nach der Havarie gekommen war, nachdem die Entchen über 3.000 km zurückgelegt hatten. Zu identifizieren waren und sind sie übrigens am Herstellervermerk auf der Unterseite: „First Years Inc.

Gemäß den Strömungsmodellen ist damit zu rechnen, dass einige dieser Tierchen auch an der Ostküste von Nordamerika an Land getrieben werden. Dort irgendwo ist der Sitz des Herstellers, der sogleich eine furiose Werbekampagne aus der Sache gemacht hat und jeden Fund dort mit 100 Dollar honorieren will.

Christian Haas ist Geophysiker am Alfred-Wegener-Institut, das sich in Bremerhaven befindet und zum Helmholz-Zentrum für Polar- und Meeresforschung gehört. Er erläutert, dass der Meeresspiegel des Nordpazifiks wegen seines relativ geringen Salzgehaltes etwas höher liegt als jener des Nordatlantiks. In der Folge gibt es im arktischen Ozean eine ständige Strömung von der Beringstraße zum Nordatlantik hin.

Der Nordpol verliert sein Eis

Christian Haas war schon öfter in der Arktis, unter anderem an Bord der Polarstern. Im September 1991 fiel es dem Eisbrecher noch schwer, das circa 2,5 m dicke arktische Packeis bis zum geografischen Nordpol hin zu knacken. Inzwischen hat sich die Eisfläche in dieser nördlichsten Region der Erde fast halbiert und Eisdickenmessungen verraten, dass sich gleichzeitig auch die Stärke der Eisplatten mehr als halbiert hat und im letzten Sommer weniger als einen Meter betrug.

Im Rahmen der MOSAiC-Expedition ließ man die Polarstern gezielt im Eis einfrieren, um die Strömungen und das Driften des Eises quantitativ zu erfassen. Wegen der Vorzugsrichtung von Ostsibirien nach Grönland ist das Eis auf sibirischer Seite besonders dünn und der Eisschwund dort sehr deutlich.

Die Polkappen sind für uns unentbehrlich

Der Strahlungshaushalt der Erde wird maßgeblich durch die Albedo (Rückstrahlvermögen) geregelt, die umso größer ist, je mehr helle Eisflächen den Planeten bedecken. Diese wirken wie Spiegel, die die eintreffende Sonnenstrahlung direkt wieder zurück in den Weltraum katapultieren. Werden diese kleiner, wird immer mehr Sonnenenergie von der Erde absorbiert.

Damit wird sogleich ein sich selbst verstärkender Teufelskreis eingeleitet, denn die vermehrte Energie, die auf der Erde verbleibt, führt zu zusätzlichem Abschmelzen der Polkappen, aber auch der Gletscher in den Hochgebirgen. Ein Ergebnis daraus ist die sogenannte „Arktische Amplifikation“, die bedeutet, dass sich die Polargebiete in den letzten Jahren messbar stärker erwärmt haben als der Rest der Erdkugel.

So kam es auch, dass die Gummitiere nur circa sechs Jahre lang im Packeis des Nordpols gefangen waren, kurz nach der Jahrtausendwende hat sie die Erderwärmung daraus befreit und ihnen den Weg in den Nordatlantik geöffnet. Tatsächlich treibt vor allem der Wind das Eis gegen den Uhrzeigersinn langsam von Alaska in Richtung Grönland, wo das Packeis Dicken bis fünf Meter erreicht.

Die Gletscher bewegen sich immer schneller

Durch das zunehmende Abschmelzen des Eises gelangen die Massen an Schmelzwasser immer tiefer durch Gletscherspalten hindurch bis auf das unterliegende Felsbett, wo das Wasser wie eine Art Gleitfilm für die aufliegenden Eismassen fungiert, die dadurch in eine beschleunigte Horizontalbewegung geraten. Von diesem Prozess ist Grönland in besonderem Maße erfasst und das hat Folgen.

Unter der thermohalinen Zirkulation verstehen Wissenschaftler unter anderem das Absinken von kaltem, salzreichen Oberflächenwasser, das sich durch eine etwas höhere Dichte auszeichnet, in die Tiefen des Ozeans. Es handelt sich sozusagen um eine riesige Umwälzpumpe im Sinne eines Antriebs einer großen Meeresströmung. Je mehr grönländische Gletscher in den Nordatlantik abfließen, desto geringer wird der Salzgehalt im Oberflächenwasser der Region, was die Effizienz der Umwälzpumpe bis auf null zurückfahren kann.

Der Nordatlantikstrom, von dem hier die Rede ist, ist im Prinzip die Verlängerung beziehungsweise Ergänzung des Golfstroms, der warmes Wasser aus der Karibik bis nach Nordnorwegen hochschaufelt und für West- und Nordeuropa geradezu eine „Fußbodenheizung“ darstellt. Wenn dieses große Strömungssystem durch ungebremsten Süßwassereintrag an der grönländischen Ostküste angehalten wird, bedeutet die Erderwärmung für Europa eine drastische Abkühlung des Klimas mit unabsehbaren Folgen.

Ein Indiz für die dramatischen Auswirkungen auf den Golfstrom könnte die sogenannte Kälteblase sein, das einzige Gebiet südlich von Grönland und Island, das sich während der letzten 100 Jahre abgekühlt hat. Jene Klimamodelle, die die thermohaline Atlantikzirkulation einbeziehen, weisen diesen Effekt auch in ihren Berechnungen nach. Überdies zeigen solche Modellrechnungen, dass die dadurch beeinflusste atmosphärische Zirkulation zu Verlagerungen des Jetstreams führt mit der Folge, dass es in Westeuropa zu stärkeren Stürmen und im Sommer zu mehr und intensiveren Hitzewellen kommt, was die Realität schon längst bestätigt hat.

Nur das Tiefenwasser ist eine effektive Kohlendioxidsenke

Während die oberflächennahen Wasserschichten bereits mit CO2 gesättigt sind, kann der tiefe Ozean noch schier unendliche Mengen davon lösen. Solange die Umwälzpumpe gut funktioniert und Oberflächenwasser in die Tiefe befördert, gibt es also einen dankbaren CO2-Abnehmer. Insofern ist die Abschwächung des Golfstroms auch unter diesem Aspekt fatal, da das Abschneiden dieser Kohlendioxidsenke zu noch schnellerer Erderwärmung führt.

Wie steht es eigentlich um das Immunsystem der Erde?

Tatsächlich verfügt unser Planet über eine Vielzahl von Regelkreisen, die eben gerade so einen sich selbst induzierenden Dynamo, der zu immer schnellerer Klimaerwärmung führt, verhindern sollen. Einer davon ist in den Wolken zu suchen. Sonnenanbeter, die immerzu über unser zu trübes Wetter klagen, sollten den Wolken unbedingt mehr Dankbarkeit zollen. Mehr Energieeintrag und stärkere Erwärmung bedeuten zugleich mehr Verdunstung und damit zunehmende Wolkenbildung.

Dicke zusammenhängende Wolkendecken sind vom Weltall aus gesehen so hell wie Eisdecken und erhöhen daher die Albedo maßgeblich. Dadurch wird mehr Sonnenlicht in den Weltraum reflektiert und die Erwärmung der Erdoberfläche lässt nach. Doch jeder Regelkreis hat eine begrenzte Dynamik. Die Selbstheilungskräfte der Natur sind für uns mitnichten ein Freibrief dafür, dass wir uns in diesem Paradies völlig danebenbenehmen dürfen.

An Strände angeschwemmt wurde übrigens erst ein Bruchteil der bunten Gummitiere. Es lohnt sich, weiterhin Ausschau zu halten nach einstmals gelben Enten, grünen Fröschen, blauen Schildkröten und roten Bibern. Bedenken Sie, dass das Plastik im Meer leider mehr als 100 Jahre überdauern kann.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter “Unabhängig. Natürlich. Klare Kante.” dazu an:

Dieser Beitrag wurde am 10.02.2022 erstellt.


Bildquelle:

Der Witz der Nachhaltigkeit – Oder: Wie unser Lebenstil die Erde zerstört

Deutschlands gut gemeinte Bemühungen um Nachhaltigkeit erweisen sich als schädlich

Artig sind immer mehr Deutsche dazu bereit, auf die E-Mobilität umzusteigen, sind wir doch alle fest entschlossen, dem Klimawandel auf dem ganzen Planeten den Kampf anzusagen. Doch jede Medaille hat zwei Seiten, das weiß jedes Kind. In Argentinien und Chile, wo sich zurzeit die weltweit größten ausbeutbaren Lithiumvorkommen befinden, schmelzen deshalb die Lebensgrundlagen der dort ansässigen indigenen Völker zusammen. Aber gut, das ist ja nun wirklich sehr weit weg, fast auf der anderen Seite der Erde.

Das vorrangigste Problem besteht darin, dass der Lithiumabbau extrem viel Durst auf Wasser hat und genau das ist dort ein seltenes wertvolles Gut. Fakt ist, der vermeintlich nachhaltige Trendkonsum der westlichen Welt bringt die Natur und die Gesellschaften in Lateinamerika völlig aus dem Gleichgewicht. Schauen wir uns dazu ein weiteres Beispiel an.

Die Drogenmafia kontrolliert den Avocado-Anbau in Mexiko

Die Avocado gilt als die „Superheldin der Küche“, denn dieses vitaminreiche Superfood ist gut fürs Herz und kurbelt den Stoffwechsel an. Es ist zudem ein Gewinn für nahezu jedes Rezept, wird die Avocado doch als klimafreundlicher Fleischersatz gehandelt. Doch schauen wir noch einmal über unseren Tellerrand.

Ungefähr 150 km nördlich der chilenischen Hauptstadt Santiago befindet sich die Provinz Petorca. In dieser wüstenhaften Region fallen durchschnittlich nur circa 200 Millimeter Regen im ganzen Jahr. Mit den Menschen, die das bisschen Nass dort dringend zum Überleben brauchen, sind nun Millionen Obstbäume in Konkurrenz getreten. Es geht um eine ungefähr 8.000 Hektar große Fläche, auf der Exportobst, vornehmlich eben Avocados angebaut werden. Jeder einzelne Avocadobaum säuft rund 600 Liter Wasser pro Woche, so jedenfalls hat es die NGO „Rettet den Regenwald“ ausgerechnet.

Die Betreiberfirmen fördern das Wasser mit Pumpen aus Tiefbrunnen, um es in Bewässerungsteiche zu überführen. Für die ansässigen Kleinbauern ergibt sich daraus ein düsteres Bild: Ausgetrocknete Flüsse und verdorrter Vegetation, die Felder liegen brach und Grundwasser gibt es fast nicht mehr. Die Wasserwirtschaft ist in Chile übrigens Privatsache.

In Mexiko, allem voran in Uruapan, haben die Avocados die Gesellschaft schon gespaltet. Mehr als 40 Prozent der Avocados, die die USA importieren, stammen aus jener Region. Doch in Uruapan bestimmt nicht Wohlstand das Stadtbild, sondern ein geradezu brutaler Kampf um Marktanteile im lukrativen Avocadogeschäft. Lokalpolitiker, Gewerkschaftler oder Zwischenhändler sterben einen plötzlichen unnatürlichen Tod, wenn sie dem Geschäft vermeintlich irgendwie im Weg stehen. Während in den USA und Europa genüsslich gesund und klimaneutral geschmaust wird, werden in Lateinamerika dafür Menschen vertrieben oder ermordet.

Warum nicht den Klimawandel mit Biosprit stoppen?

Jürgen Trittin, einstmals grüner Bundesumweltminister, war begeistert über die Machenschaften des brasilianischen Präsidenten Lula da Silva (Amtszeit 2003–2011), der versprach, Europas Energieprobleme mit „seiner“ Biospritproduktion zu lösen. Zu Hause startete Trittin sofort nach seiner Rückkehr mit einer groß angelegten Lobbyarbeit für eine Energiewende, die sich an dem vorbildlichen Brasilien orientieren sollte. Wie hieß es damals so verheißend: „Der Acker wird zum Bohrloch des 21. Jahrhunderts, der Landwirt wird zum Energiewirt.

Professor Guilherme Ferreira ist Geograf und Umweltblogger aus Recife. Er sagt, dass der für unser Klima so wichtige Regenwald der Verlierer dieses blinden Aktionismus ist, denn für die Biosprit-Produktion wurden immense Agrarflächen gebraucht und diese fand man ausgerechnet im Amazonas-Dschungel, wo tropische Pflanzen und indigene Volksgruppen durch Monokulturen und Pestizide ersetzt wurden.

Im Bundesstaat Maranhao wurde zur Jahrtausendwende auf knapp 20.000 Hektar Zuckerrohr angebaut. Im Jahr 2019 war die Fläche für die Produktion von Bioethanol auf 47.400 Hektar angewachsen. Die gleiche Entwicklung sehen wir heute mit Blick auf Lithiumkarbonat. Unsere zukünftigen Vorzeigeautos fahren emissionsfrei, weil es in Brasilien keine Bäume mehr gibt, ein toller Umwelt-Deal.

Die Volkswagen AG kommentiert die Nachteile der Lithiumgewinnung damit, dass dafür kein Trinkwasser verwendet würde. Sehr wohl könne es sein, dass die Entnahme von Salzwasser dazu führt, dass Süßwasser nachströmt und der Grundwasserspiegel im Umfeld der Salare dadurch absinken könnte.

Glücklicherweise werden die satten SUV-Fahrer in Europa nicht müde, die zerstörerische Amazonaspolitik des rechtspopulistischen Präsidenten Jair Bolsonaro zu kritisieren. Ja, die Abholzung hat in dessen ersten drei Amtsjahren erheblich an Fahrt aufgenommen, weil er für eine krasse Liberalisierung von Umweltvorschriften gesorgt hat. Zudem wurde jenen Institutionen der Geldhahn abgedreht, die sich den Schutz der Umwelt zur Aufgabe gemacht haben, doch:

Die Lust auf Fleisch

Neben China braucht Europas Fleischindustrie immense Mengen an Soja als Tierfutter. Völlig richtig kontert Bolsonaro, dass unsere „alte Welt“ einst aus riesigen zusammenhängenden Urwäldern bestand, und erkundigt sich danach, wo die denn jetzt wohl seien. Umweltorganisationen haben abgeschätzt, dass circa sechs Prozent der weltweiten Sojaernte direkt für den menschlichen Verzehr als Tofu, Sojasprossen und Sojaöl verwendet werden, insofern trägt sogar vegane Ernährung einen kleinen Anteil zum Raubbau der Natur bei.

Die Umweltorganisation „Faszination Regenwald“ fordert zu Recht ein Umdenken, damit die flächenfressende Sojaproduktion im Amazonas gestoppt werden kann. Sie weist darauf hin, dass unsere Viehbestände eindeutig zu groß sind, um von einheimischen Futtermitteln ernährt werden zu können. Unsere Massentierhaltung sei überhaupt nur möglich, weil in Brasilien der Regenwald vernichtet wird. Wer das nicht will, muss seinen Fleischkonsum ganz drastisch überdenken.

 

 

 

Wie groß ist der Anteil des Menschen am Klimawandel wirklich?

Da gehen die Meinungen weit auseinander, vielleicht gerade deshalb, weil fast allein dem Kohlendioxid, das die Menschheit in die Atmosphäre entlädt, die ganze „Schuld am Klimawandel“ zugeschrieben wird, und dies nimmt zuweilen extrem dogmatische, ja religiöse Formen an. Wir möchten hiermit versuchen, etwas Licht ins Dunkel des Munkelns zu bringen.

Kein Geringerer als Greenpeace-Gründungsmitglied Patrick Moore erklärte auf Fox News, dass es sich bei der Bezichtigung des Kohlendioxids um „Fake-Wissenschaft“* handeln würde, denn gerade Kohlenstoff sei der unverzichtbare Baustein allen Lebens. In der Tat würden es die Bäume und Wälder schwer haben, würde der CO2-Gehalt unserer Lufthülle signifikant absinken.

*Confessions of a Greenpeace Drop-Out: The Making of a Sensible Environmentalist

Moore weist darauf hin, dass Klimaveränderungen auf unserem Planeten seit eh und je an der Tagesordnung sind. Dazu werden wir später noch auf die Klimakurven eingehen. Es mag allerdings sein, dass das, was im Moment geschieht, erdgeschichtlich gesehen ein relativ steiler globaler Anstieg der Temperaturen sein könnte, wobei die „Betroffenheit“ auf der Erde nicht gleichverteilt ist. Das heißt, es besteht keine Veranlassung dazu, dass wir uns in Deutschland auf mildere Winter freuen können, das Gegenteil könnte passieren.

Neben den großen globalen Vereisungen und Warmperioden gibt es zwischendurch auch viele kleine (hochfrequente) Schwankungen in der globalen Temperaturkurve, die zuweilen an einen mehr oder weniger hoch aufgelösten Börsenchart mit Trendkanälen erinnert. So endete zum Beispiel vor circa 300 Jahren eine kühlere Periode, die wir die „Kleine Eiszeit“ nennen, um das Klima in eine wärmere Periode übergehen zu lassen, in der wir noch heute mitten drin stecken.

Moore weist weiter darauf hin, dass der Bekanntheitsgrad der Umweltorganisation Greenpeace ungefähr Mitte der 1980er-Jahre aufgrund ihrer wichtigen Aktionen, die viel Anklang und viele Unterstützer fanden, richtig durch die Decke ging. Und das weckte Begehrlichkeiten, denn nun kamen enorme Geldsummen ins Spiel. Zudem setzte sich die extreme Linke mit ins Boot und damit passierte genau das, was eigentlich vermieden werden sollte. Die einst auf wissenschaftliche Erkenntnis gegründete Organisation wandelte sich in eine demagogische Brutstätte für Angstmache, Desinformation und Sensationalismus.

In diesem Zusammenhang erinnert Moore an den „Green New Deal“. Dabei geht es um einen sehr weitreichenden Klimaplan, der von Alexandria Ocasio-Cortez initiiert wurde, die den US-Demokraten angehört. Vorgesehen ist hierbei der Ausstieg aus allen Produktionsformen nicht erneuerbarer Energien, ungefähr so, wie wir es gerade in Deutschland aufgrund der diesbezüglich rigorosen Politik von Angela Merkel erleben. Allerdings ist der Zeitplan für das Aus- beziehungsweise Umstiegsszenario in den USA noch ambitionierter.

Grüne Politik bedeutet, dass nicht nur Kernreaktoren, die kaum Kohlendioxid emittieren, sondern aus ideologischen Gründen auch und sogar Wasserkraftwerke abgeschaltet werden sollen/müssen. Alles zusammen macht fast 98,5 Prozent unserer elektrischen Energie aus. Dass so etwas eine massive Staatskrise auslöst, muss wohl nicht extra betont werden.

Zurzeit ist es jedenfalls so, dass in etwa 90 Prozent der Weltbevölkerung von fossilen Energieträgern abhängig sind. Das Kohlendioxid, das bei der Verbrennung in die Atmosphäre entlassen wird, wurde vor vielen Millionen Jahren derselben entzogen, um es in und unter Sedimenten zu speichern. Seit nicht einmal 200 Jahren befreien wir diese Stoffe nach und nach aus ihrer Gefangenschaft. Was soll denn daran schlimm sein?

Eine Antwort darauf gibt möglicherweise die Betrachtung der Temperaturentwicklung:

Die Entwicklung der Temperatur der Erde

In Deutschland instrumentell gemessene Temperaturen liegen für die letzten 135 Jahre vor. Jeder kann sie auf der Webseite des Deutschen Wetterdienstes (DWD) einsehen. Anhand historischer Wetteraufzeichnungen, Torfkerne oder Höhlentropfsteine konnte die Temperaturgeschichte Deutschlands für die vergangenen 11.000 Jahre recht genau rekonstruiert werden.

Die Jahresdurchschnittstemperatur hat sich demnach innerhalb der letzten 30 Jahre um gut 0,5 Grad erhöht, wobei aber die kurzfristige Schwankungsbreite durchaus drei Grad überstreicht. Vergleicht man nur die Januartemperaturen, sind die Durchschnittswerte sogar um ein halbes Grad gefallen und ihre Variabilität erreicht ganze acht Grad.

Wählt man den Betrachtungszeitraum etwas größer, nämlich 150 Jahre, kommt man beim Anstieg der Jahresdurchschnittstemperaturen schon auf 1,5 Grad, wobei die späten 1980er-Jahre geradezu einen Sprung auf ein höheres Niveau markieren. Dieses Phänomen bildet sich auch in den Temperaturen des Oberflächenwassers von Nord- und Ostsee ab. Eine Erklärung dafür könnte in der Nordatlantischen Oszillation (NAO) liegen, die ebenfalls zu dieser Zeit Maximalwerte aufwies. Letztere wird maßgeblich von der Sonnenaktivität gesteuert, die auch erhebliche Einflüsse auf die Verteilung der Niederschläge in Europa hat.

Der „Mittelalterlichen Wärmeperiode“ (MWP) beziehungsweise Klimaanomalie (MCA) ist eine Forschergruppe um Robert Moschen nachgegangen. Die Wissenschaftler rekonstruierten die Temperaturdaten mittels Kohlenstoffisotope eines Torfkerns aus dem rheinland-pfälzischen Dürre Maar. Sie fanden heraus, dass sich die Durchschnittstemperaturen hierzulande seit der Kälteperiode während der Völkerwanderungen zwischen 500 und 700 n. Chr. bis zur MWP auf ganz natürliche Weise um über fünf Grad erhöht haben. Daran gemessen ist die heutige Erwärmung geradezu vernachlässigbar.

Die MWP bildet sich auch in den historischen Eisberichten über den Bodensee ab. Während der 300 Jahre vom 9. bis 12. Jahrhundert kam es nur in wenigen vereinzelten Wintern zu einem vollständigen Zufrieren des Bodensees (Seegfrörnen), ganz anders später in der „Kleinen Eiszeit“, denn im 15. und 16. Jahrhundert geschah dies gleich 14 Mal. Im 20. Jahrhundert gab es das Seegfrörnen nur im Winter von 1963.

 

Wer das Klima verstehen will, muss eine lange Zeitreise wagen

Mit Blick auf den immerwährenden Wechsel zwischen Warm- und Kältephasen sprechen Wissenschaftler von den klimatischen Millenniumszyklen, weil hierbei weltweit Wellenlängen von 1000 bis 2000 Jahre zu beobachten sind. Deren Ursache liegt zu einem großen Teil in der veränderlichen Sonnenaktivität, die sich sogar in der sauerländischen Bunkerhöhle abbildete und von einer Forschergruppe um Jens Fohlmeister untersucht wurde.

Stein des Anstoßes waren dort die Tropfsteine, die rhythmische Veränderungen in den Sauerstoffisotopen aufweisen. Daraus konnte ein immerhin 11.000 Jahre langer Kalender des natürlichen Klimawandels abgeleitet werden, der uns recht genaue Auskunft über den ständigen Wechsel warm-feuchter und kalt-trockener Phasen gibt. Gut erkennbar sind darin auch die oben erwähnte Kältephase der Völkerwanderungszeit, die MWP und die moderne Wärmeperiode.

Eine besonders warme Phase war das „Holozäne Thermische Maximum“ (HTM) vor 8000 bis 5500 Jahren (6000 – 3500 v. Chr.). Kühl & Moschen 2012 rekonstruierten die Temperaturdaten anhand fossiler Pollen, die sich im Bereich des Dürre Maars gebildet hatten. Damals lagen die Temperaturen in der Eifelregion noch über ein Grad höher als jene der heutigen Wärmephase (1990 – 2017). Auch Wissenschaftler des Geoforschungszentrums Potsdam (GFZ) haben sich mit dem Meerfelder Maar in der Eifel beschäftigt. Sie fanden heraus, dass es vor knapp 2.800 Jahren zu einer ziemlich abrupten Abkühlung kam, die immerhin fast 200 Jahre lang anhielt. Das Forscherteam um Celia Martin-Puertas konnte aufzeigen, dass jene Abkühlungsphase direkt mit einer solaren Schwächephase korreliert werden kann.

Wolken verdunkeln die Sonne zyklisch

Wolken kontrollieren geradezu den Strahlungshaushalt der Erde. In der Meteorologie wird der Grad der Bewölkung über den Parameter Sonnenscheindauer erfasst. Dieser wurde seit 1950 vom Deutschen Wetterdienst (DWD) kontinuierlich registriert und ist auf dessen Webseite für jeden einzusehen. Festzustellen ist hierbei ein wellenförmiger Verlauf, der zwischen 1977 und 1988 ein relatives Minimum aufweist. Man bedenke, dass auch der Sonnenfleckenzyklus elf Jahre beträgt.

Die relative Zunahme der Bewölkung korreliert mit einer stark negativen Phase im Ozeanzyklus „Atlantische Multidekaden Oszillation“ (AMO) und einem außergewöhnlich schwachen Sonnenfleckenzyklus. Aktuell im 21. Jahrhundert scheint die Sonne jedes Jahr durchschnittlich ungefähr 200 Stunden länger als noch in den 1980er-Jahren.

Als die Sonne erwachsen wurde

Sternentwicklung ist ein so komplexes Thema, dass wir darauf an dieser Stelle nicht eingehen wollen, aber eine kurze Aussage ist wichtig, um den folgenden Absatz besser einordnen zu können: Vor einer Milliarde Jahre war die Strahlkraft der Sonne geringer als heute.

Eine besonders aussagekräftige Darstellung der Gesamtsituation findet man im geologischen Kalender für den Monat Juli des Jahres 2019 (https://www.dggv.de/fileadmin/user_upload/7-2019.jpg/).

Hier wurden die Kalt- und Warmperioden in den verschiedenen Erdzeitaltern über der Verteilung von Stickstoff, Sauerstoff und Kohlendioxid in der Atmosphäre aufgetragen. Beim Verlauf der Durchschnittstemperaturen ist ein wiederkehrendes Grundmuster zu erkennen: Extrem lange Warmphasen werden jeweils von mehreren längeren, besonders kalten Phasen unterbrochen, wobei stets die sehr ausgedehnte Warmzeit ihrerseits noch einmal von einem kalten Einschnitt unterbrochen wird. Dieses Muster beherrscht den Planeten in immer gleichartiger Weise, obwohl gegen Ende des Präkambriums vor circa 600 Millionen Jahren der CO2-Anteil der Atmosphäre drastisch zurückging zugunsten des Anstiegs des Sauerstoffgehalts.

Nach Lesart der Kohlendioxidfeinde hätte dies eine Klimaänderung von einem extrem heißen Planeten hin zu einer Eiskugel sein müssen. Eine solche Korrelation ist aber nicht zu erkennen.

Die wundersame Regelmäßigkeit des Erdklimas der letzten Milliarde Jahre ist als Hinweis darauf zu werten, dass das Zusammenspiel bestimmter langwelliger Periodizitäten den Motor des Geschehens ausmacht. In frühen Arbeiten wurden schon Fourier-Analysen der Temperaturschwankungen vorgenommen mit dem Ergebnis, dass sich dahinter eine Überlagerung bestimmter bekannter Zyklen verbirgt. Zu nennen wären hier unter anderem die Exzentrizität der Erdbahn, die Präzession der Erde und die vom Mond ausgelöste Erdnutation.

Es gibt Dinge, die Ehrfurcht einflößen

Ohne jetzt esoterisch werden zu wollen, gibt es hier noch eine besonders bemerkenswerte Tatsache, die mit Fug und Recht als etwas metaphysisch aufgefasst werden darf. Dass die Erde während des Präkambriums unter ihrer Kohlendioxidglocke eben nicht in der Hitzestarre feststeckte, so, wie wir es heute von ihrer Schwester, der Venus, kennen, lag daran, dass die noch jüngere Sonne weniger intensiv strahlte.

Letztere drehte erst dann so richtig ihr Thermostat hoch, als in unserer Atmosphäre das Kohlendioxid nahezu vollständig in Pflanzen gebunden wurde und durch einen hohen Sauerstoffanteil ersetzt wurde. Es hat fast den Anschein, als gäbe es eine Kraft, die dafür gesorgt hat, dass die Erde ausreichend viel Zeit hat, komplexes Leben zu entwickeln.

Um Umkehrschluss heißt dies aber auch, dass es ein Zurück zu beträchtlichen CO2-Gehalten der Atmosphäre jetzt tatsächlich nicht mehr geben darf, ansonsten werden wir alle von der gestärkten Sonne gebraten.

Bekannte Atomunfälle mit Kernschmelze

“Bei der Atomkraft ist eines sicher, das Risiko” lautet ein Spruch aus seligen Spontitagen vergangener Jahrzehnte.

Doch wie viel Wahrheit steckt in dieser Aussage?

Sind Atomkraftwerke eine sichere und saubere Energiequelle, oder schlichtweg zu unsicher und somit gefährlich?

In Deutschland sind zur Zeit (Stand Mai 2019) noch sieben Meiler am Netz.

Laut des Bundesamtes für kerntechnische Entsorgungssicherheit traten bei diesen Kraftwerken seit dem jeweiligen Tag ihrer Inbetriebnahme – sie stammen alle aus den 1980er Jahren – insgesamt 1.284 sogenannte “meldepflichtige Ereignisse” auf.

Doch wir hatten sozusagen seither Glück im Unglück, denn angesichts dieser Zahl ist es mehr als verwunderlich, dass deutsche Kernkraftwerke bislang keinen schweren Atomunfall mit Kernschmelze fabrizierten.

Eine kurze Chronologie der Reaktor-Katastrophen

Andernorts ist so etwas bereits passiert. Die bekanntesten und gefährlichsten Atomunfälle mit Kernschmelze waren insoweit (in chronologischer Reihenfolge):

Windscale 1957

Der Windscale-Brand vom 10. Oktober 1957 im heutigen Sellafield in England markiert den ersten protokollierten schweren Atomunfall mit Kernschmelze.

Es wurde dabei eine radioaktive Wolke freigesetzt, die sich zum Glück für die in der Umgebung lebenden Menschen Richtung Meer absetzte. Nichtsdestotrotz starben infolge der Havarie insgesamt nach Schätzungen über 200 Menschen.

“Three Mile Island” in Harrisburg

Beim Reaktorunglück im Kernkraftwerk “Three Mile Island” in Harrisburg, Pennsylvania in den USA ereignete sich am 28. März 1979 eine sogenannte partielle Kernschmelze, da infolge von technischem und menschlichem Versagen die Reaktorkühlung unzureichend verlief.

Dadurch wurde radioaktives Gas (Krypton 85) in die Umwelt abgelassen. Von offizieller Seite wurde keine gesundheitliche Beeinträchtigung der Bevölkerung vermeldet, andere Studien kommen zu dem Ergebnis, dass die Krebshäufigkeit im Umland stark zugenommen habe.

Auf Youtube kann man sich noch den Tagesschau-Bericht dazu ansehen: https://www.youtube.com/watch?v=DGUnbsPrXZQ

Tschernobyl 1986

Am 26. April 1986 wurde durch eine komplette Kernschmelze in Block 4 des Reaktors in Tschernobyl in der damaligen UDSSR (heute in der Ukraine) zum ersten Mal ein Super-GAU ausgelöst.

Das gesamte umgebende Gebiet wurde kontaminiert und bis dato Sperrgebiet. Der radioaktive Fallout reichte bis Westeuropa. 50 Menschen starben unmittelbar an den Folgen der akuten Strahlenkrankheit; insgesamt sollen bis heute circa 4000 Menschen aufgrund dieser Katastrophe verstorben sein.

Und laut verschiedener Schätzungen und Untersuchungen ist das Reaktorunglück von Tschernobyl für tausende von Krebsfällen in der Ukraine und dem Rest Europas verantwortlich.

Fukushima 2011

In jüngster Vergangenheit hat die Nuklearhavarie von Fukushima vom 11. März 2011 gezeigt, dass auch Naturkatastrophen Auslöser von Kernschmelzen sein können.

Denn infolge des Tohoku-Erdbebens und eines darauf folgenden Tsunamis fiel die Kühlung der Reaktoren des Kernkraftwerkes Fukushima-Daiichi in Okuma, Japan aus.

Es kam zu einer Überhitzung der Brennelemente und damit zu Kernfusionen und dadurch bedingten Explosionen. Dieser Unfall gilt als der bislang zweitschwerster nach Tschernobyl. Große Mengen an radioaktivem Material gelangten in das komplette Ökosystem.

Die Zeitung “Tokyo Shimbun” lässt im Jahre 2015 verlauten, dass über 1000 Menschen infolge der Katastrophe gestorben seien, allerdings soll der Großteil darunter auf Suizide zurückzuführen sein. Jedoch gehen Schätzungen davon aus, dass mehr als 66.000 zusätzlich Krebserkrankungen auf das Konto des Reaktorunglücks gehen können.

Diese kurze Darstellung der schwersten Atomunfälle mit Kernschmelze darf nicht darüber hinweg täuschen, dass die Liste der Störfälle, bei denen nicht gleich ein großes Medienecho zu vernehmen ist, sehr viel länger ausfällt.