Die Erde wird heißer. Viel heißer. Und die Ursache liegt nicht nur im allgegenwärtigen Kohlendioxid (CO₂). Ein anderes Treibhausgas, Methan, betritt die Bühne der Klimakrise mit alarmierenden Konsequenzen. Methan ist etwa 80-mal so klimaschädlich wie CO₂, wenn man seine Wirkung auf eine Zeitspanne von 20 Jahren betrachtet, und seine Konzentration in der Atmosphäre steigt rapide. Die Weltwetterorganisation (WMO) warnte jüngst vor den verheerenden Folgen dieses Anstiegs – ein Weckruf, der nicht ignoriert werden darf.

Eine explosive Entwicklung

Die Messungen der WMO zeigen: Seit Beginn der 2020er-Jahre hat sich die Methankonzentration in der Atmosphäre drastisch erhöht. Besonders 2021 stach hervor – mit einem Anstieg von 18 ppb (parts per billion, also 18 Methanmolekülen pro einer Milliarde Moleküle). Damit lag der Methangehalt erstmals bei über 1.900 ppb, was dem Dreifachen des vorindustriellen Niveaus entspricht. Die Frage nach den Ursachen ist komplex, doch Wissenschaftler haben begonnen, das Rätsel zu entschlüsseln.

Die Spur der Isotope

Eine US-amerikanische Studie untersuchte den „Fingerabdruck“ von Methan-Isotopen, um die Quellen der Emissionen aufzudecken. Diese chemischen Marker unterscheiden etwa Methan aus Biogasanlagen von dem, das aus Mooren oder Permafrostböden entweicht. Das Fazit: Der Anstieg ist vor allem auf mikrobielle Quellen zurückzuführen, wie sie in tropischen und subtropischen Feuchtgebieten vorkommen. Die Mikroorganismen in diesen Biotopen produzieren Methan besonders dann, wenn die Temperaturen steigen. Eine aktuelle Studie aus 2023 zeigt sogar, dass die Erderwärmung inzwischen einen Punkt erreicht hat, an dem sie sich selbst weiter beschleunigt.

Landwirtschaft und Permafrost als Methan-Schleudern

Deutschland trägt etwa sechs Prozent zur weltweiten Methanproduktion bei, vor allem durch den Agrarsektor. Mikrobielles Methan entsteht bei der Zersetzung organischen Materials – sei es durch Bakterien im Boden, in Gülle oder in den Mägen von Wiederkäuern. Doch es sind nicht nur Feuchtgebiete, die gefährlich viel Methan freisetzen. Eine der größten Bedrohungen geht von den tauenden Permafrostböden in Sibirien, Kanada und Alaska aus. Mit der Erderwärmung verschiebt sich die Grenze des Permafrosts immer weiter nach Norden. Im tauenden Boden zersetzen Mikroben die über Jahrtausende eingefrorenen Pflanzenreste und Kadaver – und setzen dabei Unmengen an Methan frei. Eine Studie von Anfang 2022 prognostiziert, dass Skandinavien bereits ab 2040 komplett permafrostfrei sein könnte.

Methanlecks: Eine unsichtbare Gefahr

Doch Methan entweicht nicht nur aus natürlichen Quellen. Die Deutsche Umwelthilfe (DUH) untersuchte kürzlich Biogasanlagen, LNG-Terminals und Gasverdichterstationen in Deutschland. Das Ergebnis: Jeden Tag entweichen erhebliche Mengen Methan unkontrolliert in die Atmosphäre. Die Problematik solcher Methanlecks ist bekannt, doch deren Kontrolle bleibt mangelhaft, wie auch ein Bericht zu Methanlecks in der Öl- und Gasindustrie zeigt.

Gashydrate: Eine tickende Zeitbombe

Eine weitere, oft übersehene Methanquelle sind Gashydrate – gefrorene Verbindungen aus Methan und Wasser, die sich in den Tiefen der Ozeane und in Permafrostböden befinden. Unter hohem Druck und niedrigen Temperaturen bilden sie stabile Strukturen, die riesige Mengen Methan speichern. Doch wenn diese Gashydrate durch die Erderwärmung destabilisiert werden, drohen explosionsartige Entgasungen, die unkontrollierbare Mengen Methan freisetzen können. Der Krater auf der Halbinsel Yamal, der 2014 entdeckt wurde, ist nur ein Beispiel für solche Phänomene.

Die Ohnmacht der Politik

Die weltweite Temperatur hat sich im Jahr 2023 im Durchschnitt fast um 1,5 Grad im Vergleich zur vorindustriellen Zeit erhöht. Das Jahr 2024 könnte diese Marke endgültig überschreiten. Der UN-Generalsekretär António Guterres spricht von einem „Klimazusammenbruch“. Dennoch bleibt die Politik weitgehend untätig. Die Klimakonferenz COP29 in Baku wird wohl erneut nur leere Versprechen liefern. Wissenschaftler wie Mojib Latif und Anders Levermann mahnen, dass ohne eine sofortige, vollständige Reduktion der Emissionen die Temperatur weiter steigen und extreme Wetterereignisse zunehmen werden. Doch die geopolitischen Spannungen – etwa der Krieg in der Ukraine – lenken die Aufmerksamkeit der Staaten in eine andere Richtung.

Ein kranker Wald, eine kranke Welt

Auch der deutsche Wald, einst eine wichtige Kohlenstoffsenke, hat sich zur CO₂-Quelle gewandelt. Der Klimawandel setzt ihm so stark zu, dass er seine Aufgabe, CO₂ zu binden, nicht mehr erfüllen kann. Gleichzeitig treiben die Ozeane mit ihren steigenden Temperaturen die Erderwärmung an, indem sie riesige Mengen Wärmeenergie speichern und verteilen. Das EU-Programm Copernicus liefert erschütternde Daten, die die Dramatik der Lage verdeutlichen.

Fazit: Die Zeit läuft ab

Methan ist mehr als nur ein Nebenakteur in der Klimakrise – es ist ein Brandbeschleuniger. Die Kombination aus natürlichen und anthropogenen Quellen hat einen Teufelskreis ausgelöst, der nur durch radikale Maßnahmen durchbrochen werden kann. Doch während die Wissenschaft alarmiert auf die Daten blickt, scheint die Menschheit in ihrer Bequemlichkeit gefangen. Die Frage ist nicht mehr, ob wir unsere Lebensweise anpassen müssen, sondern wie schnell wir das tun können, bevor es zu spät ist.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Beitragsbild: pixabay.com – MonicaMaxWest

Dieser Beitrag wurde am 07.02.2025 veröffentlicht.

Die deutsche Wirtschaft taumelt. Während die Rezession unaufhaltsam voranschreitet, rollt eine Pleitewelle durch das Land, die fast alle Branchen erfasst. Laut dem Statistischen Bundesamt stieg die Zahl der Unternehmensinsolvenzen im Juli 2024 um 13,5 Prozent im Vergleich zum Vorjahr. Von Traditionsmarken über Mittelständler bis hin zu innovativen Start-ups – die Liste der Opfer wird immer länger. Ein Überblick über die prominentesten Fälle und die Ursachen hinter der Krise.

Tupperware: Ein weltweiter Klassiker in Schieflage

Die traditionsreiche Marke Tupperware, bekannt für ihre Frischhaltedosen, kämpft ums Überleben. In den USA stellte das Unternehmen bereits vor Wochen einen Insolvenzantrag. Auch die österreichische Tochter meldete Anfang Oktober Insolvenz an. Ziel ist es, das Unternehmen bis zu einem möglichen Verkauf weiterzuführen – doch die Zukunft bleibt ungewiss.

Scotch & Soda und Esprit: Modegiganten am Ende

Auch die Modebranche bleibt nicht verschont. Das niederländische Label Scotch & Soda hat seine Geschäfte in Deutschland eingestellt, was zum Verlust von Hunderten Arbeitsplätzen führte. Der Konzern plant zwar einen Neustart, doch die Unsicherheiten bleiben groß. Gleichzeitig hat Esprit angekündigt, bis Ende 2024 alle 56 deutschen Filialen zu schließen – ein erheblicher Schlag für die Marke, die einst als Synonym für erschwingliche Mode galt.

Leysieffer: Wenn Pralinen bitter schmecken

Der Osnabrücker Pralinenhersteller Leysieffer zeigt, wie brutal Insolvenzen für die Betroffenen sein können. Die Mitarbeiter warten seit Monaten auf ihre Gehälter – eine Situation, die ohne Insolvenzverfahren oft hoffnungslos ist. Immerhin garantiert ein Insolvenzantrag die Zahlung von Gehältern über das Insolvenzgeld der Bundesagentur für Arbeit. Doch für die Beschäftigten bleibt die Lage prekär. Mehr dazu lesen Sie hier.

Automobilzulieferer: Das Rückgrat der Industrie bricht

Besonders betroffen ist die Automobilindustrie – einst das Herzstück der deutschen Wirtschaft. Im Sommer 2024 meldeten mehrere Zulieferer Insolvenz an: New Albea in Seelbach, die Federnfabrik Erwin Lutz in Eningen und WKW in Wuppertal, ein wichtiger Hersteller von Zierleisten für Mercedes, BMW und VW. Auch der renommierte Sitzhersteller Recaro Automotive konnte sich nicht mehr halten. Trotz eines Jahresumsatzes von 50 Millionen Euro droht nun 215 Mitarbeitern im baden-württembergischen Kirchheim unter Teck der Verlust ihres Arbeitsplatzes.

Ursachenforschung: Warum die Insolvenzen zunehmen

Die Gründe für die aktuelle Insolvenzwelle sind vielfältig. Der Wandel zur Elektromobilität stellt kleine und mittelständische Unternehmen vor enorme Herausforderungen. Gleichzeitig belasten hohe Energie- und Arbeitskosten sowie eine überbordende Bürokratie die Betriebe. Besonders forschungsintensive Firmen leiden unter mangelnder staatlicher Unterstützung. Die deutsche Wirtschaftspolitik hat sich in den letzten Jahren immer wieder selbst geschwächt. Das Abdrehen des russischen Gases und der gleichzeitige Ausstieg aus der Atomkraft haben die Energiekosten in die Höhe getrieben – eine Belastung, die viele Unternehmen nicht mehr tragen können.

Der Fall Lilium: Ein verlorenes Zukunftsprojekt

Besonders tragisch ist die Insolvenz des Flugtaxi-Entwicklers Lilium. Das Münchener Start-up hatte sich auf die Entwicklung eines elektrisch betriebenen, senkrecht startenden und landenden Flugtaxis spezialisiert. Mit rund 1.100 Mitarbeitern und über 700 Vorbestellungen von Kunden aus den USA, Saudi-Arabien, Frankreich und Großbritannien schien die Zukunft des Unternehmens vielversprechend. Doch ohne staatliche Hilfe droht der Traum vom Flugtaxi zu platzen.

Im Oktober 2024 lehnte der Haushaltsausschuss des Bundestages einen Bürgschaftsantrag in Höhe von 50 Millionen Euro ab. Diese Entscheidung führte auch dazu, dass Bayern sein bereits zugesagtes Hilfspaket zurückzog. Mehr dazu lesen Sie hier.

Was Deutschland jetzt tun muss

Die Politik steht vor der dringenden Aufgabe, die Rahmenbedingungen für Unternehmen zu verbessern:

  1. Bürokratie abbauen: Unternehmen müssen sich wieder auf ihre Kernaufgaben konzentrieren können, statt in einem Dschungel aus Vorschriften und Auflagen zu ersticken.
  2. Energiekosten senken: Deutschland braucht bezahlbare Energie, um wettbewerbsfähig zu bleiben. Dies könnte durch den Import von günstigem Gas sowie Investitionen in erneuerbare Energien erreicht werden.
  3. Forschung fördern: Staatliche Unterstützung für forschungsintensive Unternehmen ist essenziell, um Innovationen voranzutreiben und den Hightech-Standort Deutschland zu sichern.
  4. KMU stärken: Kleine und mittlere Unternehmen benötigen zinsgünstige Kredite, um wirtschaftliche Durststrecken zu überstehen. Diese sollten schnell und unbürokratisch bereitgestellt werden.
  5. Weiterbildung fördern: Qualifizierung von Arbeitskräften muss im Fokus stehen. Unternehmen und Staat sollten gemeinsam in Schulungen investieren, um die Fachkräfte von morgen auszubilden.

Der Verlust an Vertrauen

Die Pleitewelle zeigt, wie fragil das Fundament der deutschen Wirtschaft geworden ist. Die Politik muss handeln, bevor weitere Branchen in den Abgrund stürzen. Unternehmer brauchen Planungssicherheit und nachhaltige Rahmenbedingungen, die weit über Legislaturperioden hinausreichen. Nur so kann der Standort Deutschland wieder an Stärke gewinnen – für die Wirtschaft, die Beschäftigten und die Gesellschaft.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Beitragsbild: pixabay.com – stevepb

Dieser Beitrag wurde am 23.01.2025 erstellt.

Es gibt ein wichtiges Thema, über das im Kontext des Klimaschutzes (leider) kaum gesprochen wird. Es geht um die ständig weiter steigende Power installierter Rechnerleistung für den Betrieb des globalen Internets. Gerade die derzeitige explosionsartige Ausbreitung von KI-basierten Anwendungen gibt diesem Geschehen nochmals einen massiven Schub.

Dadurch werden jeden Tag Unmengen an Energie geradezu sinnlos verballert, denn die meisten Nutzer verwenden das Internet zum Versenden niedlicher Kätzchenbilder, belangloser Grußkarten oder fragwürdiger TikTok-Filmchen. Wenn wir es mit unserem Kampf gegen den Klimawandel wirklich ernst meinen würden, dann müssten wir in der Konsequenz das Internet nur noch für wichtige Datenübertragungen zum Beispiel in den Bereichen Wissenschaft und Medizin, Kultur, Politik und Journalismus oder Militär verwenden und somit drastisch einschränken.

Dass wir weltweit immer mehr Server und Datenspeicher bauen und installieren, bedeutet eine immense Verschwendung von Ressourcen und Energie, die schon längst hätte erkannt und abgestellt werden müssen.

Die Zunahme des Datenverkehrs erfolgt seit vielen Jahren in exponentieller Weise. Streaming-Dienste und nun auch noch die „Künstliche Intelligenz“ (KI) treiben den Energieverbrauch immer weiter in exorbitante Höhen. Hier nun sogleich ein paar konkrete Daten und Fakten zu diesem unterbewerteten Themenkomplex:

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Die weltweite Anzahl von Rechenzentren und deren Anstieg

Im Jahr 2021 gab es weltweit etwa 8.000 große Rechenzentren. Diese Zahl wächst stetig weiter. Insbesondere Cloud-Services wie Amazon Web Services, Google Cloud und Microsoft Azure sind für den Aufwuchs maßgeblich verantwortlich.

Durch KI und andere datenintensive Anwendungen ist der Bedarf an Rechenleistung geradezu explodiert, was den Bau neuer Rechenzentren unumgänglich macht. Gerade die KI-Modelle verbraten immense Mengen an Rechenleistung, da hierbei riesige Datenmengen zu verarbeiten und zu analysieren sind.

Der Energieverbrauch von Rechenzentren

Zurzeit (Stand 2022) verbrauchen alle Rechenzentren zusammen ungefähr ein Prozent der elektrischen Energie weltweit. Das hört sich zunächst vielleicht nicht nach viel an, aber das ist mehr als der Energieverbrauch von Argentinien oder den Niederlanden. Prognosen gehen davon aus, dass der Energiehunger der Rechenzentren bis 2030 auf acht bis zehn Prozent ansteigen wird.

Bereits im Jahre 2011 lag der Stromverbrauch aller 2,34 Millionen Server und der Rechenzentren in Deutschland bei knapp zehn Terawattstunden (TWh) gemäß den Berechnungen des Borderstep Instituts. Damit entsprach der Stromverbrauch damals circa 1,8 Prozent des Gesamtstromverbrauchs in unserem Lande. Zur Erzeugung dieser elektrischen Energie sind vier mittelgroße Kohlekraftwerke erforderlich. Die damit verbundenen Stromkosten beliefen sich auf ungefähr 1,2 Milliarden Euro.

Zwölf Jahre später (2023) ist der Strombedarf sogar auf 18 Milliarden Kilowattstunden (kWh) pro Jahr gesunken, da sich die Effizienz der Rechner versechsfacht hat, wobei sich die IT-Leistung in den letzten zehn Jahren nahezu verdoppelt hat. Die wichtigsten Standorte für Rechenzentren sind Berlin und Frankfurt. Genaue Zahlen darüber liefert zum Beispiel die aktuelle Bitkom-Studie von 2023 vom Borderstep Institut.

Kühlung versus Energie-Effizienz

Ein sehr großer Anteil des Stroms wird nicht einmal für die Datenverarbeitung verwendet, sondern vor allem für die Kühlung der Server, die ansonsten wegen Überhitzung zusammenbrechen würden. In warmen Regionen kann dieser Anteil bis zu 50 Prozent des Energiebedarfs eines Rechenzentrums ausmachen. Zwar ist man um Fortschritte hinsichtlich der Energie-Effizienz von Servern sehr bemüht, indem zum Beispiel auf Flüssigkühlung und die erneuerbaren Energien gesetzt wird, aber mit diesen Maßnahmen kann die steigende Nachfrage nach Energie bei Weitem nicht einmal kompensiert werden.

Die Produktion der Server erfordert viele Ressourcen

Für die Server-Hardware werden erhebliche Mengen an Metallen und seltenen Erden verbraucht. So enthält ein durchschnittlicher Server ungefähr 1,7 kg Kupfer, 1,5 kg Aluminium sowie beachtliche Mengen an Gold, Silber und Kobalt. Haben die Geräte ausgedient, was oft schon nach fünf Jahren der Fall ist, wird weltweit leider nur ein kleiner Bruchteil des elektronischen Abfalls ordnungsgemäß recycelt.

Das Internet wird kaum für essenzielle Inhalte genutzt

Ein erheblicher Teil des globalen Datenverkehrs wird für Streaming-Dienste, soziale Netzwerke und andere Unterhaltungsplattformen verwendet. Laut einer Studie von Shift Project (2019) entfallen etwa 60 Prozent des Datenverkehrs auf Streaming, wobei Video-on-Demand-Plattformen wie YouTube und Netflix ganz oben anstehen. Gleich danach rangieren TikTok, Instagram und ähnliche Plattformen in der Liste der großen Energiefresser. Einer Schätzung zufolge beträgt der globale CO2-Ausstoß allein durch Videostreaming jedes Jahr circa 300 Millionen Tonnen CO2, was in etwa mit den Emissionen von ganz Spanien vergleichbar ist.

Möglichkeiten zur Reduktion des „digitalen“ Energieverbrauchs

Suchanfragen und KI-Modelle könnten effizienter gestaltet werden, indem Speicherplatz und Rechenleistung intelligenter genutzt werden. Einige Rechenzentren setzen heute schon verstärkt auf erneuerbare Energien. Google beispielsweise betreibt einige seiner Rechenzentren bereits vollständig mit erneuerbaren Energien.

Was aber vollständig fehlt, ist eine ehrliche, schonungslose und emotionslose gesellschaftliche Debatte über den übermäßigen Konsum von nicht-essenziellen Inhalten. Anfangen könnte man an dieser Stelle mit Vorschriften, die den Zugang zu hochauflösendem Streaming begrenzen, das würde schon viel helfen. Vor allem muss endlich dem Drogenhandel, Kinderpornografie, Anleitungen für den Bau von Waffen und Sprengkörpern und anderen kriminellen Machenschaften im sogenannten Darknet ein unüberwindbarer Riegel vorgeschoben werden.

Fazit:

Die Zunahme des weltweiten Datenverkehrs ist ein überaus ernst zu nehmender Faktor im Kampf gegen den Klimawandel. Der enorme Energieverbrauch und die Ressourcenverschwendung, die mit der Bereitstellung von Cloud-Diensten, KI und Streaming verbunden sind, tragen erheblich zu den globalen CO2-Emissionen bei. Während es technische Ansätze gibt, um die Energie-Effizienz zu verbessern, könnte auch eine bewusste Einschränkung nicht-essenzieller Internetnutzung, wie der Konsum von trivialen Inhalten, einen signifikanten Beitrag leisten.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 09.10.2024 erstellt.

Nur 63 von 1.500 – das ist die ernüchternde Bilanz einer umfassenden Studie, die zeigt, dass die meisten Klimaschutzmaßnahmen in den letzten 20 Jahren wirkungslos verpufft sind. Trotz Milliardeninvestitionen und globaler Anstrengungen gibt es nur wenige Maßnahmen, die tatsächlich eine messbare Reduktion von Treibhausgasen bewirken konnten.

Aber was macht diese wenigen Erfolgsgeschichten so besonders? Und warum scheitern die meisten anderen kläglich? Wenn Sie glauben, dass Subventionen und strenge Regulierungen ausreichen, um die Welt zu retten, werden Sie überrascht sein, was die Wissenschaftler wirklich herausgefunden haben.

 

Gemäß einer Studie im Fachjournal „Science“ waren während der letzten 20 Jahre von 1.500 (politischen) Klimaschutzmaßnahmen nur 63 erfolgreich, in dem Sinne, dass sie weltweit zu einer messbaren Reduktion klimaschädlicher Emissionen im Mittel von immerhin 19 Prozent führten. Das ist wahrlich keine gute Ausbeute.

All diesen Erfolgsfällen gemeinsam ist interessanterweise das Instrument der Steuer- und Preisanreize. Die Leitautorin der Studie Annika Stechemesser vom Potsdam-Institut für Klimafolgenforschung (PIK) fügt hinzu, dass es stets auf die richtige Mischung verschiedener Ansätze und Instrumente ankommt, damit eine Klimamaßnahme von Erfolg gekrönt ist.

Allein auf Subventionen oder Regulierungen zu setzen, reicht auf keinen Fall aus. Als Beispiele werden die Verbote von Kohlekraftwerken oder Verbrennungsmotoren genannt. Erst in Kombination mit Steuer- und Preisanreizen konnten dagegen deutliche Emissionsreduktionen erzielt werden.

Das Forschungsteam setzte sich aus Wissenschaftlern des PIK und des „Mercator Research Institute on Global Commons and Climate Change“ (MCC) zusammen und wertete insgesamt 1.500 Klimamaßnahmen aus der Zeit von 1998 bis 2022 aus, die über sechs Kontinente und 41 Länder verteilt waren.

Sogar der Bundesrechnungshof bemängelte bereits 2022, dass die meisten Klimaschutzmaßnahmen, die zudem auch noch unkoordiniert seien, weitgehend wirkungslos sind. Die aktuelle Energiepolitik laufe den Zielen der CO₂-Reduktion sogar entgegen. Gerade die Subventionen im Bereich Klimaschutz erweisen sich geradezu als kontraproduktiv.

In einem vom Bundesrechnungshof beauftragten Sondergutachten wird klar aufgezeigt, dass der Überblick über die aktuellen Projekte gänzlich fehle und Milliardenbeträge einfach verschwendet werden. Kein Geringerer als das Umweltbundesamt hat Subventionen in Höhe von 65 Milliarden Euro (2018) als eindeutig umweltschädlich bewertet.

Es sei dringend geboten, so argumentieren die Mitarbeiter des Bundesrechnungshofs, sämtliche Klimaschutzmaßnahmen bezüglich ihrer Effizienz und ihrer Kosten umgehend auf den Prüfstand zu stellen und endlich eine vernünftige Steuerung und Koordination der vielen Maßnahmen vorzunehmen. Zudem empfiehlt der Bundesrechnungshof, alle Fördermaßnahmen zum Klimaschutz mit konkreten und überprüfbaren Zielwerten zur Minderung der Treibhausgase zu versehen.

Die Regierung sei also gut beraten, die Koordination der beteiligten Ressorts deutlich zu verbessern, denn die wertvollen Milliarden für den Klimaschutz sollen schließlich dort landen, wo sie auch am meisten Wirkung erzielen. Die bisherigen jährlichen Klimaschutzberichte müssten außerdem im Sinne eines echten Monitorringinstruments aufgewertet werden.

Aber kommen wir noch einmal auf die oben erwähnte Studie zu sprechen. Gerade für die gut entwickelten Länder ist der Mix aus Klimaschutzmaßnahmen effektiv. In Deutschland seien die Ökosteuerreform ab 1999 sowie die Lkw-Maut von 2005 als erfolgreich identifiziert worden, übrigens waren das die einzigen Maßnahmen, die hierzulande zu einer nennenswerten Emissionsreduktion geführt haben.

In Großbritannien war es eher die Kombination aus CO2-Mindestpreis, der Kohle-Ausstiegsplan und Subventionen für erneuerbare Energien, die dort zu einem recht guten Erfolg geführt haben. Schweden konnte dagegen mit seiner CO2-Bepreisung und Förderprogramme für Heizungswechsel und Sanierungen auftrumpfen.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 08.09.2024 erstellt.

Der Klimawandel ist eben nicht nur menschengemacht. Im Januar 2022 explodierte im südpazifischen Königreich Tonga der Unterwasservulkan „Hunga Tonga-Hunga-Ha’apai“. Dabei schoss eine monströse Wasserdampfwolke bis in die Stratosphäre. Die aufsteigende Aschesäule über dem Vulkan enthielt relativ wenig Schwefel, dafür aber besonders viel Wasserdampf, was Folgen für das Klima haben sollte.

Es konnte abgeschätzt werden, dass bei diesem Ausbruch mehr als 100 Millionen Tonnen verdampftes Meerwasser bis in Höhen um 58 Kilometer, also bis in die sonst trockene obere Stratosphäre beziehungsweise untere Mesosphäre katapultiert worden sind. Dabei ist Wasserdampf ein durchaus starkes Treibhausgas.

Normalerweise führen große vulkanische Eruptionen für die folgenden ein oder zwei Jahre zu einer globalen Abkühlung, weil das in der Rauchwolke enthaltene Schwefeldioxid in den höheren Luftschichten Sulfataerosole bildet, an denen ein Teil des Sonnenlichts direkt ins Weltall reflektiert wird. Die starken Windsysteme in diesen Höhen (Jetstream) verteilen die Aerosole indes schnell fast über den gesamten Erdball.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Seit Jahrzehnten schon bemühen sich Wissenschaftler darum, die Auswirkungen des Vulkanismus auf das Klima in komplexen Modellrechnungen zu erfassen. Da kam ihnen jene Wasserdampfinjektion durch den Hunga Tonga-Hunga Ha’apai im Sinne eines natürlichen Treibhausgas-Experiments gerade recht.

Im Mai 2024 wurde nun in der Fachzeitschrift „Journal of Climate“ eine australische Klimamodellstudie veröffentlicht, in der unter anderem auf die Auswirkungen auf die Oberflächentemperaturen, die Niederschlagsmuster und das Ozonloch eingegangen wird. Die Berechnungen ergaben zum Beispiel Hinweise auf eine mögliche temporäre Vergrößerung des Ozonlochs durch den Tonga-Vulkanausbruch, was schließlich durch Beobachtungsdaten bestätigt wurde.

Mit Blick auf den längerfristigen globalen Durchschnitt, so besagt es das Modell, ändert der Tonga-Ausbruch aber wenig, regional allerdings können sehr wohl Wetter-Anomalien auftreten. In der Attributionsforschung geht es unter anderem darum, eine Welt mit und ohne Tonga-Vulkanausbruch zu vergleichen, um auf diese Weise den sogenannten Ensemble-Mittelwert zu bestimmen.

Zu diesem Zweck wurden nahezu 30 verschiedene Klimamodelle mit den abgeschätzten Wasserdampfmengen in unterschiedlichen Höhen in der Stratosphäre berechnet, das heißt, der Großrechner simulierte die dynamischen Transportprozesse einschließlich der daraus folgenden globalen Auswirkungen. Jedes Einzelergebnis wurde mit der korrespondierenden Klimamodellrechnung ohne Wasserdampf verglichen.

Der Ausbruch des Unterwasservulkans beeinflusste zum Beispiel die großräumigen Wellenbewegungen in der Atmosphäre. Diese sogenannten „Wave Trains“ bewegen sich ständig über den gesamten Erdball hinweg. Regionale Oberflächentemperaturen können dadurch über Jahre verändert werden.

Während Skandinavien in einigen Modellrechnungen um ein Grad Celsius kühler wurde, erwärmte sich Nordamerika um gleich 1,5 Grad Celsius. Große Wärmemengen wurden so in die Arktis verfrachtet, wohingegen über Australien kühle Anomalien zu verzeichnen waren.

Weiterhin ergaben die Simulationen, dass der Wasserdampf in der Stratosphäre zu feuchten Wintern in Europa und Australien führt, während die Westküste der USA immer trockener wird. Und im Sommer wird es im Norden Eurasiens zunehmend trockener, an Chinas Ostküste sowie in Westaustralien wird es dagegen feuchter.

Für den zweiten Frühling nach der Eruption prognostizierte das WACCM4-Klimamodell eine zeitlich begrenzte Vergrößerung des Ozonlochs von immerhin zwei Millionen Quadratkilometern. Zum Sommeranfang 2023 wurde exakt ein derart vergrößertes Ozonloch gemessen.

Innerhalb des ersten Jahres nach dem Ausbruch hatte der stratosphärische Wasserdampf die polaren Breiten noch nicht erreicht, bevor sich im Winter der antarktische Polarwirbel ausbildete, der den Wasserdampf nicht weiter voranschreiten ließ. Auch das war ein Ergebnis aus der Modellstudie.

Prof. Thomas Birner vom Institut für theoretische Meteorologie der LMU in München erläuterte dazu, dass den polaren Stratosphärenwolken aus Eis, die mit einer erhöhten Konzentration an Hydroxylradikalen einhergehen, bei der Zerstörung des Ozons tatsächlich eine Schlüsselrolle zukommt.

Hydroxylradikale sind reaktionsfreudige Moleküle, die aus einem Wasserstoff- und einem Sauerstoffatom bestehen. Es ist sehr gut möglich, dass die in 2023 beobachtete Vergrößerung des Ozonlochs zumindest teilweise auf den Vulkanausbruch zurückgeführt werden kann.

Die Klimaphysikerin Ulrike Niemeier arbeitet am Max-Planck-Institut für Meteorologie in Hamburg in der Forschergruppe „Stratosphärischer Antrieb und Klima“. Sie bestätigt, dass sich derartige Klimamodelle prinzipiell gut zu Vorhersagen der Ozonentwicklung eignen. Allerdings sieht sie ein Problem darin, dass die Modelle der obigen Studie den großen Einfluss der Ozeane gar nicht berücksichtigen. Lediglich die Wasseroberflächentemperaturen fließen dort als Randparameter mit ein.

Auch Prof. Birner teilt die Kritik daran, dass die Klimamodellstudie die Dynamik der Ozeane außen vor lässt, und fügt hinzu, dass die Veränderungen in den Ozeanen deutlich langsamer ablaufen als in der Atmosphäre.

Es ist daher immer mit einer nachlaufenden Rückkopplung mit der Atmosphäre zu rechnen. Die Studienautoren räumen ein, dass ihre Modelle diesbezüglich erweitert werden sollten. Dazu sollte man wissen, dass solche Simulationen an Großrechnern sehr viel teure Computerzeit verschlingen.

Um bestimmte Prozesse isoliert verstehen zu können, werden zum Beispiel in physikalischen Laborexperimenten sämtliche andere, störende Fremdeffekte gezielt ausgelassen. Doch in diesem Fall haben sich die Autoren recht weit aus dem Fenster gelehnt, indem sie bei ihrer Interpretation sogar einen Zusammenhang mit El Niño hergestellt haben, obwohl sie dessen so wichtige Kopplung zwischen den Ozeanen und der Atmosphäre unberücksichtigt ließen.

Schlussbemerkung

Bei aller berechtigten Kritik ist es so, dass diese Modellrechnungen der Wahrheit schon recht nahekommen, was die späteren Messwerte gezeigt haben. Insofern sollten wir uns immer gewahr sein, dass nicht jede lokale Wetter-Anomalie per se eine Folge des menschengemachten Anteils am Klimawandel sein muss.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 20.08.2024 erstellt.

Die Hitze wird immer unerträglicher – sind Windenergieparks die Lösung?

Seit über 35 Jahren beschäftigt sich der aus Costa Rica stammende Klimatologe und Wetterhistoriker Maximiliano Herrera mit der Entwicklung der Temperaturen auf unserem Planeten, wobei er einen besonderen Fokus auf die Extremtemperaturen legt. Inzwischen ist er bekannt „wie ein bunter Hund“, könnte man sagen, denn mehr als 100.000 Abonnenten verfolgen Herreras Account @extremetemps auf dem Kurznachrichtendienst X.

Wenngleich es Mitte Januar 2024 in Deutschland so frostig war, dass hierzulande kaum jemand ein Problem in der Erderwärmung zu erkennen vermochte, hält Herrera einen erneuten deutschen Hitzerekord im Sommer 2024 für mehr als wahrscheinlich. Wenn wir über „Extremtemperaturen“ reden, sollten wir zuallererst zur Kenntnis nehmen, dass es praktisch täglich Tausende von Wärmerekorden gibt, aber nur sehr selten Kälterekorde.

Solche beängstigenden Zahlen sind es, die Herrera zurzeit dazu veranlassen, oftmals 20 Stunden pro Tag zu arbeiten. Seine Hoffnung liegt auf La Niña, die aller Voraussicht nach dazu führen wird, dass sich die globalen Temperaturanomalien wieder etwas abschwächen. Zur Erinnerung: Bei dem pazifischen Klimamuster El Niño verdrängen relativ warme Wassermassen die kälteren, wodurch sich das Oberflächenwasser und somit auch die Atmosphäre erwärmen. Während einer La Niña Phase passiert genau das Gegenteil. Ab Juni 2024 sollte sich eine solche Szene einstellen.

Ungefähr im Frühjahr 2023 hatte parallel zur menschengemachten Klimaerwärmung wie erwartet die warme Phase El Niño begonnen. Im Ergebnis verzeichneten wir in allen großen Ozeanen und Meeren Temperaturrekorde, die alle Vorhersagen und Modellrechnungen übertrafen. In Deutschland wurde am 6. April 2024 eine Temperatur von etwas über 30 Grad Celsius erreicht, so warm war es noch nie so früh im Jahr.

Im Juli 2019 wurde in Duisburg-Baerl und Tönisvorst westlich von Krefeld der bisherige deutsche Temperaturrekord von 41,2 Grad Celsius gemessen. Ob solche Werte auch 2024 wieder möglich sind, ist eine Frage des Wetters, aber nicht des Klimas. Innerhalb eines eher kühlen Sommers kann es durchaus zu einer Periode mit Rekordhitze kommen, während selbige in einem insgesamt sehr heißen Sommer ausbleiben kann.

Insgesamt gesehen steigt aber die Wahrscheinlichkeit von Extremereignissen sogleich um ein Vielfaches aufgrund der höheren globalen Temperaturen. Allein die Tropen zeichnen sich durch eine geringere Schwankungsbreite aus, sodass das Wetterphänomen El Niño dort nicht so große Auswirkungen zeigt.

Die Messwerte und deren Entwicklung in den letzten Jahren sind geradezu überwältigend. Dies führt bei vielen Menschen zu großer Unsicherheit, was nicht selten Hass gegen Menschen wie Maximiliano Herrera erzeugt, die doch eigentlich nur ganz neutral und nicht wertend Zahlen und Statistiken zur Kenntnis geben. Jeden Tag fallen irgendwo auf der Welt die bisherigen Rekorde. Hoffen wir jetzt also auf die kühle La Niña.

Lässt sich die fatale Klimaentwicklung durch die energiepolitische Transformation noch aufhalten oder gar umkehren?

Ein beliebtes Mittel der Wahl für die energiepolitische Transformation ist ja die Aufstellung von Windenergieanlagen (WEA), möglichst gleich in ganzen Parks organisiert, vorzugsweise sogar offshore. Deren Produktion und Transport, die Installationsarbeiten an Land oder auf dem Schelfbereich und später der Rückbau, Abtransport und die Weiterverwertung oder Entsorgung des komplexen Materialien-Cocktails werfen zu Recht die Frage auf, ob sich dieser „grüne Strom“, der damit produziert worden ist, am Ende überhaupt als so klimafreundlich erweist oder erweisen kann.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Eine kritische Bilanz über die Windenergie

Die Windenergie wird schon lange geradezu einvernehmlich als der vielversprechendste Ansatz für die Energiewende betrachtet. Windparks, insbesondere Offshore-Anlagen, so die einhellige Meinung, leisten einen ganz wesentlichen Beitrag zur Reduktion von Treibhausgasen. Doch um die tatsächliche Klimafreundlichkeit dieser Technologie beurteilen zu können, muss der gesamte „Lebenszyklus“ von Windenergieanlagen kritisch betrachtet werden, und zwar von der Produktion über den Betrieb bis hin zur Entsorgung.

Produktion und Betrieb von Windenergieanlagen

Die Herstellung der vielen verschiedenen Komponenten einer WEA ist wahrlich energie- und ressourcenintensiv. Die Turbinen, Rotorblätter und Türme bestehen aus Stahl, Kupfer, seltenen Erden und glasfaserverstärkten Kunststoffen. Die Produktion all dieser Materialien ist mit erheblichen CO₂-Emissionen verbunden, was gerade bei der Stahlherstellung sehr deutlich wird. Seltene Erden, die für Permanentmagnete in Generatoren benötigt werden, werden oft unter umweltschädlichen Bedingungen und nicht selten unter hochgradig gesundheitsgefährdenden Arbeitsbedingungen abgebaut und verarbeitet.

Zudem müssen die schweren, riesigen Komponenten der WEA oftmals über weite Strecken als Schwertransport gesichert verfrachtet werden, was zusätzlich große Mengen fossiler Brennstoffe verbraucht und Emissionen verursacht. Außerdem ist das Ganze auch eine logistische Herausforderung. Der Transport auf dem Seeweg, der für Offshore-Anlagen unumgänglich ist, erfordert spezialisierte Schiffe und Hebezeuge, deren Bau im Vorfeld in Auftrag gegeben werden muss.

Gerade die Installation von Offshore-Windparks ist technisch höchst anspruchsvoll, da in dem weichen Untergrund in größerer Wassertiefe zunächst massive Fundamente mit schnell abbindendem Zement hergestellt werden müssen. Im Verein mit dem Einsatz schwimmender Spezialkräne ist das alles extrem kosten- und energieintensiv.

Während ihrer Betriebszeit sind Offshore-Anlagen ständig extremen Wetterbedingungen ausgesetzt, was eine aufwendige regelmäßige Wartung durch Spezialisten bei besonders kurzen Wartungsintervallen erfordert. Werden alle Voraussetzungen gut erfüllt, können uns derartige Windparks in der Tat mit viel „grünem Strom“ versorgen. Ein paar Kennzahlen dazu werden im nächsten Abschnitt angeführt. Aber wie geht es eigentlich weiter mit der vielen elektrischen Energie aus dem Wind?

Um die Elektrizität zu den Verbrauchern irgendwo in Deutschland und angrenzenden Regionen zu bringen, bedarf es eines ausreichend dimensionierten Verteilernetzes, das in großen Teilen erst neu gebaut werden muss. Sie können aber kein Vorhaben einfach so durchpeitschen. Egal, ob Sie sich für Hochspannungsmasten oder Erdkabeltrassen entscheiden, überall sprießen Bürgerinitiativen wie Pilze aus dem Boden, die immer gegen alles sind und allerorts die Gerichte um einstweilige Verfügungen bemühen. Im Ergebnis „ersticken“ die leistungsstarken Offshore-Anlagen an ihrer eigenen Energiedichte, die sie gar nicht abführen können.

Betrachten wir die Leistungen moderner Anlagen

Moderne Onshore-Windenergieanlagen liefern typischerweise Leistungen von zwei bis fünf Megawatt (MW). Gemeint ist hier immer eine sogenannte (Dauer)Nennleistung, die sich theoretisch bei einer strammen, konstanten Windströmung von zehn Metern pro Sekunde (36 Stundenkilometer) ergibt. Die Nabenhöhen dieser Anlagen befinden sich in der Regel in einer Höhe von 80 bis 150 Meter, wobei die Durchmesser der Rotorblätter zwischen 100 und 150 Meter angesiedelt sind.

Mitnichten kann jeder eine solche Anlage in jedem Kleingarten aufstellen. Wie nicht anders zu erwarten, gibt es gerade in Deutschland eine Flut von Gesetzen, Verordnungen und Bestimmungen (also Verboten), die bestimmte Mindestabstände der WEA zu Ortschaften, Straßen und Autobahnen, Flugplätzen und anderen Infrastruktureinrichtungen oder gar zu Vogelnestern vorschreiben.

Trägt man all diese Beschränkungen in eine Landkarte ein, bleibt noch eine Handvoll kleiner Fleckchen übrig, wo man rein rechtlich noch eine WEA aufstellen könnte. Ob das dann auch ein ergiebiger Windstandort ist, spielt in Deutschland eine völlig untergeordnete Rolle.

Kommen wir nun zu den Offshore-Anlagen. Bei ihnen rangieren die Leistungen heute bei Nabenhöhen von 100 bis 130 Meter zwischen sechs und zwölf Megawatt, können aber auch mal 15 Megawatt erreichen.

Die Durchmesser der Rotorblätter messen hier 150 bis 220 Meter. Eine der leistungsstärksten Offshore-Turbinen ist die GE Haliade-X (14 MW). Die Siemens Gamesa SG 14-222 DD erreicht sogar 15 MW und die Vestas V150-4.2 MW ist mit einem Rotorblattdurchmesser von 150 Metern ausgestattet.

Rückbau und Entsorgung

Nach ungefähr 25 bis 30 Jahren erreichen Windenergieanlagen das Ende ihrer Lebensdauer. Der Rückbau dieser Anlagen ist komplex und aufwendig. Viele der Materialien können recycelt werden, allerdings ist dies nicht immer wirtschaftlich. Der Transport der ausgedienten Teile zum Recycling- oder Entsorgungsstandort erfordert erneut einen erheblichen Energie-Aufwand und verursacht viele Emissionen. Beispielsweise sind die Rotorblätter aus Verbundwerkstoffen schwer zu recyceln und enden daher oft auf Deponien.

Die CO₂-Bilanz von Windenergieanlagen

In vielen Gefälligkeitsgutachten, die die politisch forcierte Energiewende mit sich brachte, wurde „nachgewiesen“, dass Windkraftanlagen über ihren gesamten Lebenszyklus betrachtet weniger Treibhausgase emittieren als konventionelle fossile Kraftwerke, die vergleichbare Leistungen liefern. Der weitergehende technologische Fortschritt und bessere Recyclingverfahren, so die darin ausgedrückte Hoffnung, könnten die Umweltbilanz von Windenergieanlagen in Zukunft sogar „noch weiter verbessern“.

Wir befürchten, dass uns die Politik auch wieder in dieser Angelegenheit einen Bären aufbindet.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 30.07.2024 erstellt.

Mit dem Erneuerbare-Energien-Gesetz (EEG) hat die Bundesregierung ziemlich ambitionierte Ausbauziele formuliert. Bis zum Jahr 2030 sollen zum Beispiel im Windkraft-Offshore-Bereich um die 15.000 Megawatt installiert sein. Ein Unterfangen dieser Dimension ist aber nicht nur harmlos, denn es bringt in mehreren Hinsichten erhebliche Belastungen mit sich.

Cristina Archer und Nicolas Al Fahel von der University of Delaware (USA) haben 2020 eine Arbeit veröffentlicht, die aufzeigte, dass Offshore-Turbinen zu einer circa elfprozentigen Zunahme des Niederschlags auf dem Meer führen, während es an Land trockener wird. Dies lässt sich so aus Niederschlagsdaten ablesen, die an der englischen Westküste vor und nach dem Bau von Offshore-Windparks ermittelt worden sind.

https://link.springer.com/article/10.1007/s42865-020-00012-7

Zu den Auswirkungen von Offshore-Windparks gehört auch eine deutliche Veränderung in der Nährstoffverteilung im Meer. Zu diesem Ergebnis kam die Ozeanografin Ute Daewel vom Helmholtz-Zentrum Hereon in Geesthacht. Das dort angesiedelte Institut für Küstensysteme analysierte und modellierte unter Einsatz des Supercomputers „Levante“ am Deutschen Klimarechenzentrum in Hamburg die Auswirkungen von Offshore-Windparks auf das Nahrungsnetz in der Nordsee:

Offshore-Windparks werden sich voraussichtlich auf die Primärproduktion und den Sauerstoffmangel im Grundwasser in der Nordsee auswirken | Kommunikation Erde & Umwelt (nature.com)

Bis zum Jahr 2030 soll an den deutschen Küstengewässern die Kapazität der Offshore-Windenergie auf 30 Gigawatt Leistung gesteigert werden, bis zum Jahr 2045 sogar auf 70 Gigawatt. Dabei steht gerade die südliche Nordsee heute schon unter erheblichem Nutzungsdruck durch den intensiven Schiffsverkehr, die Fischerei und die Ölförderung.

Ute Daewel zeigt in der Studie „Offshore wind farms are projected to impact primary production and bottom water deoxygenation in the North Sea“, die vor Kurzem im Fachjournal “Communications Earth & Environment” publiziert wurde, dass Windparks sowohl die räumliche als auch die zeitliche Verteilung von Nährstoffen über weite Strecken verändern. Dies wiederum hat einen Einfluss auf ganze Prozessketten und somit auf das Vorkommen vieler Fischarten. Durch die Verringerung der Strömungsgeschwindigkeiten kann auf lokaler Ebene eine Abnahme des Sauerstoffgehalts des Wassers erfolgen.

So wichtig der Ausbau der Erneuerbaren Energien auch ist, kommentierte Daewel, wir sollten „sehenden Auges“ die damit verbundenen Risiken so realistisch wie möglich bewerten. Bei einigen Modellrechnungen wurde nur die Hälfe der Anlagenkapazität zugrunde gelegt, die eigentlich vorgesehen ist, um bis 2050 klimaneutral werden zu können.

Aber bereits die Auswirkungen davon sind mehr als gravierend mit Blick auf die Strukturierung der marinen Küstenökosysteme. Marine Schutzgebiete werden extra ausgewiesen, um Laichgebieten und der Verteilung von Fischlarven und Fischbeständen ihren Raum zu geben. Genau das muss beim Ausbau von Offshore-Windparks viel mehr in den Fokus rücken.

Beim Bau der Anlagen müssen schwere Fundamente tief in den Schlick eingerammt werden. Diese Arbeiten lösen Schallwellen aus, die für die in der Nähe befindlichen Schweinswale äußerst problematisch sind, während die Bewegung der Rotorblätter vielen Seevögeln den Tod bringt.

Die Luftschichten unterhalb der Rotoren erwärmen sich und verlieren dabei Feuchtigkeit. Über den Windenergieanlagen wird die Luft dagegen kälter und feuchter, was zu vermehrter Wolkenbildung und Niederschlag führt. Große Windparks sind also selbst Quellen eines lokalen Klimawandels.

 

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

 

Beitragsbild: pixabay.com – distelAPPArath

Heutzutage wird unter dem Stichwort Klimawandel zu viel in einen Topf geworfen und sinnentleert verrührt. Viele Menschen kriegen das mit, was nicht nur die Politikverdrossenheit anheizt, sondern in zunehmendem Maß auch eine „Klimawandelverdrossenheit“.

Um das Ganze wieder zu entflechten, wollen wir einen längst überfälligen, kritischen Artikel über die ganz normalen natürlichen Klimaschwankungen, die es schon immer gab, präsentieren.

Die gemessenen Temperaturen in der Troposphäre oder den Ozeanen sind stets ein Ergebnis aus natürlichen Klimaschwankungen und menschlichen Aktivitäten [1].

Modellrechnungen zur Klimaentwicklung haben gezeigt, dass die natürlichen Einflüsse auf das Erdklima sowohl, wie in den 1990er-Jahren, zu geringfügig steigenden Temperaturen führen als auch, wie während des letzten Jahrzehnts, eine moderate globale Abkühlung bewirken können [2].

Wie sich beide Einflüsse, der natürliche und der anthropogene, auf das Klima quantitativ verteilen, ist nur ganz schwer abzuschätzen. Vor allem basieren die Einflussgrößen auf sehr unterschiedlichen Zeitskalen.

 

Ursache der Klima-Änderung Periode der Schwankung
Einzelne Vulkanausbrüche einige Jahre
Sonnenaktivität und interne Klimaschwankungen Jahre bis einige Jahrzehnte
Anthropogene Treibhausgas-Emissionen mehrere Jahrzehnte
Erdbahn-Parameter einige Hunderttausend Jahre
Plattentektonik Millionen Jahre

 

Schwankungen in der Sonneneinstrahlung zum Beispiel sind in erster Linie eine Folge der regelmäßigen Veränderungen der Erdbahnparameter und waren unter anderem während der letzten drei Millionen Jahre für die Abfolge mehrerer Kalt- und Warmzeiten verantwortlich. Eine dominierende Wellenlänge liegt hier ungefähr bei 100.000 Jahren.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Unsere Sonne ist alles andere als eine konstante Leuchte. Die Intensität ihrer Aktivität wird bestimmt durch den elfjährigen Sonnenfleckenzyklus (Schwabe-Zyklus), durch riesige Protuberanzen und instantane Sonnenfackeln. Auch der circa 80-jährige Gleissbergzyklus sollte in diesem Zusammenhang erwähnt werden:

Der deutsche Astronom Wolfgang Gleissberg (1903–1986) stellte eine 70 bis 100 Jahre währende Periode für die Häufigkeit und Intensität von Sonnenflecken fest. Eine Folge dieser Schwankung war zum Beispiel in der Zeit zwischen 1645 und 1715 das sogenannte „Maunder Minimum“, das durch eine besonders geringe Sonnenfleckenaktivität gekennzeichnet war und in Europa eine „Kleine Eiszeit“ auslöste.

Explosive Vulkane schleudern riesige Mengen Staub bis hoch in die Stratosphäre, wo sie die Einstrahlung der Sonne behindern. Dies kann zu einer Abkühlung führen, die durchaus zwei Jahre währen kann.

Die permanenten intensiven Wechselwirkungen zwischen den Ozeanen und der Atmosphäre spielen sich auf ähnlichen Zeitskalen ab wie die Folgen der anthropogenen Einflüsse auf das Klima. Insofern kann hier das eine Phänomen das andere überdecken, was die Analyse enorm erschwert. Als Beispiele seien in diesem Zusammenhang genannt:

Derartige Phänomene steuern unter anderem die atlantische Hurrikan-Aktivität, die europäischen Temperaturen oder den Niederschlag in der Sahelzone [3].

Die Veränderungen des Erdklimas wirken sich regional sehr unterschiedlich aus. Im Zeitraum von 1910 bis 1940 fand eine ausgeprägte Erwärmung im Bereich des Nordatlantiks und in den östlichen Regionen des Nordpazifiks statt. Während der letzten 30 Jahre wurde es am Nordatlantik auch wärmer, aber im Osten des Nordpazifiks eher kühler.

Seit ungefähr 100 Jahren steigt die mittlere Temperatur in Europa aufgrund der Einflüsse durch den Menschen tendenziell an. Der Kurvenverlauf korreliert aber kaum mit der eher stetigen Zunahme der Konzentration von Treibhausgasen in der Atmosphäre, weil der Temperatureffekt durch die Wasseroberflächentemperatur des Nordatlantiks (Sea Surface Temperature – SST) überlagert wird.

Letztere wird wiederum von der „Atlantischen Multidekadischen Oszillation“ (AMO) gesteuert. Die Temperaturabnahme während der 1960er- und 1970er-Jahre war zudem durch eine relativ hohe Aerosolkonzentration über Europa ausgelöst worden.

Aus einer Zunahme der atlantischen Hurrikane kann man mitnichten sogleich einen klaren Nachweis des anthropogenen Klimawandels ableiten, weil eine solche Entwicklung allein auf die natürliche Dekaden-Schwankung des Klimas zurückgeführt werden könnte. Aus wissenschaftlicher Sicht brauchen wir mindestens noch die Zeitreihen der nächsten 20 Jahre, um die beiden Einflussgrößen seriös trennen zu können.

Die internen Dekaden-Schwankungen sind hauptsächlich auf die Wechselwirkung zwischen den träge reagierenden Ozeanen und der kurzfristig und auch chaotisch reagierenden Atmosphäre zurückzuführen [4].

Gerade der Großraum des Nordatlantiks zeichnet sich durch besonders starke Dekaden-Schwankungen aus. Auf Jahressicht wird der Atlantik von der Atmosphäre angetrieben. Betrachtet man längere Perioden ist es aber eher der Ozean, der die Atmosphäre steuert [3].

Das hat alles viel mit der thermohalinen Zirkulation beziehungsweise mit der Meridionale Umwälzzirkulation (MOC) zu tun. Sie ist es, die die Wärme aus den äquatornahen Breiten in die Polarregion verfrachtet und die Temperaturen der Meeresoberflächen (SST) im Nordatlantik bestimmt. Genau davon hängt das europäische Klima vehement ab [5].

Ende des 19. und Mitte des 20. Jahrhunderts waren die SST durch moderate Warmphasen gekennzeichnet, während ab den 1960er-Jahren eher eine kühlere Phase registriert wurde, die aber in den 1990er-Jahren wieder in eine Erwärmung überging. Ganz ähnlich verhielten sich auch die Temperaturen der Meeresoberflächen im Pazifik.

Positive Phasen in den Dekaden-Schwankungen der Nordatlantischen Oszillation (NAO) führen in der Labradorsee, bei Grönland und über dem Norden Kanadas zu einer deutlichen Abkühlung. Gerade jene über der Labradorsee ist bedeutend für die MOC, da dort die thermohaline Zirkulation nach unten abbiegen soll.

Warmes Wasser strömt hier aus den Subtropen heran und gibt umso mehr Wärme an die Atmosphäre ab, je kälter diese ist. In der Folge wird auch die Dichte des Wassers etwas größer, was das Absinken in die Tiefe intensiviert und die MOC antreibt. Genau darauf möchten wir in Europa lieber nicht verzichten.

Klimavorhersagen

Mal angenommen, wir würden alle wesentlichen Parameter der natürlichen Klimaschwankungen kennen, dann wäre es theoretisch möglich, Klimamodelle zu berechnen und möglicherweise bis hundert Jahre in die Zukunft zu extrapolieren. Tatsächlich unterscheiden sich die Projektionen unterschiedlicher Szenarien nicht allzu sehr und driften erst ab ungefähr 2050 etwas mehr auseinander.

Man kann also sagen, dass uns die künftige Klima-Entwicklung unter Einbeziehung der anthropogenen Treibhausgase zumindest für die nächsten 30 Jahre relativ gut bekannt ist. Deutlich schlechter kennen wir den Anteil der Klimaentwicklung durch die natürlichen Faktoren wie externe Antriebe und interne Variabilität.

Es gibt seit der Kleinen Eiszeit eine Zunahme der Solarstrahlung, die aber nur auf 1,2 Promille, also +0,3 W/m2 geschätzt wird. Der seit Beginn der Industrialisierung anthropogen verursachte Strahlungsantrieb aufgrund der langlebigen Treibhausgase beträgt aber +2,6 W/m2, also fast das Neunfache [6].

Tatsächlich betrug der Temperaturunterschied zwischen der Hochphase der Kleinen Eiszeit (Maunder Minimum) und der warmen Klimaperiode zwischen 1960 und 1990 weniger als ein halbes Grad Celsius [7].

In den kommenden Jahrzehnten geht man von einer geringfügigen Abnahme der Solarstrahlung aus. Falls die Sonne gegen Ende dieses Jahrhunderts tatsächlich mit der Kraft strahlen sollte, die jener der Kleinen Eiszeit entspricht, wird dies auf der Erde einen Temperatureffekt von nur -0,1 °C haben [8].

Explosive Vulkanausbrüche, wie wir es 1991 beim Mt. Pinatubo erlebt haben, können aufgrund der starken Emissionen von Aerosolen die Durchschnittstemperatur auf der Erdoberfläche um circa 0,3 °C absenken [9]. Allerdings hält die Wirkung nur wenige Jahre an.

Insofern müssen wir wohl davon ausgehen, dass die globale Erderwärmung in den kommenden Jahrzehnten vorrangig durch natürliche interne Klimaschwankungen zustande kommt.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Literaturhinweise

  1. Keenlyside, N.S. and J. Ba, 2010; Prospects for decadal climate prediction; WIREs Climate Change 1 (627–635)
  2. G. Hunt, 2011; The role of natural climatic variation in perturbing the observed global mean temperature trend; Climate Dynamics 36 (509–521)
  3. Mojib Latif and Noel S. Keenlyside, 2011; A perspective on decadal climate variability and predictability Deep Sea Research Part II; Topical Studies in Oceanography 58 (1880-1894)
  4. Mojib Latif, 2009; Klimawandel und Klimadynamik; Stuttgart (S. 82 ff)
  5. Mojib Latif, 2011; Klimavariabilität, El Nino/Southern Oszillation, die Nordatlantische und die Atlantische Multidekadische Oszillation – Mit Anmerkungen zur Vorhersagbarkeit in J.L. Lozán, H. Graßl, L. Karbe, K. Reise; Warnsignal Klima: Die Meere – Änderungen & Risiken; Hamburg 2011 (78-89)
  6. IPCC, 2007; Climate Change 2007, Working Group I; The Science of Climate Change (2.7.1.2)
  7. Foster and S. Rahmstorf, 2011; Global temperature evolution 1979–2010; Environ. Res. Lett. 6; doi:10.1088/1748-9326/6/4/044022
  8. Jones, G. S., M. Lockwood, and P. A. Stott, 2012; What influence will future solar activity changes over the 21st century have on projected global near-surface temperature changes?; Journal of Geophysical Research; 117; D05103; doi:10.1029/2011JD017013
  9. Soden, B. J., R. T. Wetherald, G. L. Stenchikov and A. Robock, 2002; Global cooling after the eruption of Mount Pinatubo: A test of climate feedback by water vapor; Science, 296 (727-730)

Dieser Beitrag wurde am 13.05.202 erstellt.

Durch undichte Stellen in Pipelines oder lockere, defekte Dichtungen entweicht permanent Methangas (CH4) in die Atmosphäre. Methan hat eine deutlich stärkere kurzfristige Treibhauswirkung pro Einheit Masse als Kohlendioxid. Zur Quantifizierung des Unterschieds wird gern der Begriff „Global Warming Potential“ (GWP) herangezogen.

GWP ist ein Maß dafür, wie viel Wärmeenergie ein Treibhausgas im Vergleich zu Kohlendioxid über einen bestimmten Zeitraum, normalerweise 100 Jahre, in der Atmosphäre absorbiert. Kohlendioxid wird dabei als Referenz mit einem GWP von 1 betrachtet.

Gemäß dem „Intergovernmental Panel on Climate Change“ (IPCC) hat Methan ein GWP von etwa 28 bis 36 über einen Zeitraum von 100 Jahren. Allerdings hat Methan in der Atmosphäre eine kürzere Lebensdauer als Kohlendioxid. Deshalb macht es Sinn, den Vergleich auf den kürzeren Zeitraum von 20 Jahren zu beziehen. Tut man dies, ergibt sich für Methan sogar ein GWP von 84 bis 87.

Vom 18. bis 21. März 2024 fand das Globale Methangas Forum in Genf (Schweiz) statt. Dario Liguti ist der Direktor für nachhaltige Energie bei der UN-Wirtschaftskommission für Europa (Unece), die hier als Gastgeber fungiert. Gekommen sind circa tausend Vertreter von Regierungen, wissenschaftlichen Institutionen und Unternehmen aus mehr als 100 Nationen. Sie alle haben großes Interesse daran, eine Lösung dafür zu finden, die Methanlöcher endgültig zu stopfen.

Seit Beginn der industriellen Revolution hat Methan grob geschätzt zu ungefähr 30 Prozent zur Erwärmung des Klimas beigetragen. Immerhin um die 60 Prozent des Methans in unserer Atmosphäre sind eine Folge menschlicher Aktivitäten, wobei circa 40 Prozent davon der Energiewirtschaft geschuldet sind.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Während Kohlendioxid mehrere hundert Jahre in der Atmosphäre verbleibt, liegt die „Halbwertzeit“ von Methan bei ungefähr zwölf Jahren, das heißt, eine Verringerung des Ausstoßes von Methan würde sich in überschaubarer Zeit positiv bemerkbar machen.

Methan entsteht unter anderem in der Kohle-, Öl- und Gasindustrie. Mit wenig Aufwand könnten drei Viertel dieser Emissionen gestoppt werden, denn so viel entweicht aus Pipeline-Lecks und defekte Dichtungen. Eigentlich sollte dies absolut im Interesse der beteiligten Unternehmen liegen.

Liguti verwies in diesem Zusammenhang auf die zunehmende Verbesserung bei der Auflösung von Satellitenbildern, die es ermöglicht, eben gerade auch Methan-Lecks schnell und präzise ausfindig zu machen. Fakt ist, dass fast drei Prozent des geförderten Methans direkt in die Atmosphäre entweicht, sehr viel mehr als bislang angenommen, so jedenfalls wurde es kürzlich im Fachjournal „Nature“ dargestellt.

Die größten Mengen an Methangas werden heute durch die Kohle-Industrie in China freigesetzt. Methan-Emissionen durch die Öl- und Gasindustrie entstehen besonders viel in den USA, aber auch in Russland. Es ist schon sehr beachtlich, dass mehr als 30 Prozent aller Methan-Emissionen weltweit aus der Viehhaltung stammen. Insofern wäre eine Reduktion unseres Fleischkonsums direkt mit einem messbaren Rückgang der Methan-Emissionen verbunden. Gerade Rinder produzieren beachtliche Mengen Methan im Zuge der Verdauung.

Global Methane Pledge (GMP)

Auf der Klimakonferenz im schottischen Glasgow 2021 haben die EU und die USA eine Initiative gestartet und gemeinsam mit zahlreichen anderen Ländern beschlossen, den weltweiten Ausstoß von Methan bis 2030 um 30 Prozent zu reduzieren. Modellrechnungen zeigen, dass dies die Erderwärmung (bis 2050) um mindestens 0,2 Grad Celsius vermindert. Die Unternehmen sollten also von der nationalen Regierung und von der EU zur Messung ihrer Methan-Emissionen und zu deren Meldung rechtlich verbindlich gezwungen werden.

Zwar sind die Kosten für das Abdichten von Lecks nicht besonders gravierend und amortisieren sich sehr schnell durch den Verkauf des nicht mehr entweichenden Gases, doch die Unternehmen haben die schlechte Angewohnheit, ihr Geld nur dort zu investieren, wo der maximale Gewinn winkt. Daher fließen die Investitionen ausschließlich in die Produktionssteigerung. Ohne gesetzliche Vorschriften wird diesbezüglich nicht viel passieren. Freiwillig wird da niemand seine Öl- und Gas-Lecks schließen.

Mit nachhaltigem Biodiesel lässt sich weitgehend auf fossile Brennstoffe verzichten

Wer braucht schon lange Pipelines mit undichten Stellen, wenn man Kraftstoff doch lokal aus Abfällen herstellen kann? Wenn die Bundesländer zustimmen, dürfen ab Mitte April 2024 Dieselfahrzeuge mit klimafreundlichem Sprit aus Abfallstoffen betankt werden. Zurzeit ist es noch so, dass dem Diesel nur sieben Prozent Biokraftstoff beigemischt werden darf.

Dieser „B7“ ist also die übliche Dieselsorte an unseren Tankstellen, bestätigt auch die Deutsche Biokraftstoffindustrie (VDB). Doch bald können wir wahrscheinlich auch hundertprozentigen Biodiesel aus zertifizierten, nachhaltigen Rest- und Abfallstoffen tanken. Dabei handelt es sich oftmals um alte Fette aus Großküchen, Fischreste, Zelluloseabfälle und Holzreste.

Hydrotreated Vegetable Oils (HVO)

Allein in Deutschland sind zurzeit nach Angaben des Kraftfahrt-Bundesamtes über 14 Millionen Fahrzeuge mit Dieselmotoren unterwegs. Der Verkehrsminister Volker Wissing (FDP) geht davon aus, dass die Kohlendioxid-Emissionen im Verkehr mit „HVO100“ (Wasserstoff behandelte Pflanzenöle) innerhalb kurzer Zeit um bis zu 95 Prozent gesenkt werden können.

Gemäß dem Bundesverband freier Tankstellen (BfT) wird der Biodiesel heute nur im öffentlichen Nahverkehr und in der Landwirtschaft eingesetzt sowie von Logistikfirmen genutzt. Deshalb ist Biodiesel auch an den Tankstellen noch nicht frei verfügbar. Doch das diesbezügliche Potenzial in der Speditionsbranche ist riesig. Der finnische HVO-Hersteller Neste ist davon überzeugt, dass bis zum Jahre 2040 biogene Kraftstoffe ungefähr eine Milliarde Tonnen Rohöl ersetzen werden, das sind circa 40 Prozent des globalen Bedarfs im Transportwesen.

Die Anlaufphase von HVO100 kann für Flottenbetreiber deshalb interessant sein, weil diese damit die CO2-Vorgaben auch mit ihren Bestandsfahrzeugen erreichen können. Überdies bedarf es bei modernen Dieselmotoren dafür keiner technischen Anpassung oder Umrüstung. Allerdings bedarf die Freigabe von Kraftstoffen für Motoren immer eines klaren Signals des jeweiligen Fahrzeugherstellers. Für unsere Umwelt wäre es ein Gewinn, wenn diese Unternehmen derartige Hinweise schnell veröffentlichen würden.

Wenn der Bundesrat am 22. März 2024 seine Zustimmung gibt, kann HVO100 tatsächlich am 13. April 2024 in den öffentlichen Verkauf gehen. An den Tankstellen wird dann der biogene HVO-Diesel sowie grünstrombasierter synthetischer E-Diesel mit dem Hinweis „XtL“ gekennzeichnet. In den Niederlanden, Schweden oder in Litauen können Sie den Biodiesel übrigens schon seit längerer Zeit tanken. Insgesamt gibt es in Europa mehr als 600 Tankstellen, an denen dieser frei erhältlich ist.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 17.04.2024 erstellt.

Das Ziel Deutschlands, bis 2045 klimaneutral zu sein, erfordert eine drastische Umstellung auf erneuerbare Energien, mit einem ambitionierten Zwischenziel, bis 2030 mindestens 80 Prozent des Stromverbrauchs durch erneuerbare Quellen, insbesondere Wind- und Solarenergie, zu decken.

Diese Transformation wirft jedoch eine bedeutende Herausforderung auf, die auf der Website der Bundesregierung weniger Beachtung findet: den immensen Bedarf an kritischen Rohstoffen wie Kupfer, Kobalt und Nickel, die für Technologien der sogenannten Energiewende unerlässlich sind.

Die Europäische Union hat die Notwendigkeit erkannt, sich von der dominanten Versorgung mit seltenen Erden und anderen kritischen Materialien aus China unabhängiger zu machen. Angesichts dessen, dass fast die gesamte Versorgung mit diesen essenziellen Rohstoffen derzeit aus China stammt, legt die EU mit dem „European Raw Materials Act“ einen Plan vor, der den Eigenabbau von strategischen Mineralien fördern und das Recycling dieser Materialien intensivieren soll.

Diese Notwendigkeit spiegelt einen globalen Wettlauf wider, in dem die Kontrolle über und der Zugang zu Rohstoffen eine zentrale Rolle spielen. China hat bereits eine dominante Position in der Verarbeitung dieser Rohstoffe erlangt und seine Investitionspolitik in Afrika strategisch ausgebaut, um seine Versorgung zu sichern. Dies zeigt, dass der Wettbewerb um Ressourcen weit über die Grenzen Europas hinausgeht und eine globale Dimension annimmt. Die EU hat diese Entwicklung verpasst – wieder einmal.

Die Energiewende birgt das Potenzial, einen sogenannten „Superzyklus“ bei Mineralien auszulösen. Experten beschreiben diesen Superzyklus als  eine Periode langfristig steigender Preise aufgrund des Ungleichgewichts zwischen Angebot und Nachfrage. Investitionen in die Erschließung neuer Vorkommen hinken hinterher, und die Förderung der benötigten Rohstoffe ist aktuell noch mit hohen CO₂-Emissionen verbunden. Dies stellt eine weitere Herausforderung dar: Wie kann die Versorgung mit kritischen Rohstoffen nachhaltig gestaltet werden, ohne die Klimaziele zu gefährden?

Die Antworten auf diese Fragen sind vielschichtig und erfordern eine Kombination aus technologischen Innovationen, Investitionen in Recycling und nachhaltige Fördermethoden sowie eine diversifizierte globale Strategie zur Sicherung der Rohstoffversorgung. Die Energiewende ist somit nicht nur eine ökologische oder technologische Herausforderung, sondern auch eine geostrategische und wirtschaftliche, die ein koordiniertes Vorgehen auf nationaler, europäischer und globaler Ebene erfordert.

In diesem Kontext wird deutlich, dass der Erfolg der Energiewende nicht allein von der Umstellung auf erneuerbare Energien abhängt, sondern auch von der Fähigkeit, die dafür notwendigen Rohstoffe nachhaltig und gerecht zu beschaffen. Die Entwicklung einer solchen Strategie wird entscheidend sein, um die Ziele der Klimaneutralität zu erreichen, ohne neue Abhängigkeiten zu schaffen oder bestehende Umweltprobleme zu verschärfen