Es gibt ein wichtiges Thema, über das im Kontext des Klimaschutzes (leider) kaum gesprochen wird. Es geht um die ständig weiter steigende Power installierter Rechnerleistung für den Betrieb des globalen Internets. Gerade die derzeitige explosionsartige Ausbreitung von KI-basierten Anwendungen gibt diesem Geschehen nochmals einen massiven Schub.

Dadurch werden jeden Tag Unmengen an Energie geradezu sinnlos verballert, denn die meisten Nutzer verwenden das Internet zum Versenden niedlicher Kätzchenbilder, belangloser Grußkarten oder fragwürdiger TikTok-Filmchen. Wenn wir es mit unserem Kampf gegen den Klimawandel wirklich ernst meinen würden, dann müssten wir in der Konsequenz das Internet nur noch für wichtige Datenübertragungen zum Beispiel in den Bereichen Wissenschaft und Medizin, Kultur, Politik und Journalismus oder Militär verwenden und somit drastisch einschränken.

Dass wir weltweit immer mehr Server und Datenspeicher bauen und installieren, bedeutet eine immense Verschwendung von Ressourcen und Energie, die schon längst hätte erkannt und abgestellt werden müssen.

Die Zunahme des Datenverkehrs erfolgt seit vielen Jahren in exponentieller Weise. Streaming-Dienste und nun auch noch die „Künstliche Intelligenz“ (KI) treiben den Energieverbrauch immer weiter in exorbitante Höhen. Hier nun sogleich ein paar konkrete Daten und Fakten zu diesem unterbewerteten Themenkomplex:

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Die weltweite Anzahl von Rechenzentren und deren Anstieg

Im Jahr 2021 gab es weltweit etwa 8.000 große Rechenzentren. Diese Zahl wächst stetig weiter. Insbesondere Cloud-Services wie Amazon Web Services, Google Cloud und Microsoft Azure sind für den Aufwuchs maßgeblich verantwortlich.

Durch KI und andere datenintensive Anwendungen ist der Bedarf an Rechenleistung geradezu explodiert, was den Bau neuer Rechenzentren unumgänglich macht. Gerade die KI-Modelle verbraten immense Mengen an Rechenleistung, da hierbei riesige Datenmengen zu verarbeiten und zu analysieren sind.

Der Energieverbrauch von Rechenzentren

Zurzeit (Stand 2022) verbrauchen alle Rechenzentren zusammen ungefähr ein Prozent der elektrischen Energie weltweit. Das hört sich zunächst vielleicht nicht nach viel an, aber das ist mehr als der Energieverbrauch von Argentinien oder den Niederlanden. Prognosen gehen davon aus, dass der Energiehunger der Rechenzentren bis 2030 auf acht bis zehn Prozent ansteigen wird.

Bereits im Jahre 2011 lag der Stromverbrauch aller 2,34 Millionen Server und der Rechenzentren in Deutschland bei knapp zehn Terawattstunden (TWh) gemäß den Berechnungen des Borderstep Instituts. Damit entsprach der Stromverbrauch damals circa 1,8 Prozent des Gesamtstromverbrauchs in unserem Lande. Zur Erzeugung dieser elektrischen Energie sind vier mittelgroße Kohlekraftwerke erforderlich. Die damit verbundenen Stromkosten beliefen sich auf ungefähr 1,2 Milliarden Euro.

Zwölf Jahre später (2023) ist der Strombedarf sogar auf 18 Milliarden Kilowattstunden (kWh) pro Jahr gesunken, da sich die Effizienz der Rechner versechsfacht hat, wobei sich die IT-Leistung in den letzten zehn Jahren nahezu verdoppelt hat. Die wichtigsten Standorte für Rechenzentren sind Berlin und Frankfurt. Genaue Zahlen darüber liefert zum Beispiel die aktuelle Bitkom-Studie von 2023 vom Borderstep Institut.

Kühlung versus Energie-Effizienz

Ein sehr großer Anteil des Stroms wird nicht einmal für die Datenverarbeitung verwendet, sondern vor allem für die Kühlung der Server, die ansonsten wegen Überhitzung zusammenbrechen würden. In warmen Regionen kann dieser Anteil bis zu 50 Prozent des Energiebedarfs eines Rechenzentrums ausmachen. Zwar ist man um Fortschritte hinsichtlich der Energie-Effizienz von Servern sehr bemüht, indem zum Beispiel auf Flüssigkühlung und die erneuerbaren Energien gesetzt wird, aber mit diesen Maßnahmen kann die steigende Nachfrage nach Energie bei Weitem nicht einmal kompensiert werden.

Die Produktion der Server erfordert viele Ressourcen

Für die Server-Hardware werden erhebliche Mengen an Metallen und seltenen Erden verbraucht. So enthält ein durchschnittlicher Server ungefähr 1,7 kg Kupfer, 1,5 kg Aluminium sowie beachtliche Mengen an Gold, Silber und Kobalt. Haben die Geräte ausgedient, was oft schon nach fünf Jahren der Fall ist, wird weltweit leider nur ein kleiner Bruchteil des elektronischen Abfalls ordnungsgemäß recycelt.

Das Internet wird kaum für essenzielle Inhalte genutzt

Ein erheblicher Teil des globalen Datenverkehrs wird für Streaming-Dienste, soziale Netzwerke und andere Unterhaltungsplattformen verwendet. Laut einer Studie von Shift Project (2019) entfallen etwa 60 Prozent des Datenverkehrs auf Streaming, wobei Video-on-Demand-Plattformen wie YouTube und Netflix ganz oben anstehen. Gleich danach rangieren TikTok, Instagram und ähnliche Plattformen in der Liste der großen Energiefresser. Einer Schätzung zufolge beträgt der globale CO2-Ausstoß allein durch Videostreaming jedes Jahr circa 300 Millionen Tonnen CO2, was in etwa mit den Emissionen von ganz Spanien vergleichbar ist.

Möglichkeiten zur Reduktion des „digitalen“ Energieverbrauchs

Suchanfragen und KI-Modelle könnten effizienter gestaltet werden, indem Speicherplatz und Rechenleistung intelligenter genutzt werden. Einige Rechenzentren setzen heute schon verstärkt auf erneuerbare Energien. Google beispielsweise betreibt einige seiner Rechenzentren bereits vollständig mit erneuerbaren Energien.

Was aber vollständig fehlt, ist eine ehrliche, schonungslose und emotionslose gesellschaftliche Debatte über den übermäßigen Konsum von nicht-essenziellen Inhalten. Anfangen könnte man an dieser Stelle mit Vorschriften, die den Zugang zu hochauflösendem Streaming begrenzen, das würde schon viel helfen. Vor allem muss endlich dem Drogenhandel, Kinderpornografie, Anleitungen für den Bau von Waffen und Sprengkörpern und anderen kriminellen Machenschaften im sogenannten Darknet ein unüberwindbarer Riegel vorgeschoben werden.

Fazit:

Die Zunahme des weltweiten Datenverkehrs ist ein überaus ernst zu nehmender Faktor im Kampf gegen den Klimawandel. Der enorme Energieverbrauch und die Ressourcenverschwendung, die mit der Bereitstellung von Cloud-Diensten, KI und Streaming verbunden sind, tragen erheblich zu den globalen CO2-Emissionen bei. Während es technische Ansätze gibt, um die Energie-Effizienz zu verbessern, könnte auch eine bewusste Einschränkung nicht-essenzieller Internetnutzung, wie der Konsum von trivialen Inhalten, einen signifikanten Beitrag leisten.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 09.10.2024 erstellt.

Nur 63 von 1.500 – das ist die ernüchternde Bilanz einer umfassenden Studie, die zeigt, dass die meisten Klimaschutzmaßnahmen in den letzten 20 Jahren wirkungslos verpufft sind. Trotz Milliardeninvestitionen und globaler Anstrengungen gibt es nur wenige Maßnahmen, die tatsächlich eine messbare Reduktion von Treibhausgasen bewirken konnten.

Aber was macht diese wenigen Erfolgsgeschichten so besonders? Und warum scheitern die meisten anderen kläglich? Wenn Sie glauben, dass Subventionen und strenge Regulierungen ausreichen, um die Welt zu retten, werden Sie überrascht sein, was die Wissenschaftler wirklich herausgefunden haben.

 

Gemäß einer Studie im Fachjournal „Science“ waren während der letzten 20 Jahre von 1.500 (politischen) Klimaschutzmaßnahmen nur 63 erfolgreich, in dem Sinne, dass sie weltweit zu einer messbaren Reduktion klimaschädlicher Emissionen im Mittel von immerhin 19 Prozent führten. Das ist wahrlich keine gute Ausbeute.

All diesen Erfolgsfällen gemeinsam ist interessanterweise das Instrument der Steuer- und Preisanreize. Die Leitautorin der Studie Annika Stechemesser vom Potsdam-Institut für Klimafolgenforschung (PIK) fügt hinzu, dass es stets auf die richtige Mischung verschiedener Ansätze und Instrumente ankommt, damit eine Klimamaßnahme von Erfolg gekrönt ist.

Allein auf Subventionen oder Regulierungen zu setzen, reicht auf keinen Fall aus. Als Beispiele werden die Verbote von Kohlekraftwerken oder Verbrennungsmotoren genannt. Erst in Kombination mit Steuer- und Preisanreizen konnten dagegen deutliche Emissionsreduktionen erzielt werden.

Das Forschungsteam setzte sich aus Wissenschaftlern des PIK und des „Mercator Research Institute on Global Commons and Climate Change“ (MCC) zusammen und wertete insgesamt 1.500 Klimamaßnahmen aus der Zeit von 1998 bis 2022 aus, die über sechs Kontinente und 41 Länder verteilt waren.

Sogar der Bundesrechnungshof bemängelte bereits 2022, dass die meisten Klimaschutzmaßnahmen, die zudem auch noch unkoordiniert seien, weitgehend wirkungslos sind. Die aktuelle Energiepolitik laufe den Zielen der CO₂-Reduktion sogar entgegen. Gerade die Subventionen im Bereich Klimaschutz erweisen sich geradezu als kontraproduktiv.

In einem vom Bundesrechnungshof beauftragten Sondergutachten wird klar aufgezeigt, dass der Überblick über die aktuellen Projekte gänzlich fehle und Milliardenbeträge einfach verschwendet werden. Kein Geringerer als das Umweltbundesamt hat Subventionen in Höhe von 65 Milliarden Euro (2018) als eindeutig umweltschädlich bewertet.

Es sei dringend geboten, so argumentieren die Mitarbeiter des Bundesrechnungshofs, sämtliche Klimaschutzmaßnahmen bezüglich ihrer Effizienz und ihrer Kosten umgehend auf den Prüfstand zu stellen und endlich eine vernünftige Steuerung und Koordination der vielen Maßnahmen vorzunehmen. Zudem empfiehlt der Bundesrechnungshof, alle Fördermaßnahmen zum Klimaschutz mit konkreten und überprüfbaren Zielwerten zur Minderung der Treibhausgase zu versehen.

Die Regierung sei also gut beraten, die Koordination der beteiligten Ressorts deutlich zu verbessern, denn die wertvollen Milliarden für den Klimaschutz sollen schließlich dort landen, wo sie auch am meisten Wirkung erzielen. Die bisherigen jährlichen Klimaschutzberichte müssten außerdem im Sinne eines echten Monitorringinstruments aufgewertet werden.

Aber kommen wir noch einmal auf die oben erwähnte Studie zu sprechen. Gerade für die gut entwickelten Länder ist der Mix aus Klimaschutzmaßnahmen effektiv. In Deutschland seien die Ökosteuerreform ab 1999 sowie die Lkw-Maut von 2005 als erfolgreich identifiziert worden, übrigens waren das die einzigen Maßnahmen, die hierzulande zu einer nennenswerten Emissionsreduktion geführt haben.

In Großbritannien war es eher die Kombination aus CO2-Mindestpreis, der Kohle-Ausstiegsplan und Subventionen für erneuerbare Energien, die dort zu einem recht guten Erfolg geführt haben. Schweden konnte dagegen mit seiner CO2-Bepreisung und Förderprogramme für Heizungswechsel und Sanierungen auftrumpfen.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 08.09.2024 erstellt.

Der Klimawandel ist eben nicht nur menschengemacht. Im Januar 2022 explodierte im südpazifischen Königreich Tonga der Unterwasservulkan „Hunga Tonga-Hunga-Ha’apai“. Dabei schoss eine monströse Wasserdampfwolke bis in die Stratosphäre. Die aufsteigende Aschesäule über dem Vulkan enthielt relativ wenig Schwefel, dafür aber besonders viel Wasserdampf, was Folgen für das Klima haben sollte.

Es konnte abgeschätzt werden, dass bei diesem Ausbruch mehr als 100 Millionen Tonnen verdampftes Meerwasser bis in Höhen um 58 Kilometer, also bis in die sonst trockene obere Stratosphäre beziehungsweise untere Mesosphäre katapultiert worden sind. Dabei ist Wasserdampf ein durchaus starkes Treibhausgas.

Normalerweise führen große vulkanische Eruptionen für die folgenden ein oder zwei Jahre zu einer globalen Abkühlung, weil das in der Rauchwolke enthaltene Schwefeldioxid in den höheren Luftschichten Sulfataerosole bildet, an denen ein Teil des Sonnenlichts direkt ins Weltall reflektiert wird. Die starken Windsysteme in diesen Höhen (Jetstream) verteilen die Aerosole indes schnell fast über den gesamten Erdball.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Seit Jahrzehnten schon bemühen sich Wissenschaftler darum, die Auswirkungen des Vulkanismus auf das Klima in komplexen Modellrechnungen zu erfassen. Da kam ihnen jene Wasserdampfinjektion durch den Hunga Tonga-Hunga Ha’apai im Sinne eines natürlichen Treibhausgas-Experiments gerade recht.

Im Mai 2024 wurde nun in der Fachzeitschrift „Journal of Climate“ eine australische Klimamodellstudie veröffentlicht, in der unter anderem auf die Auswirkungen auf die Oberflächentemperaturen, die Niederschlagsmuster und das Ozonloch eingegangen wird. Die Berechnungen ergaben zum Beispiel Hinweise auf eine mögliche temporäre Vergrößerung des Ozonlochs durch den Tonga-Vulkanausbruch, was schließlich durch Beobachtungsdaten bestätigt wurde.

Mit Blick auf den längerfristigen globalen Durchschnitt, so besagt es das Modell, ändert der Tonga-Ausbruch aber wenig, regional allerdings können sehr wohl Wetter-Anomalien auftreten. In der Attributionsforschung geht es unter anderem darum, eine Welt mit und ohne Tonga-Vulkanausbruch zu vergleichen, um auf diese Weise den sogenannten Ensemble-Mittelwert zu bestimmen.

Zu diesem Zweck wurden nahezu 30 verschiedene Klimamodelle mit den abgeschätzten Wasserdampfmengen in unterschiedlichen Höhen in der Stratosphäre berechnet, das heißt, der Großrechner simulierte die dynamischen Transportprozesse einschließlich der daraus folgenden globalen Auswirkungen. Jedes Einzelergebnis wurde mit der korrespondierenden Klimamodellrechnung ohne Wasserdampf verglichen.

Der Ausbruch des Unterwasservulkans beeinflusste zum Beispiel die großräumigen Wellenbewegungen in der Atmosphäre. Diese sogenannten „Wave Trains“ bewegen sich ständig über den gesamten Erdball hinweg. Regionale Oberflächentemperaturen können dadurch über Jahre verändert werden.

Während Skandinavien in einigen Modellrechnungen um ein Grad Celsius kühler wurde, erwärmte sich Nordamerika um gleich 1,5 Grad Celsius. Große Wärmemengen wurden so in die Arktis verfrachtet, wohingegen über Australien kühle Anomalien zu verzeichnen waren.

Weiterhin ergaben die Simulationen, dass der Wasserdampf in der Stratosphäre zu feuchten Wintern in Europa und Australien führt, während die Westküste der USA immer trockener wird. Und im Sommer wird es im Norden Eurasiens zunehmend trockener, an Chinas Ostküste sowie in Westaustralien wird es dagegen feuchter.

Für den zweiten Frühling nach der Eruption prognostizierte das WACCM4-Klimamodell eine zeitlich begrenzte Vergrößerung des Ozonlochs von immerhin zwei Millionen Quadratkilometern. Zum Sommeranfang 2023 wurde exakt ein derart vergrößertes Ozonloch gemessen.

Innerhalb des ersten Jahres nach dem Ausbruch hatte der stratosphärische Wasserdampf die polaren Breiten noch nicht erreicht, bevor sich im Winter der antarktische Polarwirbel ausbildete, der den Wasserdampf nicht weiter voranschreiten ließ. Auch das war ein Ergebnis aus der Modellstudie.

Prof. Thomas Birner vom Institut für theoretische Meteorologie der LMU in München erläuterte dazu, dass den polaren Stratosphärenwolken aus Eis, die mit einer erhöhten Konzentration an Hydroxylradikalen einhergehen, bei der Zerstörung des Ozons tatsächlich eine Schlüsselrolle zukommt.

Hydroxylradikale sind reaktionsfreudige Moleküle, die aus einem Wasserstoff- und einem Sauerstoffatom bestehen. Es ist sehr gut möglich, dass die in 2023 beobachtete Vergrößerung des Ozonlochs zumindest teilweise auf den Vulkanausbruch zurückgeführt werden kann.

Die Klimaphysikerin Ulrike Niemeier arbeitet am Max-Planck-Institut für Meteorologie in Hamburg in der Forschergruppe „Stratosphärischer Antrieb und Klima“. Sie bestätigt, dass sich derartige Klimamodelle prinzipiell gut zu Vorhersagen der Ozonentwicklung eignen. Allerdings sieht sie ein Problem darin, dass die Modelle der obigen Studie den großen Einfluss der Ozeane gar nicht berücksichtigen. Lediglich die Wasseroberflächentemperaturen fließen dort als Randparameter mit ein.

Auch Prof. Birner teilt die Kritik daran, dass die Klimamodellstudie die Dynamik der Ozeane außen vor lässt, und fügt hinzu, dass die Veränderungen in den Ozeanen deutlich langsamer ablaufen als in der Atmosphäre.

Es ist daher immer mit einer nachlaufenden Rückkopplung mit der Atmosphäre zu rechnen. Die Studienautoren räumen ein, dass ihre Modelle diesbezüglich erweitert werden sollten. Dazu sollte man wissen, dass solche Simulationen an Großrechnern sehr viel teure Computerzeit verschlingen.

Um bestimmte Prozesse isoliert verstehen zu können, werden zum Beispiel in physikalischen Laborexperimenten sämtliche andere, störende Fremdeffekte gezielt ausgelassen. Doch in diesem Fall haben sich die Autoren recht weit aus dem Fenster gelehnt, indem sie bei ihrer Interpretation sogar einen Zusammenhang mit El Niño hergestellt haben, obwohl sie dessen so wichtige Kopplung zwischen den Ozeanen und der Atmosphäre unberücksichtigt ließen.

Schlussbemerkung

Bei aller berechtigten Kritik ist es so, dass diese Modellrechnungen der Wahrheit schon recht nahekommen, was die späteren Messwerte gezeigt haben. Insofern sollten wir uns immer gewahr sein, dass nicht jede lokale Wetter-Anomalie per se eine Folge des menschengemachten Anteils am Klimawandel sein muss.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 20.08.2024 erstellt.

Die Hitze wird immer unerträglicher – sind Windenergieparks die Lösung?

Seit über 35 Jahren beschäftigt sich der aus Costa Rica stammende Klimatologe und Wetterhistoriker Maximiliano Herrera mit der Entwicklung der Temperaturen auf unserem Planeten, wobei er einen besonderen Fokus auf die Extremtemperaturen legt. Inzwischen ist er bekannt „wie ein bunter Hund“, könnte man sagen, denn mehr als 100.000 Abonnenten verfolgen Herreras Account @extremetemps auf dem Kurznachrichtendienst X.

Wenngleich es Mitte Januar 2024 in Deutschland so frostig war, dass hierzulande kaum jemand ein Problem in der Erderwärmung zu erkennen vermochte, hält Herrera einen erneuten deutschen Hitzerekord im Sommer 2024 für mehr als wahrscheinlich. Wenn wir über „Extremtemperaturen“ reden, sollten wir zuallererst zur Kenntnis nehmen, dass es praktisch täglich Tausende von Wärmerekorden gibt, aber nur sehr selten Kälterekorde.

Solche beängstigenden Zahlen sind es, die Herrera zurzeit dazu veranlassen, oftmals 20 Stunden pro Tag zu arbeiten. Seine Hoffnung liegt auf La Niña, die aller Voraussicht nach dazu führen wird, dass sich die globalen Temperaturanomalien wieder etwas abschwächen. Zur Erinnerung: Bei dem pazifischen Klimamuster El Niño verdrängen relativ warme Wassermassen die kälteren, wodurch sich das Oberflächenwasser und somit auch die Atmosphäre erwärmen. Während einer La Niña Phase passiert genau das Gegenteil. Ab Juni 2024 sollte sich eine solche Szene einstellen.

Ungefähr im Frühjahr 2023 hatte parallel zur menschengemachten Klimaerwärmung wie erwartet die warme Phase El Niño begonnen. Im Ergebnis verzeichneten wir in allen großen Ozeanen und Meeren Temperaturrekorde, die alle Vorhersagen und Modellrechnungen übertrafen. In Deutschland wurde am 6. April 2024 eine Temperatur von etwas über 30 Grad Celsius erreicht, so warm war es noch nie so früh im Jahr.

Im Juli 2019 wurde in Duisburg-Baerl und Tönisvorst westlich von Krefeld der bisherige deutsche Temperaturrekord von 41,2 Grad Celsius gemessen. Ob solche Werte auch 2024 wieder möglich sind, ist eine Frage des Wetters, aber nicht des Klimas. Innerhalb eines eher kühlen Sommers kann es durchaus zu einer Periode mit Rekordhitze kommen, während selbige in einem insgesamt sehr heißen Sommer ausbleiben kann.

Insgesamt gesehen steigt aber die Wahrscheinlichkeit von Extremereignissen sogleich um ein Vielfaches aufgrund der höheren globalen Temperaturen. Allein die Tropen zeichnen sich durch eine geringere Schwankungsbreite aus, sodass das Wetterphänomen El Niño dort nicht so große Auswirkungen zeigt.

Die Messwerte und deren Entwicklung in den letzten Jahren sind geradezu überwältigend. Dies führt bei vielen Menschen zu großer Unsicherheit, was nicht selten Hass gegen Menschen wie Maximiliano Herrera erzeugt, die doch eigentlich nur ganz neutral und nicht wertend Zahlen und Statistiken zur Kenntnis geben. Jeden Tag fallen irgendwo auf der Welt die bisherigen Rekorde. Hoffen wir jetzt also auf die kühle La Niña.

Lässt sich die fatale Klimaentwicklung durch die energiepolitische Transformation noch aufhalten oder gar umkehren?

Ein beliebtes Mittel der Wahl für die energiepolitische Transformation ist ja die Aufstellung von Windenergieanlagen (WEA), möglichst gleich in ganzen Parks organisiert, vorzugsweise sogar offshore. Deren Produktion und Transport, die Installationsarbeiten an Land oder auf dem Schelfbereich und später der Rückbau, Abtransport und die Weiterverwertung oder Entsorgung des komplexen Materialien-Cocktails werfen zu Recht die Frage auf, ob sich dieser „grüne Strom“, der damit produziert worden ist, am Ende überhaupt als so klimafreundlich erweist oder erweisen kann.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Eine kritische Bilanz über die Windenergie

Die Windenergie wird schon lange geradezu einvernehmlich als der vielversprechendste Ansatz für die Energiewende betrachtet. Windparks, insbesondere Offshore-Anlagen, so die einhellige Meinung, leisten einen ganz wesentlichen Beitrag zur Reduktion von Treibhausgasen. Doch um die tatsächliche Klimafreundlichkeit dieser Technologie beurteilen zu können, muss der gesamte „Lebenszyklus“ von Windenergieanlagen kritisch betrachtet werden, und zwar von der Produktion über den Betrieb bis hin zur Entsorgung.

Produktion und Betrieb von Windenergieanlagen

Die Herstellung der vielen verschiedenen Komponenten einer WEA ist wahrlich energie- und ressourcenintensiv. Die Turbinen, Rotorblätter und Türme bestehen aus Stahl, Kupfer, seltenen Erden und glasfaserverstärkten Kunststoffen. Die Produktion all dieser Materialien ist mit erheblichen CO₂-Emissionen verbunden, was gerade bei der Stahlherstellung sehr deutlich wird. Seltene Erden, die für Permanentmagnete in Generatoren benötigt werden, werden oft unter umweltschädlichen Bedingungen und nicht selten unter hochgradig gesundheitsgefährdenden Arbeitsbedingungen abgebaut und verarbeitet.

Zudem müssen die schweren, riesigen Komponenten der WEA oftmals über weite Strecken als Schwertransport gesichert verfrachtet werden, was zusätzlich große Mengen fossiler Brennstoffe verbraucht und Emissionen verursacht. Außerdem ist das Ganze auch eine logistische Herausforderung. Der Transport auf dem Seeweg, der für Offshore-Anlagen unumgänglich ist, erfordert spezialisierte Schiffe und Hebezeuge, deren Bau im Vorfeld in Auftrag gegeben werden muss.

Gerade die Installation von Offshore-Windparks ist technisch höchst anspruchsvoll, da in dem weichen Untergrund in größerer Wassertiefe zunächst massive Fundamente mit schnell abbindendem Zement hergestellt werden müssen. Im Verein mit dem Einsatz schwimmender Spezialkräne ist das alles extrem kosten- und energieintensiv.

Während ihrer Betriebszeit sind Offshore-Anlagen ständig extremen Wetterbedingungen ausgesetzt, was eine aufwendige regelmäßige Wartung durch Spezialisten bei besonders kurzen Wartungsintervallen erfordert. Werden alle Voraussetzungen gut erfüllt, können uns derartige Windparks in der Tat mit viel „grünem Strom“ versorgen. Ein paar Kennzahlen dazu werden im nächsten Abschnitt angeführt. Aber wie geht es eigentlich weiter mit der vielen elektrischen Energie aus dem Wind?

Um die Elektrizität zu den Verbrauchern irgendwo in Deutschland und angrenzenden Regionen zu bringen, bedarf es eines ausreichend dimensionierten Verteilernetzes, das in großen Teilen erst neu gebaut werden muss. Sie können aber kein Vorhaben einfach so durchpeitschen. Egal, ob Sie sich für Hochspannungsmasten oder Erdkabeltrassen entscheiden, überall sprießen Bürgerinitiativen wie Pilze aus dem Boden, die immer gegen alles sind und allerorts die Gerichte um einstweilige Verfügungen bemühen. Im Ergebnis „ersticken“ die leistungsstarken Offshore-Anlagen an ihrer eigenen Energiedichte, die sie gar nicht abführen können.

Betrachten wir die Leistungen moderner Anlagen

Moderne Onshore-Windenergieanlagen liefern typischerweise Leistungen von zwei bis fünf Megawatt (MW). Gemeint ist hier immer eine sogenannte (Dauer)Nennleistung, die sich theoretisch bei einer strammen, konstanten Windströmung von zehn Metern pro Sekunde (36 Stundenkilometer) ergibt. Die Nabenhöhen dieser Anlagen befinden sich in der Regel in einer Höhe von 80 bis 150 Meter, wobei die Durchmesser der Rotorblätter zwischen 100 und 150 Meter angesiedelt sind.

Mitnichten kann jeder eine solche Anlage in jedem Kleingarten aufstellen. Wie nicht anders zu erwarten, gibt es gerade in Deutschland eine Flut von Gesetzen, Verordnungen und Bestimmungen (also Verboten), die bestimmte Mindestabstände der WEA zu Ortschaften, Straßen und Autobahnen, Flugplätzen und anderen Infrastruktureinrichtungen oder gar zu Vogelnestern vorschreiben.

Trägt man all diese Beschränkungen in eine Landkarte ein, bleibt noch eine Handvoll kleiner Fleckchen übrig, wo man rein rechtlich noch eine WEA aufstellen könnte. Ob das dann auch ein ergiebiger Windstandort ist, spielt in Deutschland eine völlig untergeordnete Rolle.

Kommen wir nun zu den Offshore-Anlagen. Bei ihnen rangieren die Leistungen heute bei Nabenhöhen von 100 bis 130 Meter zwischen sechs und zwölf Megawatt, können aber auch mal 15 Megawatt erreichen.

Die Durchmesser der Rotorblätter messen hier 150 bis 220 Meter. Eine der leistungsstärksten Offshore-Turbinen ist die GE Haliade-X (14 MW). Die Siemens Gamesa SG 14-222 DD erreicht sogar 15 MW und die Vestas V150-4.2 MW ist mit einem Rotorblattdurchmesser von 150 Metern ausgestattet.

Rückbau und Entsorgung

Nach ungefähr 25 bis 30 Jahren erreichen Windenergieanlagen das Ende ihrer Lebensdauer. Der Rückbau dieser Anlagen ist komplex und aufwendig. Viele der Materialien können recycelt werden, allerdings ist dies nicht immer wirtschaftlich. Der Transport der ausgedienten Teile zum Recycling- oder Entsorgungsstandort erfordert erneut einen erheblichen Energie-Aufwand und verursacht viele Emissionen. Beispielsweise sind die Rotorblätter aus Verbundwerkstoffen schwer zu recyceln und enden daher oft auf Deponien.

Die CO₂-Bilanz von Windenergieanlagen

In vielen Gefälligkeitsgutachten, die die politisch forcierte Energiewende mit sich brachte, wurde „nachgewiesen“, dass Windkraftanlagen über ihren gesamten Lebenszyklus betrachtet weniger Treibhausgase emittieren als konventionelle fossile Kraftwerke, die vergleichbare Leistungen liefern. Der weitergehende technologische Fortschritt und bessere Recyclingverfahren, so die darin ausgedrückte Hoffnung, könnten die Umweltbilanz von Windenergieanlagen in Zukunft sogar „noch weiter verbessern“.

Wir befürchten, dass uns die Politik auch wieder in dieser Angelegenheit einen Bären aufbindet.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 30.07.2024 erstellt.

Mit dem Erneuerbare-Energien-Gesetz (EEG) hat die Bundesregierung ziemlich ambitionierte Ausbauziele formuliert. Bis zum Jahr 2030 sollen zum Beispiel im Windkraft-Offshore-Bereich um die 15.000 Megawatt installiert sein. Ein Unterfangen dieser Dimension ist aber nicht nur harmlos, denn es bringt in mehreren Hinsichten erhebliche Belastungen mit sich.

Cristina Archer und Nicolas Al Fahel von der University of Delaware (USA) haben 2020 eine Arbeit veröffentlicht, die aufzeigte, dass Offshore-Turbinen zu einer circa elfprozentigen Zunahme des Niederschlags auf dem Meer führen, während es an Land trockener wird. Dies lässt sich so aus Niederschlagsdaten ablesen, die an der englischen Westküste vor und nach dem Bau von Offshore-Windparks ermittelt worden sind.

https://link.springer.com/article/10.1007/s42865-020-00012-7

Zu den Auswirkungen von Offshore-Windparks gehört auch eine deutliche Veränderung in der Nährstoffverteilung im Meer. Zu diesem Ergebnis kam die Ozeanografin Ute Daewel vom Helmholtz-Zentrum Hereon in Geesthacht. Das dort angesiedelte Institut für Küstensysteme analysierte und modellierte unter Einsatz des Supercomputers „Levante“ am Deutschen Klimarechenzentrum in Hamburg die Auswirkungen von Offshore-Windparks auf das Nahrungsnetz in der Nordsee:

Offshore-Windparks werden sich voraussichtlich auf die Primärproduktion und den Sauerstoffmangel im Grundwasser in der Nordsee auswirken | Kommunikation Erde & Umwelt (nature.com)

Bis zum Jahr 2030 soll an den deutschen Küstengewässern die Kapazität der Offshore-Windenergie auf 30 Gigawatt Leistung gesteigert werden, bis zum Jahr 2045 sogar auf 70 Gigawatt. Dabei steht gerade die südliche Nordsee heute schon unter erheblichem Nutzungsdruck durch den intensiven Schiffsverkehr, die Fischerei und die Ölförderung.

Ute Daewel zeigt in der Studie „Offshore wind farms are projected to impact primary production and bottom water deoxygenation in the North Sea“, die vor Kurzem im Fachjournal “Communications Earth & Environment” publiziert wurde, dass Windparks sowohl die räumliche als auch die zeitliche Verteilung von Nährstoffen über weite Strecken verändern. Dies wiederum hat einen Einfluss auf ganze Prozessketten und somit auf das Vorkommen vieler Fischarten. Durch die Verringerung der Strömungsgeschwindigkeiten kann auf lokaler Ebene eine Abnahme des Sauerstoffgehalts des Wassers erfolgen.

So wichtig der Ausbau der Erneuerbaren Energien auch ist, kommentierte Daewel, wir sollten „sehenden Auges“ die damit verbundenen Risiken so realistisch wie möglich bewerten. Bei einigen Modellrechnungen wurde nur die Hälfe der Anlagenkapazität zugrunde gelegt, die eigentlich vorgesehen ist, um bis 2050 klimaneutral werden zu können.

Aber bereits die Auswirkungen davon sind mehr als gravierend mit Blick auf die Strukturierung der marinen Küstenökosysteme. Marine Schutzgebiete werden extra ausgewiesen, um Laichgebieten und der Verteilung von Fischlarven und Fischbeständen ihren Raum zu geben. Genau das muss beim Ausbau von Offshore-Windparks viel mehr in den Fokus rücken.

Beim Bau der Anlagen müssen schwere Fundamente tief in den Schlick eingerammt werden. Diese Arbeiten lösen Schallwellen aus, die für die in der Nähe befindlichen Schweinswale äußerst problematisch sind, während die Bewegung der Rotorblätter vielen Seevögeln den Tod bringt.

Die Luftschichten unterhalb der Rotoren erwärmen sich und verlieren dabei Feuchtigkeit. Über den Windenergieanlagen wird die Luft dagegen kälter und feuchter, was zu vermehrter Wolkenbildung und Niederschlag führt. Große Windparks sind also selbst Quellen eines lokalen Klimawandels.

 

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

 

Beitragsbild: pixabay.com – distelAPPArath

Heutzutage wird unter dem Stichwort Klimawandel zu viel in einen Topf geworfen und sinnentleert verrührt. Viele Menschen kriegen das mit, was nicht nur die Politikverdrossenheit anheizt, sondern in zunehmendem Maß auch eine „Klimawandelverdrossenheit“.

Um das Ganze wieder zu entflechten, wollen wir einen längst überfälligen, kritischen Artikel über die ganz normalen natürlichen Klimaschwankungen, die es schon immer gab, präsentieren.

Die gemessenen Temperaturen in der Troposphäre oder den Ozeanen sind stets ein Ergebnis aus natürlichen Klimaschwankungen und menschlichen Aktivitäten [1].

Modellrechnungen zur Klimaentwicklung haben gezeigt, dass die natürlichen Einflüsse auf das Erdklima sowohl, wie in den 1990er-Jahren, zu geringfügig steigenden Temperaturen führen als auch, wie während des letzten Jahrzehnts, eine moderate globale Abkühlung bewirken können [2].

Wie sich beide Einflüsse, der natürliche und der anthropogene, auf das Klima quantitativ verteilen, ist nur ganz schwer abzuschätzen. Vor allem basieren die Einflussgrößen auf sehr unterschiedlichen Zeitskalen.

 

Ursache der Klima-Änderung Periode der Schwankung
Einzelne Vulkanausbrüche einige Jahre
Sonnenaktivität und interne Klimaschwankungen Jahre bis einige Jahrzehnte
Anthropogene Treibhausgas-Emissionen mehrere Jahrzehnte
Erdbahn-Parameter einige Hunderttausend Jahre
Plattentektonik Millionen Jahre

 

Schwankungen in der Sonneneinstrahlung zum Beispiel sind in erster Linie eine Folge der regelmäßigen Veränderungen der Erdbahnparameter und waren unter anderem während der letzten drei Millionen Jahre für die Abfolge mehrerer Kalt- und Warmzeiten verantwortlich. Eine dominierende Wellenlänge liegt hier ungefähr bei 100.000 Jahren.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Unsere Sonne ist alles andere als eine konstante Leuchte. Die Intensität ihrer Aktivität wird bestimmt durch den elfjährigen Sonnenfleckenzyklus (Schwabe-Zyklus), durch riesige Protuberanzen und instantane Sonnenfackeln. Auch der circa 80-jährige Gleissbergzyklus sollte in diesem Zusammenhang erwähnt werden:

Der deutsche Astronom Wolfgang Gleissberg (1903–1986) stellte eine 70 bis 100 Jahre währende Periode für die Häufigkeit und Intensität von Sonnenflecken fest. Eine Folge dieser Schwankung war zum Beispiel in der Zeit zwischen 1645 und 1715 das sogenannte „Maunder Minimum“, das durch eine besonders geringe Sonnenfleckenaktivität gekennzeichnet war und in Europa eine „Kleine Eiszeit“ auslöste.

Explosive Vulkane schleudern riesige Mengen Staub bis hoch in die Stratosphäre, wo sie die Einstrahlung der Sonne behindern. Dies kann zu einer Abkühlung führen, die durchaus zwei Jahre währen kann.

Die permanenten intensiven Wechselwirkungen zwischen den Ozeanen und der Atmosphäre spielen sich auf ähnlichen Zeitskalen ab wie die Folgen der anthropogenen Einflüsse auf das Klima. Insofern kann hier das eine Phänomen das andere überdecken, was die Analyse enorm erschwert. Als Beispiele seien in diesem Zusammenhang genannt:

Derartige Phänomene steuern unter anderem die atlantische Hurrikan-Aktivität, die europäischen Temperaturen oder den Niederschlag in der Sahelzone [3].

Die Veränderungen des Erdklimas wirken sich regional sehr unterschiedlich aus. Im Zeitraum von 1910 bis 1940 fand eine ausgeprägte Erwärmung im Bereich des Nordatlantiks und in den östlichen Regionen des Nordpazifiks statt. Während der letzten 30 Jahre wurde es am Nordatlantik auch wärmer, aber im Osten des Nordpazifiks eher kühler.

Seit ungefähr 100 Jahren steigt die mittlere Temperatur in Europa aufgrund der Einflüsse durch den Menschen tendenziell an. Der Kurvenverlauf korreliert aber kaum mit der eher stetigen Zunahme der Konzentration von Treibhausgasen in der Atmosphäre, weil der Temperatureffekt durch die Wasseroberflächentemperatur des Nordatlantiks (Sea Surface Temperature – SST) überlagert wird.

Letztere wird wiederum von der „Atlantischen Multidekadischen Oszillation“ (AMO) gesteuert. Die Temperaturabnahme während der 1960er- und 1970er-Jahre war zudem durch eine relativ hohe Aerosolkonzentration über Europa ausgelöst worden.

Aus einer Zunahme der atlantischen Hurrikane kann man mitnichten sogleich einen klaren Nachweis des anthropogenen Klimawandels ableiten, weil eine solche Entwicklung allein auf die natürliche Dekaden-Schwankung des Klimas zurückgeführt werden könnte. Aus wissenschaftlicher Sicht brauchen wir mindestens noch die Zeitreihen der nächsten 20 Jahre, um die beiden Einflussgrößen seriös trennen zu können.

Die internen Dekaden-Schwankungen sind hauptsächlich auf die Wechselwirkung zwischen den träge reagierenden Ozeanen und der kurzfristig und auch chaotisch reagierenden Atmosphäre zurückzuführen [4].

Gerade der Großraum des Nordatlantiks zeichnet sich durch besonders starke Dekaden-Schwankungen aus. Auf Jahressicht wird der Atlantik von der Atmosphäre angetrieben. Betrachtet man längere Perioden ist es aber eher der Ozean, der die Atmosphäre steuert [3].

Das hat alles viel mit der thermohalinen Zirkulation beziehungsweise mit der Meridionale Umwälzzirkulation (MOC) zu tun. Sie ist es, die die Wärme aus den äquatornahen Breiten in die Polarregion verfrachtet und die Temperaturen der Meeresoberflächen (SST) im Nordatlantik bestimmt. Genau davon hängt das europäische Klima vehement ab [5].

Ende des 19. und Mitte des 20. Jahrhunderts waren die SST durch moderate Warmphasen gekennzeichnet, während ab den 1960er-Jahren eher eine kühlere Phase registriert wurde, die aber in den 1990er-Jahren wieder in eine Erwärmung überging. Ganz ähnlich verhielten sich auch die Temperaturen der Meeresoberflächen im Pazifik.

Positive Phasen in den Dekaden-Schwankungen der Nordatlantischen Oszillation (NAO) führen in der Labradorsee, bei Grönland und über dem Norden Kanadas zu einer deutlichen Abkühlung. Gerade jene über der Labradorsee ist bedeutend für die MOC, da dort die thermohaline Zirkulation nach unten abbiegen soll.

Warmes Wasser strömt hier aus den Subtropen heran und gibt umso mehr Wärme an die Atmosphäre ab, je kälter diese ist. In der Folge wird auch die Dichte des Wassers etwas größer, was das Absinken in die Tiefe intensiviert und die MOC antreibt. Genau darauf möchten wir in Europa lieber nicht verzichten.

Klimavorhersagen

Mal angenommen, wir würden alle wesentlichen Parameter der natürlichen Klimaschwankungen kennen, dann wäre es theoretisch möglich, Klimamodelle zu berechnen und möglicherweise bis hundert Jahre in die Zukunft zu extrapolieren. Tatsächlich unterscheiden sich die Projektionen unterschiedlicher Szenarien nicht allzu sehr und driften erst ab ungefähr 2050 etwas mehr auseinander.

Man kann also sagen, dass uns die künftige Klima-Entwicklung unter Einbeziehung der anthropogenen Treibhausgase zumindest für die nächsten 30 Jahre relativ gut bekannt ist. Deutlich schlechter kennen wir den Anteil der Klimaentwicklung durch die natürlichen Faktoren wie externe Antriebe und interne Variabilität.

Es gibt seit der Kleinen Eiszeit eine Zunahme der Solarstrahlung, die aber nur auf 1,2 Promille, also +0,3 W/m2 geschätzt wird. Der seit Beginn der Industrialisierung anthropogen verursachte Strahlungsantrieb aufgrund der langlebigen Treibhausgase beträgt aber +2,6 W/m2, also fast das Neunfache [6].

Tatsächlich betrug der Temperaturunterschied zwischen der Hochphase der Kleinen Eiszeit (Maunder Minimum) und der warmen Klimaperiode zwischen 1960 und 1990 weniger als ein halbes Grad Celsius [7].

In den kommenden Jahrzehnten geht man von einer geringfügigen Abnahme der Solarstrahlung aus. Falls die Sonne gegen Ende dieses Jahrhunderts tatsächlich mit der Kraft strahlen sollte, die jener der Kleinen Eiszeit entspricht, wird dies auf der Erde einen Temperatureffekt von nur -0,1 °C haben [8].

Explosive Vulkanausbrüche, wie wir es 1991 beim Mt. Pinatubo erlebt haben, können aufgrund der starken Emissionen von Aerosolen die Durchschnittstemperatur auf der Erdoberfläche um circa 0,3 °C absenken [9]. Allerdings hält die Wirkung nur wenige Jahre an.

Insofern müssen wir wohl davon ausgehen, dass die globale Erderwärmung in den kommenden Jahrzehnten vorrangig durch natürliche interne Klimaschwankungen zustande kommt.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Literaturhinweise

  1. Keenlyside, N.S. and J. Ba, 2010; Prospects for decadal climate prediction; WIREs Climate Change 1 (627–635)
  2. G. Hunt, 2011; The role of natural climatic variation in perturbing the observed global mean temperature trend; Climate Dynamics 36 (509–521)
  3. Mojib Latif and Noel S. Keenlyside, 2011; A perspective on decadal climate variability and predictability Deep Sea Research Part II; Topical Studies in Oceanography 58 (1880-1894)
  4. Mojib Latif, 2009; Klimawandel und Klimadynamik; Stuttgart (S. 82 ff)
  5. Mojib Latif, 2011; Klimavariabilität, El Nino/Southern Oszillation, die Nordatlantische und die Atlantische Multidekadische Oszillation – Mit Anmerkungen zur Vorhersagbarkeit in J.L. Lozán, H. Graßl, L. Karbe, K. Reise; Warnsignal Klima: Die Meere – Änderungen & Risiken; Hamburg 2011 (78-89)
  6. IPCC, 2007; Climate Change 2007, Working Group I; The Science of Climate Change (2.7.1.2)
  7. Foster and S. Rahmstorf, 2011; Global temperature evolution 1979–2010; Environ. Res. Lett. 6; doi:10.1088/1748-9326/6/4/044022
  8. Jones, G. S., M. Lockwood, and P. A. Stott, 2012; What influence will future solar activity changes over the 21st century have on projected global near-surface temperature changes?; Journal of Geophysical Research; 117; D05103; doi:10.1029/2011JD017013
  9. Soden, B. J., R. T. Wetherald, G. L. Stenchikov and A. Robock, 2002; Global cooling after the eruption of Mount Pinatubo: A test of climate feedback by water vapor; Science, 296 (727-730)

Dieser Beitrag wurde am 13.05.202 erstellt.

Durch undichte Stellen in Pipelines oder lockere, defekte Dichtungen entweicht permanent Methangas (CH4) in die Atmosphäre. Methan hat eine deutlich stärkere kurzfristige Treibhauswirkung pro Einheit Masse als Kohlendioxid. Zur Quantifizierung des Unterschieds wird gern der Begriff „Global Warming Potential“ (GWP) herangezogen.

GWP ist ein Maß dafür, wie viel Wärmeenergie ein Treibhausgas im Vergleich zu Kohlendioxid über einen bestimmten Zeitraum, normalerweise 100 Jahre, in der Atmosphäre absorbiert. Kohlendioxid wird dabei als Referenz mit einem GWP von 1 betrachtet.

Gemäß dem „Intergovernmental Panel on Climate Change“ (IPCC) hat Methan ein GWP von etwa 28 bis 36 über einen Zeitraum von 100 Jahren. Allerdings hat Methan in der Atmosphäre eine kürzere Lebensdauer als Kohlendioxid. Deshalb macht es Sinn, den Vergleich auf den kürzeren Zeitraum von 20 Jahren zu beziehen. Tut man dies, ergibt sich für Methan sogar ein GWP von 84 bis 87.

Vom 18. bis 21. März 2024 fand das Globale Methangas Forum in Genf (Schweiz) statt. Dario Liguti ist der Direktor für nachhaltige Energie bei der UN-Wirtschaftskommission für Europa (Unece), die hier als Gastgeber fungiert. Gekommen sind circa tausend Vertreter von Regierungen, wissenschaftlichen Institutionen und Unternehmen aus mehr als 100 Nationen. Sie alle haben großes Interesse daran, eine Lösung dafür zu finden, die Methanlöcher endgültig zu stopfen.

Seit Beginn der industriellen Revolution hat Methan grob geschätzt zu ungefähr 30 Prozent zur Erwärmung des Klimas beigetragen. Immerhin um die 60 Prozent des Methans in unserer Atmosphäre sind eine Folge menschlicher Aktivitäten, wobei circa 40 Prozent davon der Energiewirtschaft geschuldet sind.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Während Kohlendioxid mehrere hundert Jahre in der Atmosphäre verbleibt, liegt die „Halbwertzeit“ von Methan bei ungefähr zwölf Jahren, das heißt, eine Verringerung des Ausstoßes von Methan würde sich in überschaubarer Zeit positiv bemerkbar machen.

Methan entsteht unter anderem in der Kohle-, Öl- und Gasindustrie. Mit wenig Aufwand könnten drei Viertel dieser Emissionen gestoppt werden, denn so viel entweicht aus Pipeline-Lecks und defekte Dichtungen. Eigentlich sollte dies absolut im Interesse der beteiligten Unternehmen liegen.

Liguti verwies in diesem Zusammenhang auf die zunehmende Verbesserung bei der Auflösung von Satellitenbildern, die es ermöglicht, eben gerade auch Methan-Lecks schnell und präzise ausfindig zu machen. Fakt ist, dass fast drei Prozent des geförderten Methans direkt in die Atmosphäre entweicht, sehr viel mehr als bislang angenommen, so jedenfalls wurde es kürzlich im Fachjournal „Nature“ dargestellt.

Die größten Mengen an Methangas werden heute durch die Kohle-Industrie in China freigesetzt. Methan-Emissionen durch die Öl- und Gasindustrie entstehen besonders viel in den USA, aber auch in Russland. Es ist schon sehr beachtlich, dass mehr als 30 Prozent aller Methan-Emissionen weltweit aus der Viehhaltung stammen. Insofern wäre eine Reduktion unseres Fleischkonsums direkt mit einem messbaren Rückgang der Methan-Emissionen verbunden. Gerade Rinder produzieren beachtliche Mengen Methan im Zuge der Verdauung.

Global Methane Pledge (GMP)

Auf der Klimakonferenz im schottischen Glasgow 2021 haben die EU und die USA eine Initiative gestartet und gemeinsam mit zahlreichen anderen Ländern beschlossen, den weltweiten Ausstoß von Methan bis 2030 um 30 Prozent zu reduzieren. Modellrechnungen zeigen, dass dies die Erderwärmung (bis 2050) um mindestens 0,2 Grad Celsius vermindert. Die Unternehmen sollten also von der nationalen Regierung und von der EU zur Messung ihrer Methan-Emissionen und zu deren Meldung rechtlich verbindlich gezwungen werden.

Zwar sind die Kosten für das Abdichten von Lecks nicht besonders gravierend und amortisieren sich sehr schnell durch den Verkauf des nicht mehr entweichenden Gases, doch die Unternehmen haben die schlechte Angewohnheit, ihr Geld nur dort zu investieren, wo der maximale Gewinn winkt. Daher fließen die Investitionen ausschließlich in die Produktionssteigerung. Ohne gesetzliche Vorschriften wird diesbezüglich nicht viel passieren. Freiwillig wird da niemand seine Öl- und Gas-Lecks schließen.

Mit nachhaltigem Biodiesel lässt sich weitgehend auf fossile Brennstoffe verzichten

Wer braucht schon lange Pipelines mit undichten Stellen, wenn man Kraftstoff doch lokal aus Abfällen herstellen kann? Wenn die Bundesländer zustimmen, dürfen ab Mitte April 2024 Dieselfahrzeuge mit klimafreundlichem Sprit aus Abfallstoffen betankt werden. Zurzeit ist es noch so, dass dem Diesel nur sieben Prozent Biokraftstoff beigemischt werden darf.

Dieser „B7“ ist also die übliche Dieselsorte an unseren Tankstellen, bestätigt auch die Deutsche Biokraftstoffindustrie (VDB). Doch bald können wir wahrscheinlich auch hundertprozentigen Biodiesel aus zertifizierten, nachhaltigen Rest- und Abfallstoffen tanken. Dabei handelt es sich oftmals um alte Fette aus Großküchen, Fischreste, Zelluloseabfälle und Holzreste.

Hydrotreated Vegetable Oils (HVO)

Allein in Deutschland sind zurzeit nach Angaben des Kraftfahrt-Bundesamtes über 14 Millionen Fahrzeuge mit Dieselmotoren unterwegs. Der Verkehrsminister Volker Wissing (FDP) geht davon aus, dass die Kohlendioxid-Emissionen im Verkehr mit „HVO100“ (Wasserstoff behandelte Pflanzenöle) innerhalb kurzer Zeit um bis zu 95 Prozent gesenkt werden können.

Gemäß dem Bundesverband freier Tankstellen (BfT) wird der Biodiesel heute nur im öffentlichen Nahverkehr und in der Landwirtschaft eingesetzt sowie von Logistikfirmen genutzt. Deshalb ist Biodiesel auch an den Tankstellen noch nicht frei verfügbar. Doch das diesbezügliche Potenzial in der Speditionsbranche ist riesig. Der finnische HVO-Hersteller Neste ist davon überzeugt, dass bis zum Jahre 2040 biogene Kraftstoffe ungefähr eine Milliarde Tonnen Rohöl ersetzen werden, das sind circa 40 Prozent des globalen Bedarfs im Transportwesen.

Die Anlaufphase von HVO100 kann für Flottenbetreiber deshalb interessant sein, weil diese damit die CO2-Vorgaben auch mit ihren Bestandsfahrzeugen erreichen können. Überdies bedarf es bei modernen Dieselmotoren dafür keiner technischen Anpassung oder Umrüstung. Allerdings bedarf die Freigabe von Kraftstoffen für Motoren immer eines klaren Signals des jeweiligen Fahrzeugherstellers. Für unsere Umwelt wäre es ein Gewinn, wenn diese Unternehmen derartige Hinweise schnell veröffentlichen würden.

Wenn der Bundesrat am 22. März 2024 seine Zustimmung gibt, kann HVO100 tatsächlich am 13. April 2024 in den öffentlichen Verkauf gehen. An den Tankstellen wird dann der biogene HVO-Diesel sowie grünstrombasierter synthetischer E-Diesel mit dem Hinweis „XtL“ gekennzeichnet. In den Niederlanden, Schweden oder in Litauen können Sie den Biodiesel übrigens schon seit längerer Zeit tanken. Insgesamt gibt es in Europa mehr als 600 Tankstellen, an denen dieser frei erhältlich ist.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 17.04.2024 erstellt.

Das Ziel Deutschlands, bis 2045 klimaneutral zu sein, erfordert eine drastische Umstellung auf erneuerbare Energien, mit einem ambitionierten Zwischenziel, bis 2030 mindestens 80 Prozent des Stromverbrauchs durch erneuerbare Quellen, insbesondere Wind- und Solarenergie, zu decken.

Diese Transformation wirft jedoch eine bedeutende Herausforderung auf, die auf der Website der Bundesregierung weniger Beachtung findet: den immensen Bedarf an kritischen Rohstoffen wie Kupfer, Kobalt und Nickel, die für Technologien der sogenannten Energiewende unerlässlich sind.

Die Europäische Union hat die Notwendigkeit erkannt, sich von der dominanten Versorgung mit seltenen Erden und anderen kritischen Materialien aus China unabhängiger zu machen. Angesichts dessen, dass fast die gesamte Versorgung mit diesen essenziellen Rohstoffen derzeit aus China stammt, legt die EU mit dem „European Raw Materials Act“ einen Plan vor, der den Eigenabbau von strategischen Mineralien fördern und das Recycling dieser Materialien intensivieren soll.

Diese Notwendigkeit spiegelt einen globalen Wettlauf wider, in dem die Kontrolle über und der Zugang zu Rohstoffen eine zentrale Rolle spielen. China hat bereits eine dominante Position in der Verarbeitung dieser Rohstoffe erlangt und seine Investitionspolitik in Afrika strategisch ausgebaut, um seine Versorgung zu sichern. Dies zeigt, dass der Wettbewerb um Ressourcen weit über die Grenzen Europas hinausgeht und eine globale Dimension annimmt. Die EU hat diese Entwicklung verpasst – wieder einmal.

Die Energiewende birgt das Potenzial, einen sogenannten „Superzyklus“ bei Mineralien auszulösen. Experten beschreiben diesen Superzyklus als  eine Periode langfristig steigender Preise aufgrund des Ungleichgewichts zwischen Angebot und Nachfrage. Investitionen in die Erschließung neuer Vorkommen hinken hinterher, und die Förderung der benötigten Rohstoffe ist aktuell noch mit hohen CO₂-Emissionen verbunden. Dies stellt eine weitere Herausforderung dar: Wie kann die Versorgung mit kritischen Rohstoffen nachhaltig gestaltet werden, ohne die Klimaziele zu gefährden?

Die Antworten auf diese Fragen sind vielschichtig und erfordern eine Kombination aus technologischen Innovationen, Investitionen in Recycling und nachhaltige Fördermethoden sowie eine diversifizierte globale Strategie zur Sicherung der Rohstoffversorgung. Die Energiewende ist somit nicht nur eine ökologische oder technologische Herausforderung, sondern auch eine geostrategische und wirtschaftliche, die ein koordiniertes Vorgehen auf nationaler, europäischer und globaler Ebene erfordert.

In diesem Kontext wird deutlich, dass der Erfolg der Energiewende nicht allein von der Umstellung auf erneuerbare Energien abhängt, sondern auch von der Fähigkeit, die dafür notwendigen Rohstoffe nachhaltig und gerecht zu beschaffen. Die Entwicklung einer solchen Strategie wird entscheidend sein, um die Ziele der Klimaneutralität zu erreichen, ohne neue Abhängigkeiten zu schaffen oder bestehende Umweltprobleme zu verschärfen

Gehen Landwirtschaft und Klimaschutz nicht zusammen? Ist Landwirtschaft vielleicht sogar ein derartig störender Faktor, der maßgeblich an der „menschengemachten Klimaerwärmung“ Anteil hat?

Wenn man Reinhard Jung anhört, dann kann man den Eindruck gewinnen, dass es vor allem in der Politik Leute gibt, die in diese Richtung denken. Und diese wiederum sind nicht nur, aber schon vermehrt bei den Grünen zu suchen.

Reinhard Jung ist Sprecher der „Freien Bauern“ und hat als solcher vor allem den Grünen Bundeslandwirtschaftsminister Özdemir „lieb gewonnen“. In einem Beitrag [1]  vom Mai 2023 kritisierte er dessen Begriff von „Nachhaltigkeit“ als ein auf technische Standards begrenztes Verständnis. Oder mit anderen Worten: Özdemir hat keine Ahnung, wovon er redet.

Er selbst ist Biobauer und freier Journalist mit einem Studium von Geschichte, Kunstgeschichte und Politischer Wissenschaft.

Wie die Klimaschützer die Welt retten wollen

Laut „Epoch Times“ [2]  beginnen jetzt Kindergärten und Kitas den Ausschank von Kuhmilch an die Kinder zu verbieten. Die Begründung hierfür ist, dass „die Milchprodukte eine hohe Belastung für die Umwelt und das Klima darstellen“ sollen. Außerdem gäbe es auch ethische Gesichtspunkte, die gegen eine Verwendung von Milch sprächen.

Es gibt in der Tat eine Reihe von Argumenten, die gegen den dauerhaften Verzehr von Milch sprechen. Ich hatte darüber eine Reihe von Beiträgen veröffentlicht:

Schleierhaft jedoch bleibt, wieso ausgerechnet Milch die „CO2-Bilanz“ oder „Umwelt und Klima“ verschlechtern sollte? Trägt hier die Milch als Milch schuld oder hat das was mit der Tierhaltung der Kühe zu tun? Aber wieso sind Kühe denn eine Belastung für das Klima?

Aber Kühe produzieren nicht nur Milch, sondern auch Fleisch. Und das sei jetzt ebenfalls klimaschädlich und schon gar nicht nachhaltig. Wie so dem so sein soll, dass bleiben die Grünen Ideologen dem staunenden Beobachter schuldig.

Auch zum Fleisch und Fleischkonsum hatte ich eine Reihe von Beiträgen gebracht, die in der Tat gezeigt hatten, dass ein übermäßiger Konsum von Fleisch kein Beitrag zu einer gesunden Ernährung darstellt. Von Klima und Nachhaltigkeit etc. war hier allerdings nicht die Rede:

Der Biobauer Jung hält dagegen, dass eine Abschaffung der Tierhaltung absolut keine Lösung sei. Denn die einfache Vorstellung, dass die Bauern nur noch Getreide anbauen, um daraus Brote zu backen, resultiert nicht nur in einer einseitigen Ernährung, sondern ist auch auf dem Bauernhof nicht durchführbar.

Denn es gibt landwirtschaftliche Flächen, die sind natürliches Grünland, auf dem kein Getreide sondern nur Gras wächst. Diese Flächen sind für Getreide-Bauern vollkommen uninteressant und wären nichts als Brachland, welches ohne Ertrag bearbeitet werden müsste; und wenn man nur das Gras mit einem Rasenmäher kurz halten muss.

Verwertbares Land kann nur ökonomisch genutzt werden, wenn eine gut abgestimmte Fruchtfolge eingehalten wird. Und das beinhaltet auch das Anpflanzen von Pflanzen, die nicht unmittelbar der menschlichen Ernährung dienen, sondern sich nur als Tierfutter eignen. Aber warum diese Pflanzen anpflanzen, wenn man keine Tiere im Stall hat, da die Tierhaltung „dem Klima schadet“?

Ist das die neue „Nachhaltigkeit“, wenn Grünland ungenutzt brach liegt und Ackerland nur jedes zweite Jahr oder vielleicht drittes Jahr für den Anbau von Nutzpflanzen für die menschliche Ernährung genutzt werden kann?

Dazu kommt noch, wie der Biobauer Jung erklärt, dass bei einem zu feuchten Sommer ein gewisser, nicht zu unterschätzender Prozentsatz des Getreides nicht backfähig sei. Der Weizen sei zu schlecht, um als Brotweizen genutzt werden zu können, eignet sich aber als Tierfutter.

Aber wenn man keine Tiere im Stall hat, dann hat man viel Abfall, dessen Entsorgung ganz sicher absolut „klimaneutral“ ausfallen dürfte.
Eingedenk der Tatsache, dass die „Freunde des Klimas“ vielleicht schon ahnen, dass ihre Klima-Geilheit in Nahrungsengpässen münden könnte, haben diese auch gleich die adäquate Lösung für das Problem, was sie selbst geschaffen haben, bereit:

Dann mal guten Appetit!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Das Kohlendioxid von der Kuh

Kühe benötigen, genau wie der Mensch, Sauerstoff und atmen Kohlendioxid aus. Wenn man also viele Kühe hat, dann hat man viele „Kohlendioxid-Generatoren“, die schlecht für die Umwelt sind. So die Kuhmilchmädchen-Rechnung der CO2-Narren.

Das mag vordergründig logisch erscheinen, schielt aber geflissentlich an der Tatsache vorbei, dass diesem angeblichen Mehr an CO2 ein riesiges „Heer“ an Pflanzen aller Art gegenübersteht, die sich über dieses CO2 freuen, da sie es für ihren Stoffwechsel so dringend benötigen wie wir den Sauerstoff zum Atmen.

Wenn man also CO2 in der Atemluft reduzieren möchte, wie wäre es dann mit einem Verbot von Rodung der Urwälder, die zudem auch eine Vernichtung von Habitaten von allerlei Tierarten bedeutet? Seltsamerweise redet niemand von den selbst erklärten „Weltenrettern“ von dieser Möglichkeit. Warum wohl nicht?

Könnte dies damit zusammenhängen, dass diese Lösung nicht genug Verzicht vom gemeinen Otto Normalverbraucher fordert?

Aber selbst diese Argumentationsschiene wankt ebenfalls auf wackeligen Füßen. Denn woher nehmen die Kühe das Kohlendioxid, welches sie ausatmen? Haben Kühe ein CO2 produzierendes Organ, welches das Gas aus dünner Luft produzieren kann?

Die Realität sieht anders aus:

Wie bereits erwähnt „atmen“ Pflanzen CO2 ein und geben Sauerstoff ab. Das Kohlenstoff-Atom wird von den Pflanzen für die eigenen Stoffwechselaktivitäten benötigt. Wenn diese Pflanzen jetzt verzehrt werden, dann wird das auf diese Art und Weise gebundene CO2 wieder freigesetzt. Damit kommt es nicht zu einer Erhöhung des CO2 per se, sondern es kommt zu einer Erhöhung in Relation zur Absenkung, die durch die Aktivitäten der Pflanzen bedingt ist. Oder kurz und bündig: Es wird nur das abgegeben, was vorher entnommen wurde – die Nettobilanz ist Null.

Aber ähnlich wie bei Corona gibt es auch in diesem Segment absolute „Experten“, die jenseits aller Kenntnis der Materie ihre ideologischen Parolen laut schreiend verkünden. Und je lauter hier geschrien wird, desto deutlicher werden deren Verblendung und Unwissen. Frei nach dem Motto: Je höher ein Zwerg auf der Leiter klettert, desto deutlicher sieht man, dass es ein Zwerg ist.

Die Klimarettung der Klimaheuchler

Wer macht also, ähnlich wie bei Corona, aus einer erfundenen Mücke einen Fantasie-Elefanten? Eigenartigerweise scheint es sich hier genau um die Leute zu handeln, die nur zu bereitwillig gegen ihre eigenen Gebote und Verbote verstoßen. Auch hier gilt das Motto: Klimaschutz, das müssen die anderen machen. Denn alle Menschen sind gleich, nur wir sind gleicher.

Da wundert man sich nicht mehr, wenn man in einem Beitrag von Boris Reitschuster folgendes zu lesen bekommt:

Und so sah das Heer der Klimaretter aus dem besten Deutschland aller Zeiten aus:

40 Mitarbeiter aus dem Kanzleramt
48 Mitarbeiter aus dem Wirtschaftsministerium
60 Mitarbeiter aus dem Außenministerium
25 Mitarbeiter aus dem Umweltministerium
36 Mitarbeiter aus dem Entwicklungsministerium
Sieben Mitarbeiter aus dem Finanzministerium
Fünf Mitarbeiter aus dem Gesundheitsministerium
Fünf Mitarbeiter aus dem Landwirtschaftsministerium
Vier Mitarbeiter aus dem Verkehrsministerium

Fliegen diese Apparatschiks klimaneutral mit CO2-freiem Kerosin in das Land von tausenundeiner Nacht? Wie hoch ist der CO2-Ausstoß dieser Tour?

Die deutsche Delegation dürfte ja nicht die einzige sein, die so gerne das Weltklima retten möchte. Wie viel CO2 haben alle Teilnehmer in die Luft geblasen, um an der Weltenrettung teilnehmen zu können? Wie viel ist das in CO2-Kühe umgerechnet?

Wie viel offensichtliche Heuchelei braucht es noch, damit Otto Normalverbraucher auch in diesem Punkt endlich einmal wach wird?

Vielleicht hilft folgendes:

Ja, es ist kaum zu fassen. Man ist wild entschlossen, das Klima zu retten. Und dafür fliegt man seine Flugzeuge mit einem massenhaften CO2 Ausstoß nach Dubai, während der Bauer schon angepinkelt wird, wenn er eine Kuh im Stall stehen hat.

Und nicht nur das. Man will uns E-Autos aufs Auge drücken, da ja die Benziner schlecht für das Klima seien. Aber auf genau dieser Weltenrettungskonferenz werden lukrative Öldeals verhandelt, obwohl Diesel und Benzin doch angeblich so schlimm seien und abgeschafft werden müssen. Wo bleibt da die Glaubwürdigkeit?

Vollkommen richtig – es geht überhaupt nicht um Umwelt- oder Klimaschutz, sondern um sehr viel Geld. Wen interessiert es da, ob man glaubwürdig ist oder nicht?

Das Fazit mit Herrn Jung

Die ganze Diskussion um Kuhmilch und angebliche schädliche Kühe halte ich für völlig irrwitzig. Die Gesellschaft entfernt sich immer weiter von ihren eigenen Lebensgrundlagen. Wir werden sehen, was am Ende des Tages herauskommt. Wir Bauern machen jedenfalls weiter. Wir lassen uns nicht unterkriegen.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Quellen: 

[1] Freie Bauern: „Experten für Nachhaltigkeit“ – ZDFheute
(https://web.archive.org/web/20230506110521/https://www.zdf.de/nachrichten/zdf-morgenmagazin/freie-bauern-wir-sind-die-experten-fuer-nachhaltigkeit-100.html)

[2] Pilotprojekt sorgt für Wirbel: Kita erteilt Ausschankverbot von Kuhmilch
(https://web.archive.org/web/20230904121242/https://www.epochtimes.de/gesellschaft/pilotprojekt-sorgt-fuer-wirbel-kita-erteilt-ausschankverbot-von-kuhmilch-a4397648.html)

Beitragsbild: pixabay.com – andreas160578

Nachdem SARS-CoV-2, alias Covid-19, erfolgreich die Menschheit ausgerottet hat, da dieses vollkommen neue Corona-Virus ein vollkommen unvorbereitetes und inkompetentes Immunsystem beim Menschen hat überraschen können, gibt es jetzt einen weiteren Killer der Menschheit: Das Klima.

Die „Experten“ scheinen sich noch nicht ganz einig zu sein, ob CO2 oder die Sonne oder gleich beide den Teil der Menschheit abmurksen wird, den Covid-19 übrig gelassen hat. Aber momentan überschlagen sich die „Theorien“ dazu in einer vergleichbar intensiven und hektischen Art und Weise, wie dies zu Beginn der „Corona-Pandemie“ für SARS-CoV-2 veranstaltet wurde.

Selbstverständlich sind wir auch hier wieder einmal zum Untergang verurteilt, wenn wir nicht bedingungslos das machen, was uns unsere höchst kompetenten Politiker dazu verordnen. Und „die Wissenschaft“ sei sich auch hier wieder einmal einig, wie sie es angeblich bei Corona auch gewesen war. Aber bei Corona war sich „die Wissenschaft“ nur deswegen einig, weil der Verein der „Zeugen Coronas“ und „Corona-Heulbojen“ alle kritischen Stimmen, die nicht gerade wenig waren, ausblendete, zensierte, ignorierte etc., was zur Illusion von Einstimmigkeit führte. Und das Gleiche passiert jetzt ebenfalls bei der wissenschaftlichen Beurteilung der „Klimakatastrophe“.

Nach der Covid-19-Vogelscheuche jetzt die CO2-Vogelscheuche

CO2 bringt uns alle um, weil es sich hier um ein Treibhausgas handeln und welches bei der Erderwärmung die ausschlaggebende Rolle spielen soll. So erzählt es uns die versammelte Politik, inklusive Opposition, die unter der Leitung der Grünen ihr „Expertenwissen“ versprühen. Auch das erinnert mich an 2020, wo die gleichen „Experten“ uns erzählt hatten, dass SARS-CoV-2 das Gefährlichste aller Viren in der Geschichte der Menschheit sei. Und das bei einer IFR (Mortalitätsrate bei Infektion) von nur 0,15 % durchschnittlich.

Wir haben bereits einige „Experten“ in Beispielen bewundern können, wie selbige auf Befragung [1] noch nicht einmal wussten, wie hoch der CO2-Anteil in der Atemluft ist. Da kamen dann Schätzungen von 5 %, 7 % und 8 %. Dass die Atemluft nur 0,04 % CO2 enthält, scheint für die Klima-Jünger uninteressant zu sein, weshalb man sich mit derartig überflüssigem Wissen erst gar nicht aufhalten will. Aber diese 0,04 % sollen jetzt verantwortlich dafür sein, dass die Temperaturen ins Unerträgliche steigen. Auch das erinnert an Corona und seine IFR von 0,15 %, die ähnlich hoch lag wie die IFR von Influenza, dem keine Weltuntergangskapazitäten zugesprochen wurden.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Unterstellung: CO2 ist (k)ein Treibhausgas

Die Wissenschaft, die sich ja angeblich einig ist, scheint jetzt einen „Klima-Bhakdi“ bekommen zu haben, den Nobelpreisträger für Physik, John Clauser [2].

Der bezeichnet das Narrativ von der „Klimakrise“ als: „Die populäre Darstellung des Klimawandels spiegelt eine gefährliche Verfälschung der Wissenschaft wider, die die Weltwirtschaft und das Wohlergehen von Milliarden von Menschen bedroht. Die fehlgeleitete Klimawissenschaft hat sich zu einer massiven schockjournalistischen Pseudowissenschaft ausgeweitet. Diese Pseudowissenschaft wiederum ist zum Sündenbock für eine Vielzahl anderer, nicht damit zusammenhängender Missstände geworden. Sie wurde von ähnlich fehlgeleiteten Marketingvertretern, Politikern, Journalisten, Regierungsbehörden und Umweltschützern gefördert und verbreitet. Meiner Meinung nach gibt es keine echte Klimakrise. Es gibt jedoch ein sehr reales Problem bei der Gewährleistung eines angemessenen Lebensstandards für große Teile der Weltbevölkerung und eine damit verbundene Energiekrise. Letztere wird durch die meiner Meinung nach falsche Klimawissenschaft unnötig verschärft.“ [3] [4]

Steht er mit dieser Meinung alleine da? Sehr wahrscheinlich, denn „die Wissenschaft“ ist sich ja einig! Weit gefehlt!

Es gibt eine „World Climate Declaration“ [5], von der ich auch jetzt erst erfahren habe, und die unter anderem von 300 Klima-Professoren unterzeichnet wurde. Insgesamt gibt es bislang über 1100 unterzeichnende Wissenschaftler dieser Erklärung. Das Ergebnis dieser Erklärung: Es gibt keinen Klimanotstand!

Auch das erinnert mich an eine weitere Parallelität der Ereignisse, die „Great Barrington Declaration“ [6] von 2020 mit jetzt über 937.000 Unterschriften. Auch das ist mehr als merkwürdig, wo doch die „Corona-Wissenschaft“ sich so einig war und angeblich eindeutige und unwiderlegbare Ergebnisse vorzuweisen hatte.

Ein weiterer Unterzeichner der Klima-Deklaration ist ebenfalls Nobelpreisträger, Professor Ivar Giaever. Nach seinem Dafürhalten sind Klimamodelle nicht im entferntesten geeignet für weltweite gesellschaftliche und politische Umsetzungen. Für ihn übertreiben diese Modelle den Effekt der Treibhausgase, wie CO2, und ignorieren gleichzeitig jeden nützlichen Effekt. Er sagt, dass die Klima-Wissenschaft zu einer Diskussion heruntergekommen sei, die auf Glaubenssätzen und nicht auf gesunder selbstkritischer Wissenschaft beruhe.

Andere Unterzeichner sprechen ebenfalls von übertriebenen und katastrophalen Vorhersagen, die mit der Realität absolut nichts zu tun hätten. In Wirklichkeit gäbe es eine natürliche Variation, die auch zu großen Teilen eine Erwärmung erklärt, die seit 1850 zu beobachten ist.

Eine Arbeit [7] aus dem Jahr 2022 von vier italienischen Wissenschaftlern kam zu dem Schluss, dass es keine Daten gibt, die einen „Klima-Notstand“ begründen könnten. Dazu gäbe es keine positiven Trends, die auf extreme Ereignisse hindeuten würden. Solche Behauptungen entstehen nur dann, wenn man sich einzelne, ins Narrativ passende, schlechte Ereignisse oder Extreme herauspickt, die dann das beweisen, was man hat beweisen wollen. Und diese Rosinen-Pickerei soll dann als die Grundlage für eine globale und kollektivistische Deindustrialisierung zum Wohle des CO2 dienen.

Ähnlich wie bei Corona, wo es eine „Null-Covid“ Fraktion unter den Politikern gab, die das Corona-Virus ausrotten wollten, gibt es auch hier beim Klima eine ähnlich aufgestellte „Null-CO2“ Fraktion. Der Nuklearphysiker Dr. Manheimer sagt dazu, dass dies dann das Ende der modernen Zivilisation sei, also das, was die „CO2-Jünger“ zu verhindern ausgeben. Oder vielleicht auch nicht?

Eine weitere Stellungnahme kommt von einem angesehenen, emeritierten Atmosphärenforscher, Dr. Happer. Der sagt, dass seine Klimastudien eindeutige Beweise dafür lieferten, dass es keine Klimakrise gäbe und dass eine Erhöhung der CO2-Konzentration der Welt zu gute käme. Dr. Happer ist ein führender Verfechter der „Sättigungs“-Hypothese von wärmenden Gasen wie CO2, die besagt, dass solche Gase bei bestimmten Konzentrationen in kleinen Bereichen des Infrarotspektrums gesättigt werden. Infolgedessen nimmt ihre Erwärmungsfähigkeit auf einer logarithmischen Skala ab, eine Beobachtung, die dazu beiträgt, die 600 Millionen Jahre alten geologischen Aufzeichnungen zu erklären, in denen die CO2-Messungen bis zu 20 Mal höher waren als die derzeitigen atmosphärischen Werte. Oder mit anderen Worten: CO2 verliert seine Charakteristik als Treibhausgas in dem Maße, wie seine Konzentration in der Atmosphäre zunimmt. Die Freunde der Klima-Panik dagegen scheinen diese Dynamik nicht zu kennen oder nicht kennen zu wollen. Auch das erinnert mächtig an alte „Corona-Zeiten“.

Dann also doch die Sonne?

Bei den Klima-Rettern scheint man noch nicht ganz schlüssig zu sein, ob CO2 oder die Sonne der eigentliche Übeltäter ist. Denn es gibt auch Erwägungen, mit denen Bill Gates schon früh von sich reden machte: Die Verdunklung der Sonne. Ich hatte dazu unlängst diesen Beitrag veröffentlicht:

Also doch?

„tkp – der Blog für Science und Politik“ brachte Mitte Juli 2023 zwei sehr interessante Beiträge heraus, geschrieben von einem Dr. Mayer.

Im ersten Beitrag [8] ging es um eine zurückgezogene Studie, die den Klimawandel als Folge von Sonnenzyklen und nicht als Einfluss von CO2 beschrieben hatte. Der Beitrag erklärt sehr anschaulich die Schlussfolgerungen der Studie. Er kommt auch zu dem Schluss, dass hier die gleichen Mechanismen zur Anwendung kommen wie in „Corona-Zeiten“, wenn es um die Zensur von unangenehmen Studien kommt:

Wir sehen hier die gleiche Vorgangsweise, wie bei Papers, die kritisch zu den Corona-Maßnahmen und/oder der Impfkampagne waren. Hier sind es die Betreiber der Klimarettungsaktivitäten. Wenn die Erkenntnisse und Berechnungen der Zharkova-Studie richtig sind, dann sind alle Maßnahmen für CO2 Reduktion, der Green Deal und alle anderen ähnlichen Programme wirkungslos und daher auch sinnlos und schädlich.

Der zweite Beitrag [9] erklärt die Bedeutung des „Ockams Rasiermesser“ und warum diese Forschungsmethode erklärt, dass die Änderung der Sonne-Erde-Entfernung für die schwankenden Temperaturen verantwortlich ist und nicht das CO2.

Es wird noch witziger. Der Beitrag zitiert Wikipedia, welches versuchte, CO2 als den Übeltäter zu entlarven. Wikipedia zufolge gab es deshalb Eiszeiten, weil es kaum CO2 gab. Und es gab kaum CO2, weil nach einem Bevölkerungsrückgang landwirtschaftliche Flächen brach lagen und wiederbewaldet wurden. Wenn dem so ist, dann erhebt sich die Frage, warum der CO2-Ausstoß reduziert werden muss, aber niemand in der Politik gerne davon redet, den unvermeidlichen Untergang durch mehr Wald aufzuhalten? Warum wird der Raubbau in den Regenwäldern nicht ein- und unter Strafe gestellt?

Vielleicht, weil es gar nicht um CO2 geht, wie es auch bei Corona nicht um Gesundheit ging?

Dr. Mayer geht in seinem Beitrag von einer „Politisierung der Wissenschaft“ aus. Und dabei geht es nur um eines:

Nur wenn es sich um eine völlig natürliche Fluktuation der Durchschnittstemperaturen auf Grund der Himmelsmechanik handelt, dann ist jeglicher Green Deal und der Versuch den CO2-Anteil in der Luft zu reduzieren sinnlos und Makulatur. Aber Larry Fink (BlackRock) ist das ohnehin egal, es geht um Profit und Macht. Diese Verknüpfung von Unternehmensinteressen und Staat nannte Benito Mussolini Korporatismus oder Faschismus. Und dorthin sind wir ungebremst unterwegs. Faschismus war und ist übrigens rechtsextrem.

Und:

Der Green Deal dient daher den Interessen von BlackRock und Co aber nicht der Reduzierung der durchschnittlichen Temperatur. Genau das kann er nicht.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter mit den „5 Wundermitteln“ an:

Kleine Anmerkung: Die Sache mit den „5 Wundermitteln“ ist mit Abstand der beliebteste Newsletter, den meine Patienten gerne lesen…

Wie tödlich ist die tödliche Hitze?

Zu Beginn der „Corona-Pandemie“ waren es die angeblich unsäglich vielen Fälle, die per PCR-“Test“ ermittelt wurden und dazu dienten, die Gefährlichkeit des Corona-Virus zu belegen. Um die Dramatik zu erhöhen, wurden Corona-Tote inszeniert durch Bilder wie zum Beispiel aus Bergamo [10] und Statistiken von Corona-Toten, weil sie einen positiven PCR-“Test“ aufwiesen. Eine Übersterblichkeit jedoch gab es in 2020 zu keinem Zeitpunkt, was darauf hindeutet, dass hier Todesfälle zu Corona-Todesfällen umetikettiert wurden [11].

Wie es aussieht, erleben wir jetzt das gleiche Szenario noch einmal. Diesmal ist es die Hitze, die für Tote und Übersterblichkeit verantwortlich gemacht wird. Und mit an vorderster Front stehen die alten Corona-Recken vom RKI, die jetzt Wochenberichte zur „hitzebedingten Mortalität“ [12] heraus feuern.

Und weil das mit der Corona-Statistik so nett geklappt hat, wo man gehäufte Todesfälle in den höheren Altersgruppen beobachten konnte, die man dann auf Corona und nicht auf das Alter und damit verbundene Erkrankungen zurückgeführt hatte, macht man jetzt bei der Hitze da weiter, wo man bei Corona aufgehört hatte. Hier ein Screenshot vom Wochenbericht der Kalenderwoche 27/2023 (3. Juli bis 9.7.2023) [13] :

Als erstes ist beachtenswert, dass diese Zahlen keine beobachteten Zahlen sind (der „Hitze-PCR“ muss wohl noch erfunden werden). Vielmehr sind dies geschätzte Zahlen, die ausgerechnet die Basis für was sein sollen? Maßnahmen? Verbote? Oder was sonst? Sicher ist, dass diese Zahlen toll ins Narrativ passen.

Eigenartigerweise passt auch das Bild, welches sich hier auftut: Rund 85 % der 840 „geschätzten“ Todesfälle ereigneten sich in der Gruppe der über 75-Jährigen, also den „Alten“. Wie sich doch die Bilder gleichen!

Da will das „Ärzteblatt“ [14] nicht hinten anstehen. Hier wurde in der Ausklang-Phase von Corona schon einmal kräftig für die Hitze-Panik geprobt, in dem ein „wissenschaftlicher“ Beitrag zur „hitzebedingten Mortalität in Deutschland zwischen 1992 und 2021“ inszeniert wurde.

Auch hier spricht die Methode Bände über die „Wissenschaftlichkeit“ dieser Veröffentlichung: Man verglich für den genannten Zeitraum die Gesamtmortalität mit Temperaturen und versuchte hier eine Korrelation zu erhalten. Und diese Korrelation erhielt man dann auch für die Jahre 2018-2020. Und schon im nächsten Satz wurde aus einer statistischen Korrelation etliche Tausende „hitzebedingte Sterbefälle“. Die Schulmediziner scheinen sich hier sicher zu sein, dass die Hitze Ursache für die Todesfälle sein muss, wo doch die Korrelation so aussagekräftig ist.

Seltsam: Bei den nicht zu übersehenden Korrelationen von Gen-Injektionen und Nebenwirkungen und Todesfällen jedoch hat die Schulmedizin dagegen bis heute den Spruch parat, dass Korrelation nicht Kausalität sei, auch wenn zum Beispiel in VAERS bis heute über 1,5 Millionen Nebenwirkungen und über 35.000 Todesfälle unter den „Coronaimpfungen“ verzeichnet sind.

Also auch hier wieder einmal ein Messen mit zweierlei Maß: Wenn’s nicht passt, dann sind es nur Korrelationen. Und wenn’s passt, dann sind es Kausalitäten, selbst wenn die Korrelationen nur auf Schätzungen beruhen.

Zwischenfazit: So sieht Propaganda aus!

Kälte gut – Hitze schlecht?

Es gibt eine wenig bekannte Studie aus dem Jahr 2015, die nicht so ganz in die Hitze-Propaganda passen will. Die kommt diesmal von der „Lancet“ [15]. Diese Studie fand heraus, dass Kälte mehr Todesopfer fordert als Hitze. 7,29 % der beobachteten Todesfälle waren auf Kälte zurückzuführen, und nur 0,42 % auf Hitze. Oder in absoluten Zahlen: Von 74 Millionen Todesfällen in 13 Ländern zwischen 1985 und 2012 gab es 5,4 Millionen Todesfälle durch Kälte und 331.000 Todesfälle durch Hitze, also 17 Mal mehr Kälte-Tote als Hitze-Tote.

Wenn man sich so viel Sorgen um die Hitze-Toten macht, sollte man sich dann nicht 17 mal mehr Sorgen auch um die Kälte-Toten machen?

Aber die scheinen nicht ins Konzept zu passen, oder? Oder möchte man durch die Maßnahmen zur Senkung der Temperaturen noch mehr Kälte-Tote produzieren? Handelt es sich hier auch um eine Maßnahme zur Bevölkerungsreduktion durch Erhöhung der Todeszahlen durch Kälte? Sollen diese Maßnahmen das schaffen, was die Genspritzen bislang in einem nur unzureichenden Ausmaß geschafft haben?

Fazit

Mit der neuen „Bedrohung für die Menschheit“, bestehend in CO2, Sonne und Hitze, haben wir einen würdigen Nachfolger von SARS-CoV-2, der mit exakt den gleichen Propaganda-Mitteln und Narrativen gepflegt wird wie vor drei Jahren bei dem „Tödlichsten“ aller jemals existierenden Viren auch.

Fazit vom Fazit: Wetten, dass etliche auch hier wieder voll mitmachen und danach sagen, wer hätte das denn wissen können?!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:


Quellen:

Beitragsbild: pixabay.com – geralt
Dieser Beitrag wurde am 28.09.2023 erstellt.