Heutzutage wird unter dem Stichwort Klimawandel zu viel in einen Topf geworfen und sinnentleert verrührt. Viele Menschen kriegen das mit, was nicht nur die Politikverdrossenheit anheizt, sondern in zunehmendem Maß auch eine „Klimawandelverdrossenheit“.

Um das Ganze wieder zu entflechten, wollen wir einen längst überfälligen, kritischen Artikel über die ganz normalen natürlichen Klimaschwankungen, die es schon immer gab, präsentieren.

Die gemessenen Temperaturen in der Troposphäre oder den Ozeanen sind stets ein Ergebnis aus natürlichen Klimaschwankungen und menschlichen Aktivitäten [1].

Modellrechnungen zur Klimaentwicklung haben gezeigt, dass die natürlichen Einflüsse auf das Erdklima sowohl, wie in den 1990er-Jahren, zu geringfügig steigenden Temperaturen führen als auch, wie während des letzten Jahrzehnts, eine moderate globale Abkühlung bewirken können [2].

Wie sich beide Einflüsse, der natürliche und der anthropogene, auf das Klima quantitativ verteilen, ist nur ganz schwer abzuschätzen. Vor allem basieren die Einflussgrößen auf sehr unterschiedlichen Zeitskalen.

 

Ursache der Klima-Änderung Periode der Schwankung
Einzelne Vulkanausbrüche einige Jahre
Sonnenaktivität und interne Klimaschwankungen Jahre bis einige Jahrzehnte
Anthropogene Treibhausgas-Emissionen mehrere Jahrzehnte
Erdbahn-Parameter einige Hunderttausend Jahre
Plattentektonik Millionen Jahre

 

Schwankungen in der Sonneneinstrahlung zum Beispiel sind in erster Linie eine Folge der regelmäßigen Veränderungen der Erdbahnparameter und waren unter anderem während der letzten drei Millionen Jahre für die Abfolge mehrerer Kalt- und Warmzeiten verantwortlich. Eine dominierende Wellenlänge liegt hier ungefähr bei 100.000 Jahren.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Unsere Sonne ist alles andere als eine konstante Leuchte. Die Intensität ihrer Aktivität wird bestimmt durch den elfjährigen Sonnenfleckenzyklus (Schwabe-Zyklus), durch riesige Protuberanzen und instantane Sonnenfackeln. Auch der circa 80-jährige Gleissbergzyklus sollte in diesem Zusammenhang erwähnt werden:

Der deutsche Astronom Wolfgang Gleissberg (1903–1986) stellte eine 70 bis 100 Jahre währende Periode für die Häufigkeit und Intensität von Sonnenflecken fest. Eine Folge dieser Schwankung war zum Beispiel in der Zeit zwischen 1645 und 1715 das sogenannte „Maunder Minimum“, das durch eine besonders geringe Sonnenfleckenaktivität gekennzeichnet war und in Europa eine „Kleine Eiszeit“ auslöste.

Explosive Vulkane schleudern riesige Mengen Staub bis hoch in die Stratosphäre, wo sie die Einstrahlung der Sonne behindern. Dies kann zu einer Abkühlung führen, die durchaus zwei Jahre währen kann.

Die permanenten intensiven Wechselwirkungen zwischen den Ozeanen und der Atmosphäre spielen sich auf ähnlichen Zeitskalen ab wie die Folgen der anthropogenen Einflüsse auf das Klima. Insofern kann hier das eine Phänomen das andere überdecken, was die Analyse enorm erschwert. Als Beispiele seien in diesem Zusammenhang genannt:

Derartige Phänomene steuern unter anderem die atlantische Hurrikan-Aktivität, die europäischen Temperaturen oder den Niederschlag in der Sahelzone [3].

Die Veränderungen des Erdklimas wirken sich regional sehr unterschiedlich aus. Im Zeitraum von 1910 bis 1940 fand eine ausgeprägte Erwärmung im Bereich des Nordatlantiks und in den östlichen Regionen des Nordpazifiks statt. Während der letzten 30 Jahre wurde es am Nordatlantik auch wärmer, aber im Osten des Nordpazifiks eher kühler.

Seit ungefähr 100 Jahren steigt die mittlere Temperatur in Europa aufgrund der Einflüsse durch den Menschen tendenziell an. Der Kurvenverlauf korreliert aber kaum mit der eher stetigen Zunahme der Konzentration von Treibhausgasen in der Atmosphäre, weil der Temperatureffekt durch die Wasseroberflächentemperatur des Nordatlantiks (Sea Surface Temperature – SST) überlagert wird.

Letztere wird wiederum von der „Atlantischen Multidekadischen Oszillation“ (AMO) gesteuert. Die Temperaturabnahme während der 1960er- und 1970er-Jahre war zudem durch eine relativ hohe Aerosolkonzentration über Europa ausgelöst worden.

Aus einer Zunahme der atlantischen Hurrikane kann man mitnichten sogleich einen klaren Nachweis des anthropogenen Klimawandels ableiten, weil eine solche Entwicklung allein auf die natürliche Dekaden-Schwankung des Klimas zurückgeführt werden könnte. Aus wissenschaftlicher Sicht brauchen wir mindestens noch die Zeitreihen der nächsten 20 Jahre, um die beiden Einflussgrößen seriös trennen zu können.

Die internen Dekaden-Schwankungen sind hauptsächlich auf die Wechselwirkung zwischen den träge reagierenden Ozeanen und der kurzfristig und auch chaotisch reagierenden Atmosphäre zurückzuführen [4].

Gerade der Großraum des Nordatlantiks zeichnet sich durch besonders starke Dekaden-Schwankungen aus. Auf Jahressicht wird der Atlantik von der Atmosphäre angetrieben. Betrachtet man längere Perioden ist es aber eher der Ozean, der die Atmosphäre steuert [3].

Das hat alles viel mit der thermohalinen Zirkulation beziehungsweise mit der Meridionale Umwälzzirkulation (MOC) zu tun. Sie ist es, die die Wärme aus den äquatornahen Breiten in die Polarregion verfrachtet und die Temperaturen der Meeresoberflächen (SST) im Nordatlantik bestimmt. Genau davon hängt das europäische Klima vehement ab [5].

Ende des 19. und Mitte des 20. Jahrhunderts waren die SST durch moderate Warmphasen gekennzeichnet, während ab den 1960er-Jahren eher eine kühlere Phase registriert wurde, die aber in den 1990er-Jahren wieder in eine Erwärmung überging. Ganz ähnlich verhielten sich auch die Temperaturen der Meeresoberflächen im Pazifik.

Positive Phasen in den Dekaden-Schwankungen der Nordatlantischen Oszillation (NAO) führen in der Labradorsee, bei Grönland und über dem Norden Kanadas zu einer deutlichen Abkühlung. Gerade jene über der Labradorsee ist bedeutend für die MOC, da dort die thermohaline Zirkulation nach unten abbiegen soll.

Warmes Wasser strömt hier aus den Subtropen heran und gibt umso mehr Wärme an die Atmosphäre ab, je kälter diese ist. In der Folge wird auch die Dichte des Wassers etwas größer, was das Absinken in die Tiefe intensiviert und die MOC antreibt. Genau darauf möchten wir in Europa lieber nicht verzichten.

Klimavorhersagen

Mal angenommen, wir würden alle wesentlichen Parameter der natürlichen Klimaschwankungen kennen, dann wäre es theoretisch möglich, Klimamodelle zu berechnen und möglicherweise bis hundert Jahre in die Zukunft zu extrapolieren. Tatsächlich unterscheiden sich die Projektionen unterschiedlicher Szenarien nicht allzu sehr und driften erst ab ungefähr 2050 etwas mehr auseinander.

Man kann also sagen, dass uns die künftige Klima-Entwicklung unter Einbeziehung der anthropogenen Treibhausgase zumindest für die nächsten 30 Jahre relativ gut bekannt ist. Deutlich schlechter kennen wir den Anteil der Klimaentwicklung durch die natürlichen Faktoren wie externe Antriebe und interne Variabilität.

Es gibt seit der Kleinen Eiszeit eine Zunahme der Solarstrahlung, die aber nur auf 1,2 Promille, also +0,3 W/m2 geschätzt wird. Der seit Beginn der Industrialisierung anthropogen verursachte Strahlungsantrieb aufgrund der langlebigen Treibhausgase beträgt aber +2,6 W/m2, also fast das Neunfache [6].

Tatsächlich betrug der Temperaturunterschied zwischen der Hochphase der Kleinen Eiszeit (Maunder Minimum) und der warmen Klimaperiode zwischen 1960 und 1990 weniger als ein halbes Grad Celsius [7].

In den kommenden Jahrzehnten geht man von einer geringfügigen Abnahme der Solarstrahlung aus. Falls die Sonne gegen Ende dieses Jahrhunderts tatsächlich mit der Kraft strahlen sollte, die jener der Kleinen Eiszeit entspricht, wird dies auf der Erde einen Temperatureffekt von nur -0,1 °C haben [8].

Explosive Vulkanausbrüche, wie wir es 1991 beim Mt. Pinatubo erlebt haben, können aufgrund der starken Emissionen von Aerosolen die Durchschnittstemperatur auf der Erdoberfläche um circa 0,3 °C absenken [9]. Allerdings hält die Wirkung nur wenige Jahre an.

Insofern müssen wir wohl davon ausgehen, dass die globale Erderwärmung in den kommenden Jahrzehnten vorrangig durch natürliche interne Klimaschwankungen zustande kommt.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Literaturhinweise

  1. Keenlyside, N.S. and J. Ba, 2010; Prospects for decadal climate prediction; WIREs Climate Change 1 (627–635)
  2. G. Hunt, 2011; The role of natural climatic variation in perturbing the observed global mean temperature trend; Climate Dynamics 36 (509–521)
  3. Mojib Latif and Noel S. Keenlyside, 2011; A perspective on decadal climate variability and predictability Deep Sea Research Part II; Topical Studies in Oceanography 58 (1880-1894)
  4. Mojib Latif, 2009; Klimawandel und Klimadynamik; Stuttgart (S. 82 ff)
  5. Mojib Latif, 2011; Klimavariabilität, El Nino/Southern Oszillation, die Nordatlantische und die Atlantische Multidekadische Oszillation – Mit Anmerkungen zur Vorhersagbarkeit in J.L. Lozán, H. Graßl, L. Karbe, K. Reise; Warnsignal Klima: Die Meere – Änderungen & Risiken; Hamburg 2011 (78-89)
  6. IPCC, 2007; Climate Change 2007, Working Group I; The Science of Climate Change (2.7.1.2)
  7. Foster and S. Rahmstorf, 2011; Global temperature evolution 1979–2010; Environ. Res. Lett. 6; doi:10.1088/1748-9326/6/4/044022
  8. Jones, G. S., M. Lockwood, and P. A. Stott, 2012; What influence will future solar activity changes over the 21st century have on projected global near-surface temperature changes?; Journal of Geophysical Research; 117; D05103; doi:10.1029/2011JD017013
  9. Soden, B. J., R. T. Wetherald, G. L. Stenchikov and A. Robock, 2002; Global cooling after the eruption of Mount Pinatubo: A test of climate feedback by water vapor; Science, 296 (727-730)

Dieser Beitrag wurde am 13.05.202 erstellt.

Durch undichte Stellen in Pipelines oder lockere, defekte Dichtungen entweicht permanent Methangas (CH4) in die Atmosphäre. Methan hat eine deutlich stärkere kurzfristige Treibhauswirkung pro Einheit Masse als Kohlendioxid. Zur Quantifizierung des Unterschieds wird gern der Begriff „Global Warming Potential“ (GWP) herangezogen.

GWP ist ein Maß dafür, wie viel Wärmeenergie ein Treibhausgas im Vergleich zu Kohlendioxid über einen bestimmten Zeitraum, normalerweise 100 Jahre, in der Atmosphäre absorbiert. Kohlendioxid wird dabei als Referenz mit einem GWP von 1 betrachtet.

Gemäß dem „Intergovernmental Panel on Climate Change“ (IPCC) hat Methan ein GWP von etwa 28 bis 36 über einen Zeitraum von 100 Jahren. Allerdings hat Methan in der Atmosphäre eine kürzere Lebensdauer als Kohlendioxid. Deshalb macht es Sinn, den Vergleich auf den kürzeren Zeitraum von 20 Jahren zu beziehen. Tut man dies, ergibt sich für Methan sogar ein GWP von 84 bis 87.

Vom 18. bis 21. März 2024 fand das Globale Methangas Forum in Genf (Schweiz) statt. Dario Liguti ist der Direktor für nachhaltige Energie bei der UN-Wirtschaftskommission für Europa (Unece), die hier als Gastgeber fungiert. Gekommen sind circa tausend Vertreter von Regierungen, wissenschaftlichen Institutionen und Unternehmen aus mehr als 100 Nationen. Sie alle haben großes Interesse daran, eine Lösung dafür zu finden, die Methanlöcher endgültig zu stopfen.

Seit Beginn der industriellen Revolution hat Methan grob geschätzt zu ungefähr 30 Prozent zur Erwärmung des Klimas beigetragen. Immerhin um die 60 Prozent des Methans in unserer Atmosphäre sind eine Folge menschlicher Aktivitäten, wobei circa 40 Prozent davon der Energiewirtschaft geschuldet sind.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Während Kohlendioxid mehrere hundert Jahre in der Atmosphäre verbleibt, liegt die „Halbwertzeit“ von Methan bei ungefähr zwölf Jahren, das heißt, eine Verringerung des Ausstoßes von Methan würde sich in überschaubarer Zeit positiv bemerkbar machen.

Methan entsteht unter anderem in der Kohle-, Öl- und Gasindustrie. Mit wenig Aufwand könnten drei Viertel dieser Emissionen gestoppt werden, denn so viel entweicht aus Pipeline-Lecks und defekte Dichtungen. Eigentlich sollte dies absolut im Interesse der beteiligten Unternehmen liegen.

Liguti verwies in diesem Zusammenhang auf die zunehmende Verbesserung bei der Auflösung von Satellitenbildern, die es ermöglicht, eben gerade auch Methan-Lecks schnell und präzise ausfindig zu machen. Fakt ist, dass fast drei Prozent des geförderten Methans direkt in die Atmosphäre entweicht, sehr viel mehr als bislang angenommen, so jedenfalls wurde es kürzlich im Fachjournal „Nature“ dargestellt.

Die größten Mengen an Methangas werden heute durch die Kohle-Industrie in China freigesetzt. Methan-Emissionen durch die Öl- und Gasindustrie entstehen besonders viel in den USA, aber auch in Russland. Es ist schon sehr beachtlich, dass mehr als 30 Prozent aller Methan-Emissionen weltweit aus der Viehhaltung stammen. Insofern wäre eine Reduktion unseres Fleischkonsums direkt mit einem messbaren Rückgang der Methan-Emissionen verbunden. Gerade Rinder produzieren beachtliche Mengen Methan im Zuge der Verdauung.

Global Methane Pledge (GMP)

Auf der Klimakonferenz im schottischen Glasgow 2021 haben die EU und die USA eine Initiative gestartet und gemeinsam mit zahlreichen anderen Ländern beschlossen, den weltweiten Ausstoß von Methan bis 2030 um 30 Prozent zu reduzieren. Modellrechnungen zeigen, dass dies die Erderwärmung (bis 2050) um mindestens 0,2 Grad Celsius vermindert. Die Unternehmen sollten also von der nationalen Regierung und von der EU zur Messung ihrer Methan-Emissionen und zu deren Meldung rechtlich verbindlich gezwungen werden.

Zwar sind die Kosten für das Abdichten von Lecks nicht besonders gravierend und amortisieren sich sehr schnell durch den Verkauf des nicht mehr entweichenden Gases, doch die Unternehmen haben die schlechte Angewohnheit, ihr Geld nur dort zu investieren, wo der maximale Gewinn winkt. Daher fließen die Investitionen ausschließlich in die Produktionssteigerung. Ohne gesetzliche Vorschriften wird diesbezüglich nicht viel passieren. Freiwillig wird da niemand seine Öl- und Gas-Lecks schließen.

Mit nachhaltigem Biodiesel lässt sich weitgehend auf fossile Brennstoffe verzichten

Wer braucht schon lange Pipelines mit undichten Stellen, wenn man Kraftstoff doch lokal aus Abfällen herstellen kann? Wenn die Bundesländer zustimmen, dürfen ab Mitte April 2024 Dieselfahrzeuge mit klimafreundlichem Sprit aus Abfallstoffen betankt werden. Zurzeit ist es noch so, dass dem Diesel nur sieben Prozent Biokraftstoff beigemischt werden darf.

Dieser „B7“ ist also die übliche Dieselsorte an unseren Tankstellen, bestätigt auch die Deutsche Biokraftstoffindustrie (VDB). Doch bald können wir wahrscheinlich auch hundertprozentigen Biodiesel aus zertifizierten, nachhaltigen Rest- und Abfallstoffen tanken. Dabei handelt es sich oftmals um alte Fette aus Großküchen, Fischreste, Zelluloseabfälle und Holzreste.

Hydrotreated Vegetable Oils (HVO)

Allein in Deutschland sind zurzeit nach Angaben des Kraftfahrt-Bundesamtes über 14 Millionen Fahrzeuge mit Dieselmotoren unterwegs. Der Verkehrsminister Volker Wissing (FDP) geht davon aus, dass die Kohlendioxid-Emissionen im Verkehr mit „HVO100“ (Wasserstoff behandelte Pflanzenöle) innerhalb kurzer Zeit um bis zu 95 Prozent gesenkt werden können.

Gemäß dem Bundesverband freier Tankstellen (BfT) wird der Biodiesel heute nur im öffentlichen Nahverkehr und in der Landwirtschaft eingesetzt sowie von Logistikfirmen genutzt. Deshalb ist Biodiesel auch an den Tankstellen noch nicht frei verfügbar. Doch das diesbezügliche Potenzial in der Speditionsbranche ist riesig. Der finnische HVO-Hersteller Neste ist davon überzeugt, dass bis zum Jahre 2040 biogene Kraftstoffe ungefähr eine Milliarde Tonnen Rohöl ersetzen werden, das sind circa 40 Prozent des globalen Bedarfs im Transportwesen.

Die Anlaufphase von HVO100 kann für Flottenbetreiber deshalb interessant sein, weil diese damit die CO2-Vorgaben auch mit ihren Bestandsfahrzeugen erreichen können. Überdies bedarf es bei modernen Dieselmotoren dafür keiner technischen Anpassung oder Umrüstung. Allerdings bedarf die Freigabe von Kraftstoffen für Motoren immer eines klaren Signals des jeweiligen Fahrzeugherstellers. Für unsere Umwelt wäre es ein Gewinn, wenn diese Unternehmen derartige Hinweise schnell veröffentlichen würden.

Wenn der Bundesrat am 22. März 2024 seine Zustimmung gibt, kann HVO100 tatsächlich am 13. April 2024 in den öffentlichen Verkauf gehen. An den Tankstellen wird dann der biogene HVO-Diesel sowie grünstrombasierter synthetischer E-Diesel mit dem Hinweis „XtL“ gekennzeichnet. In den Niederlanden, Schweden oder in Litauen können Sie den Biodiesel übrigens schon seit längerer Zeit tanken. Insgesamt gibt es in Europa mehr als 600 Tankstellen, an denen dieser frei erhältlich ist.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 17.04.2024 erstellt.

Das Ziel Deutschlands, bis 2045 klimaneutral zu sein, erfordert eine drastische Umstellung auf erneuerbare Energien, mit einem ambitionierten Zwischenziel, bis 2030 mindestens 80 Prozent des Stromverbrauchs durch erneuerbare Quellen, insbesondere Wind- und Solarenergie, zu decken.

Diese Transformation wirft jedoch eine bedeutende Herausforderung auf, die auf der Website der Bundesregierung weniger Beachtung findet: den immensen Bedarf an kritischen Rohstoffen wie Kupfer, Kobalt und Nickel, die für Technologien der sogenannten Energiewende unerlässlich sind.

Die Europäische Union hat die Notwendigkeit erkannt, sich von der dominanten Versorgung mit seltenen Erden und anderen kritischen Materialien aus China unabhängiger zu machen. Angesichts dessen, dass fast die gesamte Versorgung mit diesen essenziellen Rohstoffen derzeit aus China stammt, legt die EU mit dem „European Raw Materials Act“ einen Plan vor, der den Eigenabbau von strategischen Mineralien fördern und das Recycling dieser Materialien intensivieren soll.

Diese Notwendigkeit spiegelt einen globalen Wettlauf wider, in dem die Kontrolle über und der Zugang zu Rohstoffen eine zentrale Rolle spielen. China hat bereits eine dominante Position in der Verarbeitung dieser Rohstoffe erlangt und seine Investitionspolitik in Afrika strategisch ausgebaut, um seine Versorgung zu sichern. Dies zeigt, dass der Wettbewerb um Ressourcen weit über die Grenzen Europas hinausgeht und eine globale Dimension annimmt. Die EU hat diese Entwicklung verpasst – wieder einmal.

Die Energiewende birgt das Potenzial, einen sogenannten „Superzyklus“ bei Mineralien auszulösen. Experten beschreiben diesen Superzyklus als  eine Periode langfristig steigender Preise aufgrund des Ungleichgewichts zwischen Angebot und Nachfrage. Investitionen in die Erschließung neuer Vorkommen hinken hinterher, und die Förderung der benötigten Rohstoffe ist aktuell noch mit hohen CO₂-Emissionen verbunden. Dies stellt eine weitere Herausforderung dar: Wie kann die Versorgung mit kritischen Rohstoffen nachhaltig gestaltet werden, ohne die Klimaziele zu gefährden?

Die Antworten auf diese Fragen sind vielschichtig und erfordern eine Kombination aus technologischen Innovationen, Investitionen in Recycling und nachhaltige Fördermethoden sowie eine diversifizierte globale Strategie zur Sicherung der Rohstoffversorgung. Die Energiewende ist somit nicht nur eine ökologische oder technologische Herausforderung, sondern auch eine geostrategische und wirtschaftliche, die ein koordiniertes Vorgehen auf nationaler, europäischer und globaler Ebene erfordert.

In diesem Kontext wird deutlich, dass der Erfolg der Energiewende nicht allein von der Umstellung auf erneuerbare Energien abhängt, sondern auch von der Fähigkeit, die dafür notwendigen Rohstoffe nachhaltig und gerecht zu beschaffen. Die Entwicklung einer solchen Strategie wird entscheidend sein, um die Ziele der Klimaneutralität zu erreichen, ohne neue Abhängigkeiten zu schaffen oder bestehende Umweltprobleme zu verschärfen

Gehen Landwirtschaft und Klimaschutz nicht zusammen? Ist Landwirtschaft vielleicht sogar ein derartig störender Faktor, der maßgeblich an der „menschengemachten Klimaerwärmung“ Anteil hat?

Wenn man Reinhard Jung anhört, dann kann man den Eindruck gewinnen, dass es vor allem in der Politik Leute gibt, die in diese Richtung denken. Und diese wiederum sind nicht nur, aber schon vermehrt bei den Grünen zu suchen.

Reinhard Jung ist Sprecher der „Freien Bauern“ und hat als solcher vor allem den Grünen Bundeslandwirtschaftsminister Özdemir „lieb gewonnen“. In einem Beitrag [1]  vom Mai 2023 kritisierte er dessen Begriff von „Nachhaltigkeit“ als ein auf technische Standards begrenztes Verständnis. Oder mit anderen Worten: Özdemir hat keine Ahnung, wovon er redet.

Er selbst ist Biobauer und freier Journalist mit einem Studium von Geschichte, Kunstgeschichte und Politischer Wissenschaft.

Wie die Klimaschützer die Welt retten wollen

Laut „Epoch Times“ [2]  beginnen jetzt Kindergärten und Kitas den Ausschank von Kuhmilch an die Kinder zu verbieten. Die Begründung hierfür ist, dass „die Milchprodukte eine hohe Belastung für die Umwelt und das Klima darstellen“ sollen. Außerdem gäbe es auch ethische Gesichtspunkte, die gegen eine Verwendung von Milch sprächen.

Es gibt in der Tat eine Reihe von Argumenten, die gegen den dauerhaften Verzehr von Milch sprechen. Ich hatte darüber eine Reihe von Beiträgen veröffentlicht:

Schleierhaft jedoch bleibt, wieso ausgerechnet Milch die „CO2-Bilanz“ oder „Umwelt und Klima“ verschlechtern sollte? Trägt hier die Milch als Milch schuld oder hat das was mit der Tierhaltung der Kühe zu tun? Aber wieso sind Kühe denn eine Belastung für das Klima?

Aber Kühe produzieren nicht nur Milch, sondern auch Fleisch. Und das sei jetzt ebenfalls klimaschädlich und schon gar nicht nachhaltig. Wie so dem so sein soll, dass bleiben die Grünen Ideologen dem staunenden Beobachter schuldig.

Auch zum Fleisch und Fleischkonsum hatte ich eine Reihe von Beiträgen gebracht, die in der Tat gezeigt hatten, dass ein übermäßiger Konsum von Fleisch kein Beitrag zu einer gesunden Ernährung darstellt. Von Klima und Nachhaltigkeit etc. war hier allerdings nicht die Rede:

Der Biobauer Jung hält dagegen, dass eine Abschaffung der Tierhaltung absolut keine Lösung sei. Denn die einfache Vorstellung, dass die Bauern nur noch Getreide anbauen, um daraus Brote zu backen, resultiert nicht nur in einer einseitigen Ernährung, sondern ist auch auf dem Bauernhof nicht durchführbar.

Denn es gibt landwirtschaftliche Flächen, die sind natürliches Grünland, auf dem kein Getreide sondern nur Gras wächst. Diese Flächen sind für Getreide-Bauern vollkommen uninteressant und wären nichts als Brachland, welches ohne Ertrag bearbeitet werden müsste; und wenn man nur das Gras mit einem Rasenmäher kurz halten muss.

Verwertbares Land kann nur ökonomisch genutzt werden, wenn eine gut abgestimmte Fruchtfolge eingehalten wird. Und das beinhaltet auch das Anpflanzen von Pflanzen, die nicht unmittelbar der menschlichen Ernährung dienen, sondern sich nur als Tierfutter eignen. Aber warum diese Pflanzen anpflanzen, wenn man keine Tiere im Stall hat, da die Tierhaltung „dem Klima schadet“?

Ist das die neue „Nachhaltigkeit“, wenn Grünland ungenutzt brach liegt und Ackerland nur jedes zweite Jahr oder vielleicht drittes Jahr für den Anbau von Nutzpflanzen für die menschliche Ernährung genutzt werden kann?

Dazu kommt noch, wie der Biobauer Jung erklärt, dass bei einem zu feuchten Sommer ein gewisser, nicht zu unterschätzender Prozentsatz des Getreides nicht backfähig sei. Der Weizen sei zu schlecht, um als Brotweizen genutzt werden zu können, eignet sich aber als Tierfutter.

Aber wenn man keine Tiere im Stall hat, dann hat man viel Abfall, dessen Entsorgung ganz sicher absolut „klimaneutral“ ausfallen dürfte.
Eingedenk der Tatsache, dass die „Freunde des Klimas“ vielleicht schon ahnen, dass ihre Klima-Geilheit in Nahrungsengpässen münden könnte, haben diese auch gleich die adäquate Lösung für das Problem, was sie selbst geschaffen haben, bereit:

Dann mal guten Appetit!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Das Kohlendioxid von der Kuh

Kühe benötigen, genau wie der Mensch, Sauerstoff und atmen Kohlendioxid aus. Wenn man also viele Kühe hat, dann hat man viele „Kohlendioxid-Generatoren“, die schlecht für die Umwelt sind. So die Kuhmilchmädchen-Rechnung der CO2-Narren.

Das mag vordergründig logisch erscheinen, schielt aber geflissentlich an der Tatsache vorbei, dass diesem angeblichen Mehr an CO2 ein riesiges „Heer“ an Pflanzen aller Art gegenübersteht, die sich über dieses CO2 freuen, da sie es für ihren Stoffwechsel so dringend benötigen wie wir den Sauerstoff zum Atmen.

Wenn man also CO2 in der Atemluft reduzieren möchte, wie wäre es dann mit einem Verbot von Rodung der Urwälder, die zudem auch eine Vernichtung von Habitaten von allerlei Tierarten bedeutet? Seltsamerweise redet niemand von den selbst erklärten „Weltenrettern“ von dieser Möglichkeit. Warum wohl nicht?

Könnte dies damit zusammenhängen, dass diese Lösung nicht genug Verzicht vom gemeinen Otto Normalverbraucher fordert?

Aber selbst diese Argumentationsschiene wankt ebenfalls auf wackeligen Füßen. Denn woher nehmen die Kühe das Kohlendioxid, welches sie ausatmen? Haben Kühe ein CO2 produzierendes Organ, welches das Gas aus dünner Luft produzieren kann?

Die Realität sieht anders aus:

Wie bereits erwähnt „atmen“ Pflanzen CO2 ein und geben Sauerstoff ab. Das Kohlenstoff-Atom wird von den Pflanzen für die eigenen Stoffwechselaktivitäten benötigt. Wenn diese Pflanzen jetzt verzehrt werden, dann wird das auf diese Art und Weise gebundene CO2 wieder freigesetzt. Damit kommt es nicht zu einer Erhöhung des CO2 per se, sondern es kommt zu einer Erhöhung in Relation zur Absenkung, die durch die Aktivitäten der Pflanzen bedingt ist. Oder kurz und bündig: Es wird nur das abgegeben, was vorher entnommen wurde – die Nettobilanz ist Null.

Aber ähnlich wie bei Corona gibt es auch in diesem Segment absolute „Experten“, die jenseits aller Kenntnis der Materie ihre ideologischen Parolen laut schreiend verkünden. Und je lauter hier geschrien wird, desto deutlicher werden deren Verblendung und Unwissen. Frei nach dem Motto: Je höher ein Zwerg auf der Leiter klettert, desto deutlicher sieht man, dass es ein Zwerg ist.

Die Klimarettung der Klimaheuchler

Wer macht also, ähnlich wie bei Corona, aus einer erfundenen Mücke einen Fantasie-Elefanten? Eigenartigerweise scheint es sich hier genau um die Leute zu handeln, die nur zu bereitwillig gegen ihre eigenen Gebote und Verbote verstoßen. Auch hier gilt das Motto: Klimaschutz, das müssen die anderen machen. Denn alle Menschen sind gleich, nur wir sind gleicher.

Da wundert man sich nicht mehr, wenn man in einem Beitrag von Boris Reitschuster folgendes zu lesen bekommt:

Und so sah das Heer der Klimaretter aus dem besten Deutschland aller Zeiten aus:

40 Mitarbeiter aus dem Kanzleramt
48 Mitarbeiter aus dem Wirtschaftsministerium
60 Mitarbeiter aus dem Außenministerium
25 Mitarbeiter aus dem Umweltministerium
36 Mitarbeiter aus dem Entwicklungsministerium
Sieben Mitarbeiter aus dem Finanzministerium
Fünf Mitarbeiter aus dem Gesundheitsministerium
Fünf Mitarbeiter aus dem Landwirtschaftsministerium
Vier Mitarbeiter aus dem Verkehrsministerium

Fliegen diese Apparatschiks klimaneutral mit CO2-freiem Kerosin in das Land von tausenundeiner Nacht? Wie hoch ist der CO2-Ausstoß dieser Tour?

Die deutsche Delegation dürfte ja nicht die einzige sein, die so gerne das Weltklima retten möchte. Wie viel CO2 haben alle Teilnehmer in die Luft geblasen, um an der Weltenrettung teilnehmen zu können? Wie viel ist das in CO2-Kühe umgerechnet?

Wie viel offensichtliche Heuchelei braucht es noch, damit Otto Normalverbraucher auch in diesem Punkt endlich einmal wach wird?

Vielleicht hilft folgendes:

Ja, es ist kaum zu fassen. Man ist wild entschlossen, das Klima zu retten. Und dafür fliegt man seine Flugzeuge mit einem massenhaften CO2 Ausstoß nach Dubai, während der Bauer schon angepinkelt wird, wenn er eine Kuh im Stall stehen hat.

Und nicht nur das. Man will uns E-Autos aufs Auge drücken, da ja die Benziner schlecht für das Klima seien. Aber auf genau dieser Weltenrettungskonferenz werden lukrative Öldeals verhandelt, obwohl Diesel und Benzin doch angeblich so schlimm seien und abgeschafft werden müssen. Wo bleibt da die Glaubwürdigkeit?

Vollkommen richtig – es geht überhaupt nicht um Umwelt- oder Klimaschutz, sondern um sehr viel Geld. Wen interessiert es da, ob man glaubwürdig ist oder nicht?

Das Fazit mit Herrn Jung

Die ganze Diskussion um Kuhmilch und angebliche schädliche Kühe halte ich für völlig irrwitzig. Die Gesellschaft entfernt sich immer weiter von ihren eigenen Lebensgrundlagen. Wir werden sehen, was am Ende des Tages herauskommt. Wir Bauern machen jedenfalls weiter. Wir lassen uns nicht unterkriegen.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Quellen: 

[1] Freie Bauern: „Experten für Nachhaltigkeit“ – ZDFheute
(https://web.archive.org/web/20230506110521/https://www.zdf.de/nachrichten/zdf-morgenmagazin/freie-bauern-wir-sind-die-experten-fuer-nachhaltigkeit-100.html)

[2] Pilotprojekt sorgt für Wirbel: Kita erteilt Ausschankverbot von Kuhmilch
(https://web.archive.org/web/20230904121242/https://www.epochtimes.de/gesellschaft/pilotprojekt-sorgt-fuer-wirbel-kita-erteilt-ausschankverbot-von-kuhmilch-a4397648.html)

Beitragsbild: pixabay.com – andreas160578

Nachdem SARS-CoV-2, alias Covid-19, erfolgreich die Menschheit ausgerottet hat, da dieses vollkommen neue Corona-Virus ein vollkommen unvorbereitetes und inkompetentes Immunsystem beim Menschen hat überraschen können, gibt es jetzt einen weiteren Killer der Menschheit: Das Klima.

Die „Experten“ scheinen sich noch nicht ganz einig zu sein, ob CO2 oder die Sonne oder gleich beide den Teil der Menschheit abmurksen wird, den Covid-19 übrig gelassen hat. Aber momentan überschlagen sich die „Theorien“ dazu in einer vergleichbar intensiven und hektischen Art und Weise, wie dies zu Beginn der „Corona-Pandemie“ für SARS-CoV-2 veranstaltet wurde.

Selbstverständlich sind wir auch hier wieder einmal zum Untergang verurteilt, wenn wir nicht bedingungslos das machen, was uns unsere höchst kompetenten Politiker dazu verordnen. Und „die Wissenschaft“ sei sich auch hier wieder einmal einig, wie sie es angeblich bei Corona auch gewesen war. Aber bei Corona war sich „die Wissenschaft“ nur deswegen einig, weil der Verein der „Zeugen Coronas“ und „Corona-Heulbojen“ alle kritischen Stimmen, die nicht gerade wenig waren, ausblendete, zensierte, ignorierte etc., was zur Illusion von Einstimmigkeit führte. Und das Gleiche passiert jetzt ebenfalls bei der wissenschaftlichen Beurteilung der „Klimakatastrophe“.

Nach der Covid-19-Vogelscheuche jetzt die CO2-Vogelscheuche

CO2 bringt uns alle um, weil es sich hier um ein Treibhausgas handeln und welches bei der Erderwärmung die ausschlaggebende Rolle spielen soll. So erzählt es uns die versammelte Politik, inklusive Opposition, die unter der Leitung der Grünen ihr „Expertenwissen“ versprühen. Auch das erinnert mich an 2020, wo die gleichen „Experten“ uns erzählt hatten, dass SARS-CoV-2 das Gefährlichste aller Viren in der Geschichte der Menschheit sei. Und das bei einer IFR (Mortalitätsrate bei Infektion) von nur 0,15 % durchschnittlich.

Wir haben bereits einige „Experten“ in Beispielen bewundern können, wie selbige auf Befragung [1] noch nicht einmal wussten, wie hoch der CO2-Anteil in der Atemluft ist. Da kamen dann Schätzungen von 5 %, 7 % und 8 %. Dass die Atemluft nur 0,04 % CO2 enthält, scheint für die Klima-Jünger uninteressant zu sein, weshalb man sich mit derartig überflüssigem Wissen erst gar nicht aufhalten will. Aber diese 0,04 % sollen jetzt verantwortlich dafür sein, dass die Temperaturen ins Unerträgliche steigen. Auch das erinnert an Corona und seine IFR von 0,15 %, die ähnlich hoch lag wie die IFR von Influenza, dem keine Weltuntergangskapazitäten zugesprochen wurden.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Unterstellung: CO2 ist (k)ein Treibhausgas

Die Wissenschaft, die sich ja angeblich einig ist, scheint jetzt einen „Klima-Bhakdi“ bekommen zu haben, den Nobelpreisträger für Physik, John Clauser [2].

Der bezeichnet das Narrativ von der „Klimakrise“ als: „Die populäre Darstellung des Klimawandels spiegelt eine gefährliche Verfälschung der Wissenschaft wider, die die Weltwirtschaft und das Wohlergehen von Milliarden von Menschen bedroht. Die fehlgeleitete Klimawissenschaft hat sich zu einer massiven schockjournalistischen Pseudowissenschaft ausgeweitet. Diese Pseudowissenschaft wiederum ist zum Sündenbock für eine Vielzahl anderer, nicht damit zusammenhängender Missstände geworden. Sie wurde von ähnlich fehlgeleiteten Marketingvertretern, Politikern, Journalisten, Regierungsbehörden und Umweltschützern gefördert und verbreitet. Meiner Meinung nach gibt es keine echte Klimakrise. Es gibt jedoch ein sehr reales Problem bei der Gewährleistung eines angemessenen Lebensstandards für große Teile der Weltbevölkerung und eine damit verbundene Energiekrise. Letztere wird durch die meiner Meinung nach falsche Klimawissenschaft unnötig verschärft.“ [3] [4]

Steht er mit dieser Meinung alleine da? Sehr wahrscheinlich, denn „die Wissenschaft“ ist sich ja einig! Weit gefehlt!

Es gibt eine „World Climate Declaration“ [5], von der ich auch jetzt erst erfahren habe, und die unter anderem von 300 Klima-Professoren unterzeichnet wurde. Insgesamt gibt es bislang über 1100 unterzeichnende Wissenschaftler dieser Erklärung. Das Ergebnis dieser Erklärung: Es gibt keinen Klimanotstand!

Auch das erinnert mich an eine weitere Parallelität der Ereignisse, die „Great Barrington Declaration“ [6] von 2020 mit jetzt über 937.000 Unterschriften. Auch das ist mehr als merkwürdig, wo doch die „Corona-Wissenschaft“ sich so einig war und angeblich eindeutige und unwiderlegbare Ergebnisse vorzuweisen hatte.

Ein weiterer Unterzeichner der Klima-Deklaration ist ebenfalls Nobelpreisträger, Professor Ivar Giaever. Nach seinem Dafürhalten sind Klimamodelle nicht im entferntesten geeignet für weltweite gesellschaftliche und politische Umsetzungen. Für ihn übertreiben diese Modelle den Effekt der Treibhausgase, wie CO2, und ignorieren gleichzeitig jeden nützlichen Effekt. Er sagt, dass die Klima-Wissenschaft zu einer Diskussion heruntergekommen sei, die auf Glaubenssätzen und nicht auf gesunder selbstkritischer Wissenschaft beruhe.

Andere Unterzeichner sprechen ebenfalls von übertriebenen und katastrophalen Vorhersagen, die mit der Realität absolut nichts zu tun hätten. In Wirklichkeit gäbe es eine natürliche Variation, die auch zu großen Teilen eine Erwärmung erklärt, die seit 1850 zu beobachten ist.

Eine Arbeit [7] aus dem Jahr 2022 von vier italienischen Wissenschaftlern kam zu dem Schluss, dass es keine Daten gibt, die einen „Klima-Notstand“ begründen könnten. Dazu gäbe es keine positiven Trends, die auf extreme Ereignisse hindeuten würden. Solche Behauptungen entstehen nur dann, wenn man sich einzelne, ins Narrativ passende, schlechte Ereignisse oder Extreme herauspickt, die dann das beweisen, was man hat beweisen wollen. Und diese Rosinen-Pickerei soll dann als die Grundlage für eine globale und kollektivistische Deindustrialisierung zum Wohle des CO2 dienen.

Ähnlich wie bei Corona, wo es eine „Null-Covid“ Fraktion unter den Politikern gab, die das Corona-Virus ausrotten wollten, gibt es auch hier beim Klima eine ähnlich aufgestellte „Null-CO2“ Fraktion. Der Nuklearphysiker Dr. Manheimer sagt dazu, dass dies dann das Ende der modernen Zivilisation sei, also das, was die „CO2-Jünger“ zu verhindern ausgeben. Oder vielleicht auch nicht?

Eine weitere Stellungnahme kommt von einem angesehenen, emeritierten Atmosphärenforscher, Dr. Happer. Der sagt, dass seine Klimastudien eindeutige Beweise dafür lieferten, dass es keine Klimakrise gäbe und dass eine Erhöhung der CO2-Konzentration der Welt zu gute käme. Dr. Happer ist ein führender Verfechter der „Sättigungs“-Hypothese von wärmenden Gasen wie CO2, die besagt, dass solche Gase bei bestimmten Konzentrationen in kleinen Bereichen des Infrarotspektrums gesättigt werden. Infolgedessen nimmt ihre Erwärmungsfähigkeit auf einer logarithmischen Skala ab, eine Beobachtung, die dazu beiträgt, die 600 Millionen Jahre alten geologischen Aufzeichnungen zu erklären, in denen die CO2-Messungen bis zu 20 Mal höher waren als die derzeitigen atmosphärischen Werte. Oder mit anderen Worten: CO2 verliert seine Charakteristik als Treibhausgas in dem Maße, wie seine Konzentration in der Atmosphäre zunimmt. Die Freunde der Klima-Panik dagegen scheinen diese Dynamik nicht zu kennen oder nicht kennen zu wollen. Auch das erinnert mächtig an alte „Corona-Zeiten“.

Dann also doch die Sonne?

Bei den Klima-Rettern scheint man noch nicht ganz schlüssig zu sein, ob CO2 oder die Sonne der eigentliche Übeltäter ist. Denn es gibt auch Erwägungen, mit denen Bill Gates schon früh von sich reden machte: Die Verdunklung der Sonne. Ich hatte dazu unlängst diesen Beitrag veröffentlicht:

Also doch?

„tkp – der Blog für Science und Politik“ brachte Mitte Juli 2023 zwei sehr interessante Beiträge heraus, geschrieben von einem Dr. Mayer.

Im ersten Beitrag [8] ging es um eine zurückgezogene Studie, die den Klimawandel als Folge von Sonnenzyklen und nicht als Einfluss von CO2 beschrieben hatte. Der Beitrag erklärt sehr anschaulich die Schlussfolgerungen der Studie. Er kommt auch zu dem Schluss, dass hier die gleichen Mechanismen zur Anwendung kommen wie in „Corona-Zeiten“, wenn es um die Zensur von unangenehmen Studien kommt:

Wir sehen hier die gleiche Vorgangsweise, wie bei Papers, die kritisch zu den Corona-Maßnahmen und/oder der Impfkampagne waren. Hier sind es die Betreiber der Klimarettungsaktivitäten. Wenn die Erkenntnisse und Berechnungen der Zharkova-Studie richtig sind, dann sind alle Maßnahmen für CO2 Reduktion, der Green Deal und alle anderen ähnlichen Programme wirkungslos und daher auch sinnlos und schädlich.

Der zweite Beitrag [9] erklärt die Bedeutung des „Ockams Rasiermesser“ und warum diese Forschungsmethode erklärt, dass die Änderung der Sonne-Erde-Entfernung für die schwankenden Temperaturen verantwortlich ist und nicht das CO2.

Es wird noch witziger. Der Beitrag zitiert Wikipedia, welches versuchte, CO2 als den Übeltäter zu entlarven. Wikipedia zufolge gab es deshalb Eiszeiten, weil es kaum CO2 gab. Und es gab kaum CO2, weil nach einem Bevölkerungsrückgang landwirtschaftliche Flächen brach lagen und wiederbewaldet wurden. Wenn dem so ist, dann erhebt sich die Frage, warum der CO2-Ausstoß reduziert werden muss, aber niemand in der Politik gerne davon redet, den unvermeidlichen Untergang durch mehr Wald aufzuhalten? Warum wird der Raubbau in den Regenwäldern nicht ein- und unter Strafe gestellt?

Vielleicht, weil es gar nicht um CO2 geht, wie es auch bei Corona nicht um Gesundheit ging?

Dr. Mayer geht in seinem Beitrag von einer „Politisierung der Wissenschaft“ aus. Und dabei geht es nur um eines:

Nur wenn es sich um eine völlig natürliche Fluktuation der Durchschnittstemperaturen auf Grund der Himmelsmechanik handelt, dann ist jeglicher Green Deal und der Versuch den CO2-Anteil in der Luft zu reduzieren sinnlos und Makulatur. Aber Larry Fink (BlackRock) ist das ohnehin egal, es geht um Profit und Macht. Diese Verknüpfung von Unternehmensinteressen und Staat nannte Benito Mussolini Korporatismus oder Faschismus. Und dorthin sind wir ungebremst unterwegs. Faschismus war und ist übrigens rechtsextrem.

Und:

Der Green Deal dient daher den Interessen von BlackRock und Co aber nicht der Reduzierung der durchschnittlichen Temperatur. Genau das kann er nicht.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter mit den „5 Wundermitteln“ an:

Kleine Anmerkung: Die Sache mit den „5 Wundermitteln“ ist mit Abstand der beliebteste Newsletter, den meine Patienten gerne lesen…

Wie tödlich ist die tödliche Hitze?

Zu Beginn der „Corona-Pandemie“ waren es die angeblich unsäglich vielen Fälle, die per PCR-“Test“ ermittelt wurden und dazu dienten, die Gefährlichkeit des Corona-Virus zu belegen. Um die Dramatik zu erhöhen, wurden Corona-Tote inszeniert durch Bilder wie zum Beispiel aus Bergamo [10] und Statistiken von Corona-Toten, weil sie einen positiven PCR-“Test“ aufwiesen. Eine Übersterblichkeit jedoch gab es in 2020 zu keinem Zeitpunkt, was darauf hindeutet, dass hier Todesfälle zu Corona-Todesfällen umetikettiert wurden [11].

Wie es aussieht, erleben wir jetzt das gleiche Szenario noch einmal. Diesmal ist es die Hitze, die für Tote und Übersterblichkeit verantwortlich gemacht wird. Und mit an vorderster Front stehen die alten Corona-Recken vom RKI, die jetzt Wochenberichte zur „hitzebedingten Mortalität“ [12] heraus feuern.

Und weil das mit der Corona-Statistik so nett geklappt hat, wo man gehäufte Todesfälle in den höheren Altersgruppen beobachten konnte, die man dann auf Corona und nicht auf das Alter und damit verbundene Erkrankungen zurückgeführt hatte, macht man jetzt bei der Hitze da weiter, wo man bei Corona aufgehört hatte. Hier ein Screenshot vom Wochenbericht der Kalenderwoche 27/2023 (3. Juli bis 9.7.2023) [13] :

Als erstes ist beachtenswert, dass diese Zahlen keine beobachteten Zahlen sind (der „Hitze-PCR“ muss wohl noch erfunden werden). Vielmehr sind dies geschätzte Zahlen, die ausgerechnet die Basis für was sein sollen? Maßnahmen? Verbote? Oder was sonst? Sicher ist, dass diese Zahlen toll ins Narrativ passen.

Eigenartigerweise passt auch das Bild, welches sich hier auftut: Rund 85 % der 840 „geschätzten“ Todesfälle ereigneten sich in der Gruppe der über 75-Jährigen, also den „Alten“. Wie sich doch die Bilder gleichen!

Da will das „Ärzteblatt“ [14] nicht hinten anstehen. Hier wurde in der Ausklang-Phase von Corona schon einmal kräftig für die Hitze-Panik geprobt, in dem ein „wissenschaftlicher“ Beitrag zur „hitzebedingten Mortalität in Deutschland zwischen 1992 und 2021“ inszeniert wurde.

Auch hier spricht die Methode Bände über die „Wissenschaftlichkeit“ dieser Veröffentlichung: Man verglich für den genannten Zeitraum die Gesamtmortalität mit Temperaturen und versuchte hier eine Korrelation zu erhalten. Und diese Korrelation erhielt man dann auch für die Jahre 2018-2020. Und schon im nächsten Satz wurde aus einer statistischen Korrelation etliche Tausende „hitzebedingte Sterbefälle“. Die Schulmediziner scheinen sich hier sicher zu sein, dass die Hitze Ursache für die Todesfälle sein muss, wo doch die Korrelation so aussagekräftig ist.

Seltsam: Bei den nicht zu übersehenden Korrelationen von Gen-Injektionen und Nebenwirkungen und Todesfällen jedoch hat die Schulmedizin dagegen bis heute den Spruch parat, dass Korrelation nicht Kausalität sei, auch wenn zum Beispiel in VAERS bis heute über 1,5 Millionen Nebenwirkungen und über 35.000 Todesfälle unter den „Coronaimpfungen“ verzeichnet sind.

Also auch hier wieder einmal ein Messen mit zweierlei Maß: Wenn’s nicht passt, dann sind es nur Korrelationen. Und wenn’s passt, dann sind es Kausalitäten, selbst wenn die Korrelationen nur auf Schätzungen beruhen.

Zwischenfazit: So sieht Propaganda aus!

Kälte gut – Hitze schlecht?

Es gibt eine wenig bekannte Studie aus dem Jahr 2015, die nicht so ganz in die Hitze-Propaganda passen will. Die kommt diesmal von der „Lancet“ [15]. Diese Studie fand heraus, dass Kälte mehr Todesopfer fordert als Hitze. 7,29 % der beobachteten Todesfälle waren auf Kälte zurückzuführen, und nur 0,42 % auf Hitze. Oder in absoluten Zahlen: Von 74 Millionen Todesfällen in 13 Ländern zwischen 1985 und 2012 gab es 5,4 Millionen Todesfälle durch Kälte und 331.000 Todesfälle durch Hitze, also 17 Mal mehr Kälte-Tote als Hitze-Tote.

Wenn man sich so viel Sorgen um die Hitze-Toten macht, sollte man sich dann nicht 17 mal mehr Sorgen auch um die Kälte-Toten machen?

Aber die scheinen nicht ins Konzept zu passen, oder? Oder möchte man durch die Maßnahmen zur Senkung der Temperaturen noch mehr Kälte-Tote produzieren? Handelt es sich hier auch um eine Maßnahme zur Bevölkerungsreduktion durch Erhöhung der Todeszahlen durch Kälte? Sollen diese Maßnahmen das schaffen, was die Genspritzen bislang in einem nur unzureichenden Ausmaß geschafft haben?

Fazit

Mit der neuen „Bedrohung für die Menschheit“, bestehend in CO2, Sonne und Hitze, haben wir einen würdigen Nachfolger von SARS-CoV-2, der mit exakt den gleichen Propaganda-Mitteln und Narrativen gepflegt wird wie vor drei Jahren bei dem „Tödlichsten“ aller jemals existierenden Viren auch.

Fazit vom Fazit: Wetten, dass etliche auch hier wieder voll mitmachen und danach sagen, wer hätte das denn wissen können?!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:


Quellen:

Beitragsbild: pixabay.com – geralt
Dieser Beitrag wurde am 28.09.2023 erstellt.

Fakt ist, dass uns und den ganzen Planeten unsere Ernährungsweise nachhaltig krank macht. Daher fordern immer mehr Menschen eine ganz generelle Ernährungswende. Susanne Rolinski und Benjamin Bodirsky sind am Potsdam Institut für Klimafolgenforschung tätig und wissen, wie eine nachhaltige Ernährungsweise aussehen müsste. Was dabei vielleicht etwas erstaunen mag, ist ihre These, dass ein totaler Verzicht auf Fleischkonsum gar nicht unbedingt erstrebenswert ist.

Ungefähr ein Drittel der globalen Treibhausgasemissionen geht Schätzungen zufolge auf das Konto des Ernährungssystems. Zehn bis 15 Prozent davon verursacht die Landwirtschaft, zum Beispiel der Reisanbau oder die Viehzucht. Weitere zehn Prozent ergeben sich durch Rodungen und die Trockenlegungen von Mooren zur Erzeugung weiterer Ackerflächen. Ebenfalls zehn Prozent tragen der Transport, die Kühlung, die Zubereitung und die Entsorgung von Lebensmitteln bei. Die Produktion von Düngemitteln ist darüber hinaus auch mit circa zehn Prozent beteiligt. Was dabei aber besonders zu Buche schlägt, ist das Verhalten der Konsumenten.

Jeder von uns entscheidet jeden Tag darüber, was und wie viel er kauft, aber auch darüber, wo beziehungsweise bei wem er das macht. Dabei hat der Staat durchaus Hebel in der Hand, das Ganze zu steuern, zum Beispiel mit der Mehrwertsteuer. Damit lassen sich Anreize schaffen, vermehrt pflanzliche Nahrungsmittel zu konsumieren, was ein Zurückdrängen des viel zu hohen Fleischkonsums mit seinem riesigen ökologischen Fußabdruck bedeuten würde.

Aus den Perspektiven der Ernährung und der Landnutzung ist es allerdings nicht einmal erstrebenswert, dass die Menschen ganz und gar auf Fleisch verzichten. Gerade in Ökobetrieben kommt den Tieren eine wichtige Rolle zu. Beispielsweise liefern sie organischen, natürlichen Dünger für die Felder. In Deutschland wäre schon viel erreicht, wenn wir die Empfehlungen der Deutschen Gesellschaft für Ernährungsforschung umsetzen würden und im Durchschnitt pro Kopf höchstens 30 kg Fleisch pro Jahr verbrauchen würden. Zurzeit kommen wir auf in etwa den doppelten Betrag.

Weltweit betrachtet können natürlich nicht alle Menschen ihren Fleischkonsum reduzieren, denn dies würde unmittelbar eine bedrohliche Unterernährung zur Folge haben.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter dazu an:

Wie könnte eine nachhaltige Ernährung aussehen?

Genau mit dieser Frage beschäftigen sich verschiedene Institutionen und Kommissionen. Eine besonders umfassende Studie wurde von der EAT Lancet Kommission veröffentlicht. Darin wurde Wert darauf gelegt, gesunde Ernährung mit minimaler Umweltbelastung in Einklang zu bringen. Fleisch wurde dabei mitnichten ausgeklammert, aber andere proteinhaltige Lebensmittel wie Hülsenfrüchte und Nüsse bekamen darin einen viel höheren Stellenwert. Die Kernbotschaft ist, dass wir unseren Proteinbedarf stets aus verschiedenen Quellen decken sollen. Nachhaltige Ernährung bedeutet immer Diversität.

Welche Rolle kommt Fleischersatzprodukte dabei zu?

Tatsächlich haben Fleischersatzprodukte trotz industrieller Produktion einen deutlich günstigeren „Umweltfußabdruck“ als ihre tierischen Pendants. Beim Fleisch fällt oft der Begriff „Veredelung“, womit aber das Problem angesprochen wird, dass sehr viele pflanzliche Kalorien erforderlich sind, um daraus eine einzige Kalorie aus Fleisch zu generieren.

So wird zum Beispiel ein großer Teil des Soja-Anbaus in der Tierhaltung verfüttert. Würden diese Sojaprodukte direkt als Nahrungsmittel angeboten werden, so könnten viel mehr Menschen satt gemacht werden als mit dem Fleisch, das auf der gleichen Sojamenge basiert. Auch die damit verbundene Umweltbilanz würde deutlich günstiger ausfallen. Im Übrigen wird den Fleischersatzprodukten auch gesundheitlich eine zumindest leicht bessere Bewertung zugeordnet.

Unsere Proteinversorgung ist kein Problem

Mit Blick auf unsere Proteinversorgung stellt Hühnereiweiß sozusagen den Goldstandard dar, weil es exakt jene essenziellen Aminosäuren enthält, die unser Körper dringend braucht. Wir sollten uns aber darüber im Klaren sein, dass eine geeignete Kombination aus verschiedenen pflanzlichen Produkten eine ebenso gute Proteinquelle sein kann. Im Fokus stehen hierbei durchaus heimische Proteinquellen wie Hülsenfrüchte und Nüsse. Wer Bananen und Reis zusammen verzehrt, zieht einen Vorteil daraus, dass sich die Proteine beider Nahrungsmittel sehr gut ergänzen.

In Deutschland haben wir weniger ein Problem mit Proteinquellen als mit einer ausreichenden Versorgung des Organismus mit Ballaststoffen. Auch dies ließe sich mit mehr pflanzlichen Nahrungsmitteln hervorragend bewältigen.

Mikroorganismen als Proteinproduzenten

Inzwischen wird an und mit Technologien gearbeitet, die für die Herstellung von Proteinen keine Landflächen mehr benötigen. In diesem Rahmen werden in großen Tanks spezielle Mikroorganismen gezüchtet. Dabei handelt es sich um Bakterien, Pilze oder Algen. Hierbei lässt sich die Zusammensetzung der Proteine recht genau steuern und Antibiotika braucht man dafür nicht. Auf diese Weise könnte eines Tages auf Soja als Tierfutter verzichtet werden.

Erste Produkte dieses Genres gibt es schon, was bereits viele Start-ups auf den Plan gerufen hat. Eine gewisse Kehrseite der Medaille liegt in dem damit verbundenen starken Gewicht bei der industriellen Nahrungsmittelproduktion ohne Landwirtschaft. Hierin liegt nämlich ein großes disruptives Potenzial für unser Ernährungssystem, das wir im Auge behalten müssen.

Zur Lösung unserer Probleme sind massive Veränderungen sowohl auf der Produktions- als auch auf der Nachfrageseite erforderlich. Zum ersten Punkt gehört, dass wir wieder ein ganz großes Augenmerk auf die Moorböden legen. Deren Trockenlegung war und ist eine starke Quelle für Treibhausgasemissionen. In der Landwirtschaft müssen wir endlich weg von dem immensen Stickstoffüberschuss durch Überdüngung.

Auf der Seite der Konsumenten muss dafür gesorgt werden, dass diese sich endlich gesünder ernähren (können). Das fängt bei der Preisgestaltung (Stichwort Mehrwertsteuer) an und zieht sich weiter über die Kantinen, die noch immer nicht genügend preiswerte vegetarische Optionen im Angebot haben. Und dann ist da noch das ganz große Thema Krankenhaus- und Seniorenheimverpflegung.

Ist Vegetarismus nur in Deutschland auf dem Vormarsch oder sogar weltweit?

Die Menge an Fleisch, die konsumiert wird, ist immer auch ein Maß für den Wohlstand. Da Letzterer weltweit steigt, so ist jedenfalls die Bestrebung, wird rein statistisch leider auch der Fleischkonsum zunehmen. In den Ländern, wo viele Menschen mit sehr hohen Einkommen leben, ist diesbezüglich allerdings eine Sättigung in der ansteigenden Kurve des Fleischkonsums zu beobachten. In Deutschland zum Beispiel wurde inzwischen mit rund 60 kg Fleisch pro Kopf und Jahr ein Plateau auf hohem Niveau erreicht.

Doch in jenen Staaten, die sich gerade entwickeln, ist der Trend für das Fleisch ungebrochen. Was also nottut, ist eine ganz massive Änderung beim Image von Fleisch. Bedenken Sie, dass die meisten Vegetarier weltweit in Indien leben (Gesamtbevölkerung ca. 1,5 Milliarden Menschen), aber gerade dort zeigt der gegenwärtige Trend ganz stark in Richtung tierische Produkte.

Das Problem mit dem Stickstoff

Die EU hat gegen Deutschland wegen der zu hohen Stickstoffeinträge ein Vertragsverletzungsverfahren eingeleitet. Sie sah darin die Gefahr der Belastung der Gewässer und der Gefährdung der Biodiversität. Hinzu kommt noch die damit verbundene Luftverschmutzung, weil Ammoniak ein wesentlicher Baustein für Feinstaub ist.

Man schätzt, dass durch die Stickstoffemissionen der Landwirtschaft in Deutschland jedes Jahr circa 15.000 Menschen vorzeitig sterben. Eine Handlungsoption dagegen wäre eine empfindliche Besteuerung der Stickstoffüberschüsse. Dazu sollte man wissen, dass all jene Landwirte, die sich darum bemühen, nachhaltig mit Stickstoff umzugehen, zurzeit einen klaren Wettbewerbsnachteil erleiden.

Im niederdeutschen „Schweinegürtel“ ergab sich das massive Gülleproblem durch jahrelange Subventionen für mehr Effizienz. In der Folge haben die Ställe der Mastbetriebe immer größere Dimensionen angenommen. Der Kapitalismus mit seiner Abhängigkeit von ständigem Wachstum wurde den landwirtschaftlichen Betrieben übergestülpt. Wir müssen endlich verstehen, dass für unsere Landwirtschaft allein ökonomische Maßstäbe falsch sind.

In den Niederlanden ist die verfehlte Politik inzwischen deutlich zum Ausdruck gekommen. Doch als dort 2022 Maßnahmen beschlossen worden sind, um den Stickstoffüberschuss zu senken, hat dies geradezu tumultartige Aufstände ausgelöst. Sogar direkt vor dem Wohnsitz der zuständigen Ministerin wurde protestiert. In der Konsequenz wird niederländische Gülle nun nach Deutschland exportiert, was das Fass hierzulande zum Überlaufen bringt. Damit dies auch möglichst schnell und effizient passiert, schippern deutsche Frachtkähne täglich den schönen Rhein hinunter und versorgen die Niederlande üppig mit Stickstoff. Geht doch!

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen Praxis-Newsletter mit den „5 Wundermitteln“ an:

Kleine Anmerkung: Die Sache mit den „5 Wundermitteln“ ist mit Abstand der beliebteste Newsletter, den meine Patienten gerne lesen…
Dieser Beitrag wurde am 20.07.2023 erstellt.

Am 27. April 2023 hielt der fraktionslose Abgeordnete Robert Farle im Bundestag eine Rede, die er gleich mit einem Paukenschlag beginnt: „Die Klimaschutzpolitik der Bundesregierung sei Irrsinn.“

Nehmen wir einmal an, es sei wahr, was uns die aktuellen Eliten weismachen wollen, nämlich, dass das Kohlendioxid, welches die Menschheit in die Atmosphäre entlässt, die Haupttriebkraft für den Klimawandel ist. Wie „groß“ der deutsche Beitrag an den weltweiten CO2-Emissionen ist, rechnete Farle seinen Politik-Kollegen so vor:

Unsere Atmosphäre besteht zu 78 Prozent aus Stickstoff, zu 21 Prozent aus Sauerstoff und nur ein Prozent sind Edel- und Spurengase. Der CO2-Anteil liegt derzeit bei 0,04 Prozent. Für das, was jedes Jahr neu an CO2 in die Atmosphäre gelangt, ist vornehmlich (96 Prozent) die Natur selbst verantwortlich, das heißt, die restlichen vier Prozent (von insgesamt 0,04 Prozent) hat irgendwie die Menschheit eingetragen. In Summe sind das also um die 0,0016 Prozent. Der deutsche Anteil daran beträgt nach aktuellem Kenntnisstand 1,76 Prozent. Unser Land ist also mit 0,000028 Prozent am weltweiten CO2-Gehalt der Atmosphäre beteiligt.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter dazu an:

Was ist dran an dieser Rede?

Die „National Oceanic and Atmospheric Administration“ (NOAA) ist eine wichtige Behörde für Klima und Ozeanografie in den USA. Sie betreibt das Global Monitoring Laboratory, das regelmäßig Zahlenwerke und aktuelle Grafiken zu diesem Thema herausgibt.

Demgemäß lag im März 2023 der atmosphärische CO2-Anteil bei gut 420 ppm, das heißt, unter einer Million Moleküle trockener Luft befinden sich 420 Moleküle CO2 und das entspricht in der Tat 0,042 Prozent. Während der letzten Jahrzehnte ist dieser Wert unter periodischen, saisonalen Schwankungen immer weiter angestiegen. Siehe dazu auch die Grafiken des Jet Propulsion Laboratory, das als Forschungsinstitut der NASA angehört.

Gemäß den Angaben des Umweltbundesamtes liegt der Umsatz des natürlichen, weltweiten Kohlenstoffkreislaufs bei gut 770 Milliarden Tonnen CO2 pro Jahr. Gemeint sind hierbei die natürlichen CO2-Austauschprozesse, die es schon immer in der Natur gab, zum Beispiel zwischen den Ozeanen und der Atmosphäre sowie zwischen den Landflächen und der Atmosphäre.

Die von den Menschen produzierten Treibhausgas-Emissionen liegen weltweit, ebenfalls nach Angaben des Umweltbundesamtes, jedes Jahr bei circa 55 Milliarden Tonnen CO2-Äquivalente. Darin sind die Treibhausgase Methan (CH4), Kohlenstoffdioxid (CO2) und Lachgas (N2O) trotz ihrer sehr unterschiedlichen Klimawirkungen zusammengefasst. Der CO2-Anteil macht hiervon ungefähr 40 Milliarden Tonnen aus. Der Löwenanteil, nämlich circa 37 Milliarden Tonnen CO2, entstammt industriellen Prozessen und der Verbrennung fossiler Energieträger.

Es ist allerdings so, dass die Natur ihren (natürlichen) CO2-Ausstoß vollständig aufnimmt beziehungsweise im Sinne einer Kreislaufwirtschaft verarbeitet. Dies gelingt der Natur bei den menschengemachten Treibhausgas-Emissionen nur zum Teil. Von den oben genannten 40 Milliarden Tonnen CO2 absorbieren die Landflächen in etwa 11 Milliarden Tonnen, die Ozeane mit 10,6 Milliarden Tonnen fast ebenso viel. So verbleiben jedes Jahr circa 18 Milliarden Tonnen CO2 als „Netto-Zuwachs“ zusätzlich in der Atmosphäre.

Eines sollte man sich in diesem Zusammenhang doch mal vergegenwärtigen: Seit dem Ende der letzten Eiszeit verharrte die atmosphärische CO2-Konzentration recht konstant bei circa 280 ppm, zumindest bis zum Start des Industriezeitalters. Diese Konzentration dürfen wir getrost als eine Art natürlichen CO2-Füllstand unserer Atmosphäre ansehen. Doch diesen hat die Menschheit, allen voran die westlichen Industrienationen, in relativ kurzer Zeit massiv aus dem Gleichgewicht gebracht. Es sieht also sehr danach aus, dass der Mensch seit über 100 Jahren tatsächlich und weltweit für rund ein Drittel der CO2-Konzentration in der Erdatmosphäre verantwortlich ist.

Kommen wir nun zurück zum deutschen Beitrag

Gemäß den Angaben des Umweltbundesamtes trägt Deutschland die „Schuld“ für circa 666 Millionen Tonnen CO2-Eintrag. Bezogen auf die oben erläuterten 37 Milliarden Tonnen weltweiten Eintrags sind das in der Tat „nur“ um die 1,8 Prozent. Damit hat Deutschland faktisch sogar überproportional zum Anstieg des Kohlendioxids in der Atmosphäre beigetragen, denn die seit 1850 integrierten deutschen CO2-Emissionen entsprechen einem Anteil von circa 3,7 Prozent sämtlicher Kohlendioxid-Emissionen weltweit, wobei aber der deutsche Anteil an der Weltbevölkerung gerademal ein Prozent übersteigt.

So liegt Deutschland mit Blick auf den CO2-Ausstoß pro Einwohner im Ranking mit den anderen 25 EU-Ländern auf dem achten Platz (Stand 2019). Im weltweiten Vergleich von 190 Ländern können wir auf Platz 50 „stolz“ sein.

Fazit:

Es ist gewiss lobenswert, in der Hoffnung, dass andere Länder dem deutschen Beispiel folgen, eine Vorreiterrolle in Sachen Klimaschutz einzunehmen. Allerdings ist es ziemlich ambitioniert, der deutschen Bevölkerung all die Belastungen einer radikalen Transformation der Wirtschaft unter bewusstem Verzicht günstiger Energiequellen abzuverlangen in Anbetracht dessen, welches Maß an Klimaschutz dabei konkret herauskommt.

Übrigens: Wenn Sie solche Informationen interessieren, dann fordern Sie unbedingt meinen kostenlosen Praxis-Newsletter „Unabhängig. Natürlich. Klare Kante.“ dazu an:

Dieser Beitrag wurde am 20.07.2023 erstellt.

Seit Anfang Januar zeigt REWE bei manchen neuen Produkten deren CO2-Wert an. Als Beispiel sei hier das Plakat „REWE Bio + vegan Falafel-Bällchen“ angeführt, auf dem nun „1,50 CO2e/kg“ zu lesen ist. Weiße Lettern auf rotem Hintergrund geben außerdem bekannt: „jetzt 83 Prozent einsparen“.

Keine Angst, REWE bleibt weiterhin dabei, auch die Produktpreise in Euro auszuweisen. Dennoch hält es das Unternehmen für zeitgemäß, den sogenannten Klimapreis in Form der Angabe eines CO2-Äquivalents deutlich hervorzuheben.

Das Ganze steht im Zeichen der Aktion „Veganuary 2023“ (ein Kunstwort aus vegan + january), die auf eine andere Art von universeller „Währung“ abzielt, die auf unserem gesamten Planeten von nachhaltigem Wert ist.

Dabei sollte es zum Beispiel um die Emissionen gehen, die bei der Herstellung eines Artikels unweigerlich freigesetzt werden. Durch pflanzliche Alternativen zu tierischen Produkten können bekanntlich viele Emissionen eingespart werden. So kann jeder von uns allein mit seiner Kaufentscheidung jeden Tag aufs Neue etwas für das Klima tun.

Durch die neue Art der Kennzeichnung sehen die Kunden sofort, wie viel CO2 das vegane Produkt im Vergleich zur tierischen Alternative einspart. Das obige Beispiel „REWE Bio vegan Falafel-Bällchen“ weist 1,50 CO2e/kg aus, das sind 83 Prozent weniger Emissionen als bei „ja! Frikadellenbällchen vom Schwein“, die mit 8,87 CO2e/kg ins Kontor der Natur schlagen.

REWE Bio vegan Haferdrink Natur“ spart gegenüber Bio-Vollmilch ungefähr 65 Prozent CO2-Emissionen ein. Wer sich für die Berechnungsgrundlagen interessiert, wird über den folgenden Link zu einer Darstellung von ClimatePartner mit dem Titel „Product Carbon Footprint REWE Bio+vegan Aufstrich Paprika, Aubergine, Zucchini & Tomate 180g“ geführt: https://www.rewe.de/nachhaltigkeit/nachhaltig-einkaufen/gruene-produkte/vegan/

Beitragsbild: pixabay.com – ewa69

Dieser Beitrag wurde am 26.06.2023 erstellt.

Die fossilen Energieträger Erdöl, Kohle und Gas tragen bekanntlich ganz erheblich zum Klimawandel und den zunehmenden Extremwetterereignissen bei. Nebenbei sorgen sie für eine unerträgliche Luftverschmutzung, die alle Menschen und Tiere auf dieser Welt krank macht. Diese eindringliche Warnung wird einmal mehr im  Lancet Countdown on Health and Climate Change 2022 ausgesprochen.

UN-Generalsekretär António Guterres unterstützte diese Darstellung mit der Ergänzung, dass die giftige Luftverschmutzung die Ernährungssicherheit immer weiter untergräbt und die Risiken für Infektionskrankheiten, extreme Hitze und Dürre sowie Überschwemmungen nach oben schießen lässt.

Der aktuelle Bericht wurde von immerhin 99 Fachleuten, die 51 Institutionen und einigen UN-Organisationen angehören, gemeinsam erstellt. Innerhalb des Zehnjahreszeitraums von 2012 bis 2021 war die von extremer Dürre betroffene Landfläche weltweit fast 30 Prozent größer als noch 1951 bis 1960. Es ist ja völlig klar, dass die besorgniserregende Situation der globalen Lebensmittelversorgungsketten Migrationsbewegungen von ungeahntem Ausmaß auslöst.

Mit Blick auf die medizinischen Aspekte lässt sich konstatieren, dass extreme Hitze dafür bekannt ist, dass sie Herz-Kreislauf- und Atemwegserkrankungen verschlimmert. Sie kann überdies für schwangere Frauen sehr gefährlich werden und löst nachweislich bei immer mehr Menschen einen Hitzschlag aus. Durch Schlafverhinderung gerät ebenfalls die psychische Gesundheit der Menschen zunehmend in Gefahr. Vor diesem Hintergrund ist es vielleicht gar nicht mehr so verwunderlich, dass die Welt auch politisch gerade aus den Fugen gerät.

Die Anzahl hitzebedingter Todesfälle stieg jedenfalls in dem Vierjahreszeitraum von 2017 bis 2021 im Vergleich zu 2000 bis 2004 messbar um circa 68 Prozent. Im Jahre 2019 haben 69 von 86 Regierungen, die im Bericht betrachtet wurden, fossile Energieträger mit 400 Milliarden Dollar subventioniert.

Der Bericht bemüht sich aber auch darum, etwas Mut zu machen, indem er darauf hinweist, dass die negativen Auswirkungen des Klimawandels auf die weltweite Gesundheit der Menschen sehr wohl abgedämpft werden könnten, wenn der Umstieg auf saubere Energieträger schneller und konsequenter bewerkstelligt werden würde. Daraus würde sich dann einhergehend mit der Verminderung der Feinstaubbelastung eine Verbesserung der Luftqualität insgesamt ergeben. Unterstützend würden hierbei eine stärkere Begrünung der Städte und eine zunehmend pflanzliche Ernährungsweise wirken.

Immerhin stehen uns heute interessante Mittel und Wege offen, einen sogar quantitativ fundierten Blick in die Zukunft zu wagen. Einer der weltweit modernsten Klimarechner mit Namen Levante wurde vor Kurzem am Deutschen Klimarechenzentrum (DKRZ) in Hamburg eingeschaltet. Doch die Ergebnisse seiner ersten Berechnungen können Angst und Bange machen.

Warum braucht die Meteorologie so extrem leistungsstarke Rechner?

Im Interview mit T-Online bemühte sich der Meteorologe Frank Böttcher darum, diese und weitere Fragen zu den Klimamodellen zu beantworten.

Mit derartigen Supercomputern ist es möglich, sozusagen in die Zukunft unseres Planeten zu reisen. Zur Betrachtung des längerfristigen Anstiegs des Meeresspiegels zum Beispiel lässt man die Modellrechnungen bis zum Jahre 2300 laufen. So etwas sollte auf keinen Fall verwechselt werden mit der Wettervorhersage für die nächsten Tage.

Wie jeder weiß, ist die Wettervorhersage schon für den zehnten Tag absolut wertlos. Anders bei Klimamodellen, für die die täglichen Wettervariationen überhaupt keine Rolle spielen, denn hier zählen allein die allgemeinen Trends beispielsweise mit Blick auf die Häufigkeit von Starkregen, der Zahl an Tagen mit extrem hoher Trockenheit oder Temperatur und so weiter.

Für Levante ist es allerdings nicht möglich, genaue Vorhersagen für Einzelereignisse auszugeben, aber der Rechner klärt uns darüber auf, in welchen Regionen ab wann mit welchen extremen Wetterphänomenen vermehrt zu rechnen ist. Wenn das Programm zum Beispiel die Aussage machen würde, dass der Oberrheingraben in 15 bis 20 Jahren durchschnittlich alle zwei Jahre massiv überflutet sein wird, dann könnten wir schon heute entsprechende Maßnahmen bis hin zu umfangreichen Umsiedlungen von Menschen einleiten.

Kurzer Blick auf die technischen Daten des Supercomputers

Die HLRE-4 von der Firma Atos gehört zur sechsten Rechnergeneration am DKRZ und besteht aus insgesamt 2.832 Rechnerknoten, die jeweils mit zwei Prozessoren ausgestattet sind. Alle zusammen können pro Sekunde 14 Billiarden mathematische Operationen ausführen. Hinzu kommen noch weitere 60 Knoten mit jeweils vier Hochleistungsgrafikprozessoren, die zusätzliche 2,8 Billiarden mathematische Operationen, ebenfalls pro Sekunde, durchführen können. In Summe stehen mehr als 370.000 Prozessorkerne und ein Arbeitsspeicher von über 800 Terabyte zur Verfügung.

Ein solcher Rechner hat natürlich seinen Preis, der sich auf rund 32 Millionen Euro beläuft. Da zu seiner Installation sogar Umbauten am Gebäude vorgenommen werden mussten, kostete das Gesamtprojekt in etwa 45 Millionen Euro.

Können wir uns auf die Klimavorhersagen wirklich verlassen?

Es geht genau genommen um Szenarien auf der Basis vieler Wenn-dann-Beziehungen, was ja in der Natur der Sache liegt. Das Klima wird sich in dieser Weise verändern, wenn wir weiter so verfahren wie bisher. Jawohl, solche Aussagen sind ziemlich verlässlich, weil die Zukunft sogleich bis zu 50-mal mit geringfügig veränderten Steuerparametern durchkalkuliert wird. Zudem wird die Qualität der Modellrechnungen stets dadurch kontrolliert, dass sie auch in der Lage sein müssen, die Vergangenheit der letzten 100 Jahre einigermaßen plausibel abzubilden.

Levante betrachtet dabei Flächenelemente von nur 1 x 1 Kilometer, was eine noch nie da gewesene Auflösung darstellt. Aber auch in vertikaler Richtung wird die Atmosphäre besonders fein untergliedert. Damit steht eine digitale globale 3-D-Kopie der Atmosphäre zur Verfügung, deren Film fast beliebig schnell hin und her gespult werden kann.

Tatsächlich ist Klimaforschung nichts für Angsthasen, denn so manche Region auf der Erde wird in Zukunft unbewohnbar sein. Unser Klima vollzieht gerade in atemberaubender Geschwindigkeit eine Rückwärtsrolle des Klimas bis in jene Zeit vor fünf Millionen Jahren, als der Meeresspiegel bis zu 25 Meter höher lag als heute.

Auch ohne Levante lehrte uns Svante Arrhenius schon 1896 den Treibhausgaseffekt von Kohlenstoffdioxid. Wir müssen also so schnell wie möglich die Emissionen dieses Gases stoppen. Stattdessen entlassen wir immer mehr davon in die Atmosphäre. Darüber hinaus führen wir gegeneinander immer mehr Kriege mit Panzern und Raketen und lassen ein Tanklager nach dem anderen explodieren. Das ist alles andere als schlau in dem gegenwärtigen dramatischen Klimaszenario.

Selbst wenn die Menschheit schon ab morgen kein einziges Gramm CO2 mehr ausstoßen würde, denken wir uns die unselige Lobby der Öl- und Gasindustrie einmal weg, würde die globale Erwärmung dennoch mehrere Jahrzehnte weitergehen, das nennt man Nachhalleffekt. Wir kennen diesen ganz konkret, denn nach dem im Montreal-Protokoll von 1987 fixierten Verbot der Fluorkohlenwasserstoffe (FCKW) brauchte die Ozonschicht noch rund 20 Jahre, bis sie sich messbar regenerieren konnte.

Es ist leider extrem schwer, jetzt vermeintlich ökonomisch schmerzhafte Entscheidungen zu treffen, die erst in 30 Jahren unserem Klima bekömmlich sind. Dabei würden uns genau diese Entscheidungen sofort zum Vorteil gereichen: Unsere Straßen wären leerer und leiser, die Luftqualität würde sich sehr schnell verbessern und im Supermarkt hätte so gut wie alles Bioqualität. Dafür müssen aber die Politiker mit vereinten Kräften weltweit die Weichen stellen. Allein, mit den käuflichen Pappnasen, die sich jetzt für die Elite halten, wird es nicht gehen.

Beitragsbild: pixabay.com – Gerd Altmann

 

„Der antarktische Kontinent hat sich in den letzten sieben Jahrzehnten nicht erwärmt“, so lautet der erste Satz des Abstarcts einer Studie im NPJ:
https://www.nature.com/articles/s41612-020-00143-w

Titel der Studie:

Geringe kontinentale Klimasensitivität der Antarktis aufgrund der hohen Orographie des Eisschildes

Der antarktische Kontinent hat sich in den letzten sieben Jahrzehnten nicht erwärmt, obwohl die Konzentration von Treibhausgasen in der Atmosphäre monoton angestiegen ist. In diesem Beitrag untersuchen wir, ob die hohe Orographie des antarktischen Eisschildes (AIS) dazu beigetragen hat, die Erwärmung des Kontinents zu verzögern.

Zu diesem Zweck vergleichen wir die Reaktion des antarktischen Klimas auf eine CO2-Verdoppelung bei heutiger Orographie mit der Reaktion bei einem abgeflachten AIS. Um unsere Ergebnisse zu untermauern, führen wir diese Übung mit zwei verschiedenen Klimamodellen durch. Wir stellen fest, dass die CO2-Verdoppelung bei einem abgeflachten AIS einen stärkeren latenten Wärmetransport in Richtung des antarktischen Kontinents, eine stärkere Feuchtigkeitskonvergenz über dem Kontinent und infolgedessen eine stärkere oberflächenverstärkte Kondensationserwärmung bewirkt.

Eine stärkere Feuchtigkeitskonvergenz über dem Kontinent wird durch die Abflachung der feuchten isentropen Oberflächen ermöglicht, wodurch die Feuchtigkeitsgradienten entlang der Bahnen, auf denen der außertropische polwärts gerichtete Feuchtigkeitstransport hauptsächlich stattfindet, verringert werden und somit mehr Feuchtigkeit den Pol erreichen kann.

Außerdem verschwindet die polare meridionale Zelle, wenn die AIS abgeflacht ist, was eine größere CO2-bedingte warme Temperaturadvektion in Richtung des antarktischen Kontinents ermöglicht. Unsere Ergebnisse deuten darauf hin, dass die große Höhe der derzeitigen AIS eine wichtige Rolle bei der Verringerung der Anfälligkeit des antarktischen Kontinents für eine CO2-bedingte Erwärmung spielt.