«Und während Sie über Ungarn mal dies hören und mal das, sollten Sie besser schleunigst nach Brüssel sehen, wo von der Leyen das Projekt der Zweckentfremdung der EU, der Vergewaltigung der europäischen Verträge und der finalen Entmachtung der Nationalstaaten vorantreibt, als gäb’s kein Morgen. Ein Projekt, das nie etwas anderes als Ihre eigene Entmachtung, werter Bürger, war, die unter dieser Kommissionspräsidentin natürlich verlässlich aufs Hässlichste verschleiert ist.» (– Martin Sonneborn)
EIKE - Europäisches Institut für Klima und Energie e.V.
Miliband muss sein geheimes Energieabkommen mit China veröffentlichen!
Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT
Diese Woche hatte Ed Miliband zwei klare Gelegenheiten, um zu erklären, warum er das Energie-Kooperationsabkommen zwischen Großbritannien und China vom März 2025 nicht veröffentlichen wird. Zunächst wies er im Unterhaus, als er von der Schattenministerin für Energie Claire Coutinho dazu aufgefordert wurde, die Bedenken als „verrückte Verschwörungstheorie aus dem Internet” zurück. Dann erneut vor dem Ausschuss für Energiesicherheit und Netto-Null, wo er wiederholt gefragt worden war, warum das Abkommen nicht veröffentlicht worden sei, und sich siebzehn Mal geweigert hatte, die Frage zu beantworten.
Aber dies ist keine Verschwörungstheorie. Energiesicherheit ist nationale Sicherheit.
Dies ist ein Abkommen, das kritische Infrastrukturen betrifft. Es wurde mit einem Staat unterzeichnet, den die NATO als „systemische Herausforderung“ einstuft. Im vergangenen Jahr bezeichneten China und Russland ihre Partnerschaft als „grenzenlos“. Daher haben das Parlament und die Öffentlichkeit ein Recht darauf zu erfahren, was Minister im Namen des Landes unterzeichnen.
Die Debatte hat sich bisher auf die Menschenrechte konzentriert. Es besteht der Verdacht, dass eine Veröffentlichung die in den grünen Lieferketten Großbritanniens eingebundenen Unternehmen bloßstellen könnte, was möglicherweise strategische Rechtsstreitigkeiten auslösen und sogar wichtige Netto-Null-Ziele verzögern würde. Das wäre politisch heikel für eine Regierung, die sich als rechtlich gewissenhaft und moralisch anspruchsvoll präsentiert.
Die unangenehme Realität ist jedoch, dass ohne die Dominanz Chinas in der Herstellung von Turbinen, Batterien und Netzausrüstung die Umsetzung von „Clean Power 2030” erheblich erschwert wird. Und Benjamin Franklin, einer der Gründerväter der Vereinigten Staaten, bemerkte einmal: „Not macht noch keine guten Geschäfte.”
Menschenrechtsfragen sind ernst und legitim. Wenn es jedoch um Energiesysteme und Lieferketten geht, steht eine strategische Frage im Mittelpunkt.
Jeder, der sich mit den Hard-Power-Fähigkeiten Großbritanniens – und der Unabhängigkeit unserer demokratischen Institutionen – angesichts revisionistischer Mächte wie China und Russland befasst, sollte besorgt sein über ein Abkommen, das die strukturelle Abhängigkeit in Sektoren vertieft, die Peking offen als Instrumente strategischer Einflussnahme und als Grundlagen seiner militärisch-industriellen Stärke behandelt.
Das ist keine Paranoia oder Panikmache. Nehmen wir einfach die Worte des chinesischen Präsidenten Xi Jinping aus dem Jahr 2020.
Der vollständige Artikel steht hier.
Link: https://wattsupwiththat.com/2026/02/28/miliband-must-publish-his-secret-china-energy-deal/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Miliband muss sein geheimes Energieabkommen mit China veröffentlichen! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Du hältst sie dumm, ich halt´sie arm, sagte der Fürst zum Bischof
Jürgen Resch geht es prächtig. Das unterscheidet ihn von den vielen hunderttausend Angestellten in der Autoindustrie. Die stehen vor massiven Stellenstreichungen und Entlassungen, Jürgen Resch aber blickt hoffnungsfroh in die Zukunft. Er will den Autofahrern das Auto wegnehmen, den Bürgern die Heizungen und den Bauern die Landwirtschaft. Alles im Namen des Klimaschutzes. Zu all dem hat sich ja „Deutschland“ verpflichtet und er, Jürgen Resch, ist dafür da, um dafür zu sorgen, dass all dies auch ja durchgesetzt wird, notfalls dies einzuklagen.
888 Mach alle Bürger arm
Und werden Probleme gelöst? Ein Vortrag aus dem Jahr 2013 enthüllt den Plan, der gegenwärtig umgesetzt wird pic.twitter.com/BU5wczsmLY
— Daniel Gugger 888 (@daniel_gugger) March 3, 2026
Davon lebt Resch hervorragend, seinem Verein „Deutsche Umwelthilfe e.V.“ geht es entsprechend glänzend. Denn Jürgen Resch ist einer der gierigsten Profiteure all der vielen Klima-, Umwelt- und Autoklagen. Nahezu überall, wo mit Umwelt- oder Klimaklagen abzusahnen ist, spielt die DUH mit. Ein Eilantrag gegen Düngung in Niedersachsen hier, eine Klage dort – alles im Namen der Umwelt und Natur. Die weiß schon gar nicht mehr, wie ihr geschieht.
Resch jedenfalls eilt von Gerichtssaal zu Gerichtssaal. Morgen, am Donnerstag, den 5.3., geht es vor dem Bundesverwaltungsgericht in Leipzig um eine Klimaklage der DUH gegen die Bundesregierung. Die tue zu wenig, um Emissionen zu senken. Bis zu 2030 sollten die um 65 Prozent gesenkt werden. Dies sei nicht erreichbar, denn laut einem „Projektionsbericht“ soll das „Klimaziel“ 2030 um 25 Millionen Tonnen, bis 2040 sogar um 103 Millionen Tonnen verpaßt werden. Resch will jetzt unbedingt sein Tempolimit durchgesetzt sehen, das der Vielfahrer und -flieger seit langem gern hätte. Das würde 11 bis 12 Millionen Tonnen CO2 sparen, will das dubiose Umweltbundesamt in kühnen Modellrechnungen ausbaldowert haben. Als ob die noch zwei bis drei Prozent tempolimitfreien Straßen, die es noch gibt, das Klima retten würden.
Die Bundesregierung soll ein neues sogenanntes „Klimaschutzprogramm“ erarbeiten, das spätesten jetzt im März beschlossen werden soll. Würden die Verwaltungsrichter der DUH folgen, könnte die Einhaltung sogenannter „Klimaziele“ gerichtlich kontrolliert werden. Das würde einer weiteren umfassenden Verdienstmöglichkeit der DUH breiten Raum öffnen. Die Regierung müßte handeln und zum Beispiel alle innerdeutschen Flüge verbieten oder auch die Landwirtschaft drastisch einschränken.
Am vergangenen Montag wollte die DUH in einer Verhandlung vor dem Bundesgerichtshof in Karlsruhe alle Autos mit Benzin- oder Dieselantrieb verbieten lassen. Der Abmahnverein klagte diesmal gegen BMW und Mercedes-Benz und forderte, die beiden Autohersteller sollen keine Verbrennerautos mehr produzieren. Spätestens ab dem 31. Oktober 2030 sollen sie keine Fahrzeuge mit Verbrennungsmotor mehr verkaufen dürfen. Sollte eine bestimmte Menge an CO₂-Emissionen bereits vorher erreicht sein, müsste der Verkauf sogar noch früher eingestellt werden. Mit diesem Verfahren versucht die DUH erstmals, ein faktisches Verbrennerverbot auf dem zivilrechtlichen Weg durchzusetzen.
Die Klage geht auf das Jahr 2021 zurück. Damals hatten führende Vertreter der DUH – darunter Jürgen Resch, Barbara Metz und Sascha Müller-Kraenner – vor Gerichten in Bayern und Baden-Württemberg Klage eingereicht. Die CO₂-Emissionen der Fahrzeuge würden ihre persönlichen Rechte verletzen, weil der Klimawandel ihre Freiheitsrechte gefährde.
Sie berufen sich dabei auf den sogenannten „Klimabeschluss“ des Bundesverfassungsgerichts aus dem Jahr 2021. Damals hatte das Gericht bekanntlich entschieden, dass der Staat verpflichtet sein kann, strengere Klimaschutzmaßnahmen zu ergreifen, um Freiheitsrechte zukünftiger Generationen zu schützen. TE berichtete ausführlich, deckte auch auf, dass Passagen direkt vom grünen Programm abgeschrieben waren.
Die DUH versucht nun, diese Logik auf private Unternehmen zu übertragen. Ihrer Auffassung nach müssten auch Autohersteller Verantwortung für die langfristigen Folgen ihrer Produkte übernehmen. Der Verkauf von Fahrzeugen mit Verbrennungsmotor trage erheblich zum Klimawandel bei und müsse deshalb eingeschränkt werden.
Die Gerichte der Vorinstanzen hatten diese Argumentation jedoch zurückgewiesen. Laut Oberlandesgericht Stuttgart ist die Berufung der Kläger „offensichtlich unbegründet“. Nach Ansicht der Richter können Grundrechte grundsätzlich nur gegenüber dem Staat geltend gemacht werden, nicht gegenüber privaten Unternehmen. Zwar gebe es in Ausnahmefällen eine sogenannte „mittelbare Drittwirkung“ von Grundrechten im Privatrecht, doch könne diese nicht weiter reichen als die unmittelbare Verpflichtung des Staates selbst.
Überdies habe der Gesetzgeber seine Pflicht bereits erfüllt, so die Richter. Nach dem Urteil des Bundesverfassungsgerichts habe der Bundestag die Klimaziele verschärft und entsprechende Regelungen beschlossen. Unternehmen könnten daher nicht zu weitergehenden Maßnahmen verpflichtet werden, die über die gesetzlichen Vorgaben hinausgehen.
Auch BMW und Mercedes vertreten diese Position vor dem Bundesgerichtshof. Die Hersteller betonen, dass Fragen der Klimapolitik und möglicher Verbote politisch entschieden werden müssten – im Parlament und nicht vor Gericht. Vertreter der Unternehmen sprechen von einem Versuch der Kläger, politische Entscheidungen über den Rechtsweg zu erzwingen.
Der BGH hat nach einer „vorläufigen rechtlichen Würdigung“ große Zweifel an den CO2-Budgets für Unternehmen. Gesetzlich geregelte CO2-Budgets, so der Vorsitzende BGH-Richter Stephan Seiters, gebe es bisher nur für Deutschland als Staat. Das Bundesverfassungsgericht habe es bereits abgelehnt, die Klimapolitik der Bundesländer an länderspezifischen CO2-Budgets zu messen.
Dass der Fall dennoch vor dem Bundesgerichtshof verhandelt wird, liegt an der juristischen Konstruktion der Klage. Die DUH konnte nicht als Verband klagen, da das Verbandsklagerecht im Zivilrecht nur für bestimmte Bereiche wie Verbraucher- oder Wettbewerbsrecht gilt. Stattdessen treten einzelne Vertreter der Organisation als Privatpersonen auf, die ihre Grundrechte verletzt sehen.
Der Bundesgerichtshof muss nun klären, ob eine solche Argumentation überhaupt zulässig ist und ob sich aus Grundrechten Verpflichtungen privater Unternehmen ableiten lassen. Eine Entscheidung fiel zunächst nicht; das Gericht prüft den Fall weiter.
Der Ausgang des Verfahrens könnte weitreichende Folgen haben. Sollte das Gericht den Klägern recht geben, wäre dies ein Präzedenzfall: Zum ersten Mal könnte ein deutsches Gericht einem privaten Unternehmen klimapolitische Verpflichtungen auferlegen, die über die bestehenden gesetzlichen Regelungen hinausgehen.
Versuche, Unternehmen für Klimaschäden haftbar zu machen, gab es bereits zuvor. So hatten sich NGOs einen peruanischen Bauern herausgesucht, ihn als Marionette benutzt, der den Energiekonzern RWE wegen möglicher Klimaschäden verklagt. Er sei in seinem Peru von Wassermassen schmelzender Gletscher bedroht, die durch die CO2-Emissionen der RWE Schornsteine kämen. Das Oberlandesgericht Hamm wies die Klage zwar letztlich ab, erkannte jedoch grundsätzlich an, dass große Emittenten unter bestimmten Umständen haftbar gemacht werden könnten.
Das wiederum bietet weitere glänzenden Geschäftsaussichten für die einschlägigen NGOs, die sich am Klima- und CO2-Wahnsinn eine goldene Nase verdienen.
Der Beitrag erschien zuerst bei TE hier
Der Beitrag Du hältst sie dumm, ich halt´sie arm, sagte der Fürst zum Bischof erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Befürchtungen bzgl. der Versauerung der Ozeane sind weit übertrieben!
Cap Allon
Seit Jahren wird der Öffentlichkeit erzählt, dass die Versauerung der Ozeane folgendermaßen funktioniert: Man füge CO₂ zum Meerwasser hinzu, der pH-Wert sinke, Karbonat-Ionen verschwinden, und Muscheln und Riffe können sich nicht mehr bilden. Das ist blanker Unsinn.
Wenn CO₂ in den Ozean gelangt, wird dadurch nicht der für das Leben notwendige Kohlenstoff eliminiert. Über 90 Prozent des in Meerwasser gelösten Kohlenstoffs liegt als Bicarbonat (HCO₃-) vor, nicht als Carbonat. Mit der Veränderung des pH-Werts nimmt der Carbonatgehalt ab, aber Bicarbonat bleibt unter allen beobachteten und prognostizierten Meeresbedingungen reichlich vorhanden.
Das Leben im Meer hat sich an diese chemischen Verhältnisse angepasst.
Schalen bildende Organismen sind nicht passiv auf die im Meerwasser schwimmenden Karbonat-Ionen angewiesen. Korallen, Weichtiere und andere Kalkbildner nehmen aktiv Bikarbonat auf und regulieren den pH-Wert an der Stelle, an der sich ihre Schalen oder Skelette bilden. Durch die Entfernung von Wasserstoff-Ionen wandeln sie Bikarbonat genau dort lokal in Karbonat um, wo es für den Aufbau von Kalziumkarbonat benötigt wird.
Diagramm, das zeigt, wie Korallen Kohlenstoff und pH-Wert intern regulieren. Bikarbonat aus dem Meerwasser wird aktiv in das Korallengewebe transportiert, wo der pH-Wert angepasst wird, um CO₂ für die Photosynthese und Karbonat für das Skelettwachstum bereitzustellen, weitgehend unabhängig von den Bedingungen des umgebenden Meerwassers.
Der gleiche Prozess gilt umgekehrt für die Photosynthese. Symbiotische Algen senken den pH-Wert lokal, um Bikarbonat wieder in CO₂ umzuwandeln, das die Photosynthese antreibt. In beiden Fällen regulieren die Organismen die Chemie selbst anstatt sich den Bedingungen des umgebenden Meerwassers anzupassen.
Korallen erhöhen routinemäßig den pH-Wert in ihrer Kalzifizierungszone auf etwa 8,5 bis 8,8, selbst wenn der pH-Wert des umgebenden Meerwassers niedriger ist. Mollusken tun dasselbe an der Schnittstelle zwischen Schale und Mantel. Die Kalzifizierung findet in geschützten, biologisch kontrollierten Bereichen statt, nicht direkt im offenen Meerwasser.
Verschiedene Bereiche einer Koralle regulieren den pH-Wert unterschiedlich. Regionen, die reich an symbiotischen Algen sind, verfügen über mehr Energie und halten einen höheren pH-Wert an der skelettbildenden Oberfläche aufrecht, was zeigt, dass die Kalzifizierung eher von biologischer Energie und Kontrolle als allein von der Chemie des Meerwassers abhängt.
Darüber hinaus sind Schalen und Skelette auch physisch geschützt.
Weichtiere überziehen ihre Schalen mit einer organischen Schicht, dem Periostracum. Korallen bedecken ihre Skelette mit lebendem Gewebe. Diese Barrieren isolieren das Kalziumkarbonat vor direktem Kontakt mit der Chemie des Meerwassers.
Mehr dazu hier: Venn et al. (2025).
Die Chemie der Ozeane verändert sich. Aber die Vorstellung, dass geringfügige pH-Verschiebungen „die Bausteine des Lebens zerstören“ ignoriert, wie Leben tatsächlich funktioniert.
Link: https://electroverse.substack.com/p/another-major-ssw-building-northeast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Befürchtungen bzgl. der Versauerung der Ozeane sind weit übertrieben! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Monat Februar 2026 in Deutschland, Teil 1
Von Matthias Baritz, Josef Kowatsch
- Die angenehme Februarerwärmung begann erst 1988 und dauert an
- 108 Jahre lang Abkühlung, Temperatursprung, ab 1988 bis heute Weitererwärmung.
- Keine Korrelation mit dem CO₂-Anstieg, somit keine Treibhauswirkung erkennbar
- Insgesamt eine leichte unbedeutende Erwärmung seit 1881
- Der menschenverursachte WI-effekt hat die insgesamt leichte Erwärmung seit 1881 bewirkt.
Das Temperaturmittel lag im Februar 2026 laut DWD bei vorläufigen 2,9 °C, deutlich wärmer als letztes Jahr und deutlich über dem Schnitt 1991/2020. (wahrscheinlich ist der Wert etwas zu hoch, mt-wetter errechnet nur 2,7°C.) Die Sonnenstunden gibt der DWD mit 72 h an und den Niederschlag mit 73 l/m2. Einordnung siehe Grafiken 5a/b.
Wir fragen uns zunächst: Wo ordnet sich dieser Februar 2025 mit seinem 2,9°C-Schnitt in die bis 1881 zurückreichende Temperaturreihe Deutschlands ein, und wie entwickelten sich die Februar-Temperaturen in diesem Betrachtungszeitraum bis heute?
Deutschland –Temperaturgrafik des Februars, seit 1881
Quelle: https://www.dwd.de/DE/leistungen/zeitreihen/zeitreihen.html
Anmerkung. Wir haben für die ersten 5 Jahrzehnte die ursprünglichen DWD-Temperaturreihen verwendet, wie man diese noch bis 2013 abrufen konnte. Erst in den letzten 10 Jahren hat der DWD die ersten 5 Jahrzehnte nachträglich etwas kälter gemacht, damit die fallende Trendlinie 1881 bis 1987 fast verschwindet.
Abb. 1: Die Februartemperaturen des Deutschen Wetterdienstes seit 1881 bis 2026 also 146 Jahren
Wir erkennen mindestens 3 Teilabschnitte:
- Leichte Abkühlung 107 Jahre lang bis 1987
- Temperatursprung von 1987 auf 1988 von 1,5 Grad
- Weitererwärmung seit 1988 bis heute laut DWD um 0,3 Grad/Jahrzehnt.
Abb. 2: Steiler und stetiger CO₂-Anstieg in der Atmosphäre, vor allem seit 1965. Man vergleiche.
Wir gehen von einer CO₂-Konzentrationszunahme von 145 ppm seit 1881 aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die vom PIK-Potsdam behauptete hohe CO₂-Klimasensitivität anhand des Artikels in Frage stellen. Wir wollen vor allem die Behauptung widerlegen, dass CO₂ der maßgebliche Temperaturschalter wäre. Umso mehr, wenn man die ersten 107 Jahre näher betrachtet.
Der Februar-Temperaturverlauf in den ersten 107 Jahren ab 1881 ist jedoch keinesfalls immer gleich fallend wie die Trendlinie der Grafik 1 suggeriert. Betrachten wir nun den kürzeren Zeitraum ab 1943
Abb. 3: Die Februarabkühlung begann eigentlich erst so richtig ab 1943, bzw.15 Jahre später. und zwar sehr deutlich. Der Temperatursprung im Jahre 1987/88 bleibt.
Abb. 4a/b: Direkter Vergleich CO₂-Konzentrationszunahme und Februar-Temperaturentwicklung.
Ab 1957 bis 1987 erfolgte ein 30-jähiger Abkühlungsabsturz, just als die CO₂-Konzentrationen deutlich mit dem Anstieg loslegten
Wissenschaftliche Erkenntnis: CO₂ kann nicht über 100 Jahre abkühlend wirken, und davon ausgerechnet von 1957 bis 1987 besonders stark als die CO₂-Konzentrationen mit dem Anstieg loslegten. Und Kohlendioxid kann keinen plötzlichen Temperatursprung im Jahre 1987 verursachen und dann erst ab 1988 erwärmend weiter wirken. Solche klimawirksamen Gaseigenschaften gibt es nicht.
Wir stellen bisher fest:Die CO₂– Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Februartemperaturen keinerlei Ähnlichkeit. Es besteht keinerlei Korrelation zwischen beiden Kurven.
Erst ab 1988 bis heute handelt es sich um eine Zufallskorrelation.
Auch für den Temperatursprung im Jahre 1987 auf 1988 kann CO₂ nicht verantwortlich sein. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr SW-Wetterlagen bei positiven NAO-Werten).
Aus den Grafiken muss man schließen, CO₂ hat entweder gar keinen Einfluss auf die Temperaturen oder einen nur sehr unbedeutenden. Eine politisch gewollte und nun von den Grünen favorisierte teure CO₂-Reduzierung durch das im Boden Verpressen oder Versenken von Kohlendioxid im Meer ist völlig nutzlos, dazu umweltzerstörend und gefährlich für die Bodenorganismen.
Alle Klimarettungsmaßnahmen, die CO₂ verringern wollen taugen zu gar nichts.
Damit ist die gängige Definition von Klimawandel falsch, die ausschließlich Kohlendioxid und andere Treibhausgase für die Klimaerwärmung verantwortlich macht.
Merke: Die treibhausbasierte Klimahysterie ist eine Wissenschaft des finstersten Mittelalters. Da geht’s nur ums Geld und einen CO₂-Ablasshandel
Doch zurück zu den Februartemperaturreihen des Deutschen Wetterdienstes: Einzuwenden wäre, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren ganz anderen Temperaturermittlungen in der Wetterhütte mit den heutigen wärmeren Standorten nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit 220 gut doppelt so viele, was bedingt durch den erhöhten Wohlstand und Energieverbrauch erwärmend wirkte. Die DWD- Wetterstationen stehen heute in den von Menschen geschaffenen großflächigen Wärmeinseln, auch gab es einst typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei freistehenden Gutshöfen von Feudalherren.
Die Realität wäre: Die fallende Trendlinie von 1881 bis 1987 wäre noch stärker fallend. Der Temperatursprung wäre gleich. Die Erwärmungssteigung der Trendlinie ab 1988 bis heute wäre nicht ganz so stark. Zum WI-effekt und zur Größeneinschätzung siehe weiter unten.
Wenn Kohlendioxid seit 1988 nichts oder kaum was erwärmt hat, wer dann?
Tatsächliche Gründe der Februarerwärmung seit 1988 in Deutschland:1. Sonne und Niederschläge
Abb. 5a/b: Die Sonnenstunden sind seit 1988 leicht gestiegen, die Niederschläge leicht gefallen.
Die Sonne steht im Februar tief und hat noch wenig Wirkung: Trotzdem lässt sich schließen, dass die geringen Zunahme der Sonnenstunden und die Abnahme des Niederschlages leicht erwärmend wirkte seit 1988
2).Die Änderung der Großwetterlagen:
Die NAO = Nordatlantische Oszillation. Unter der NAO versteht man in der Meteorologie die Schwankung des Druckverhältnisses zwischen dem Islandtief im Norden und dem Azorenhoch im Süden
Dieses auffällige Temperaturverhalten in drei Phasen ähnelt grob dem des Januars und lässt sich sehr gut mit dem Verhalten der NAO und der an die NAO gekoppelten Häufigkeit der Großwetterlagen mit Westanteil erklären:
Abb. 6a: Zentriertes, 11-jähriges Gleitmittel der NAO und der Häufigkeit der im Februar meist milden Westwetterlagen. Man achte auf die relative Übereinstimmung, welche auch die in Abb.1 und 3 dargestellten Phasen erklärt. Die NAO als „Luftdruck-Schaukel“ zwischen Portugal/Azoren und Island beeinflusst die Häufigkeit und Intensität der wintermilden Westwetterlagen. Der 2024er Februar war sehr wolkenreich (milde Nächte!) und 2025 waren die Nächte oftmals klar.
Abb. 6b: Unbestimmte, windschwache XX-Lagen waren im Februar 2025 mit 12 Tagen so häufig wie nie, das erklärt die bescheidene Windstrom-Ausbeute.
In der zweiten Monatsdekade setzte der Februarwinter vor allem im Osten und Norden ein deutliches Ausrufezeichen. Eisige Februarnächte sogar an der gesamten Nordseeküste.
3) Der Mensch wirkt mit bei der Temperaturentwicklung durch zunehmende Wärmeinseleffekte (WI).
Klima verändert sich seit 4 Milliarden Jahren ohne Zutun des Menschen, es handelt sich um natürliche Klimaänderungen. In der Neuzeit wirkt der Mensch mit durch die ständige Ausbreitung der Wärmeflächen überall auf der Welt. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie grüne Vegetations-Fläche hinein erweitert, derzeit um 45 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, (verdichtetes Bauen,) damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was für die Politik ein Beleg für Naturschutz ist. Derzeit ist ein Siebentel der Gesamtfläche unseres Landes versiegelt. Jede Sekunde wird in der Bundesrepublik Deutschland gut 5 m2 Boden neu als Siedlungs- und Verkehrsfläche beansprucht. Das bringt die Wärme ins Umland der DWD-Wetterstationen. Zusätzlich wirkt die Abwärme der Industrie, der Haushalte und des Verkehrs, die Abwärme der Siedlungen und deren näheres Umfeld besonders bei windstillen, kalten Hochdruckwetterlagen. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und vor allem den Sommermonaten. Jede Straße wirkt vor allem im Sommer wie ein heißes Wärmeband in der Landschaft, ebenso die dunklen PV-Anlagen. Die Freisolaranlagen werden sommers zeitweise bis zu 70°C heiß. Bäuerliche Trockenlegung der Agrarlandschaft in den letzten 50 Jahren und neuerdings auch im Wald sorgt auch im Sommer für erhöhte Bodentemperaturen außerhalb der Versiegelungsflächen, also auch in der freien Landschaft.
Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch anthropogene Nutzungsänderungen stark zugenommen und die Thermometer der Stationen messen diese menschenerzeugte Zusatzwärme aus den sich ständig vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre die DWD-Station Nauen/Berge in Brandenburg, deren Temperaturverlauf im Vergleich zum DWD wir in der Grafik 8b wiedergeben.
Abbildung 7a/b: Die WI-arme Station Nauen/Berge – siehe blauer Graph mit oranger Trendlinie – in Brandenburg zeigt fast keine Februarerwärmung seit 1988
Geheizt wird in den Städten und Siedlungen, diese Wetterstationen zeigen auch eine etwas stärkere Februarerwärmung seit 1988 als typisch ländliche Stationen. Im Winter ist der WI-unterschied allerdings nicht so groß wie im Sommer.
Einordnung des Februars 2021 in einer längeren Zeitreihe, also vor 1881Die Wetterstation auf dem Hohepeißenberg, (HPB)
Wir erwähnten schon, dass 1881, der Beginn der DWD-Messreihen, in einer Kaltphase lag. Die Wetterstation auf dem Hohepeißenberg geht 100 Jahre weiter zurück. Wissenswert ist zusätzliche, dass die Messstation bis 1936 an der Nordwand der unbeheizten Klosterkirche war, heute steht die Station frei im neu erbauten DWD-Zentrum. Allerdings sind die Wärmeinseleffekte im Winter recht gering, so dass die wärmende Standortverlegung weniger Einfluss auf die Temperaturerfassung hatte als etwa im Sommerhalbjahr.
Der Februar-Verlauf auf dem HPB ist erstaunlich. Kaum Erwärmung seit 240 Jahren, trotz starker CO₂-Konzentrationszunahme und trotz Stationswechsels an einen wärmeren Standort. Erstaunlich auch, 2026 war es auf diesem fast 1000m hohen Berg im Süden von Deutschland sogar etwas wärmer als der DWD-Deutschlandschnitt. Und ein Grad höher als das gleich hohe nicht weit entfernte Mittenwald/Buckelwiesen.
Auffallend ist aber auch, dass die Temperaturwerte in den letzten 30 Jahren immer wieder geringfügig in den Tabellen geändert wurden und auffallend sind die letzten 8 Februare, die den leichten Anstieg der Regressionslinie seit 1781 verursacht haben.
Abb. 8: Die Februartemperaturen der DWD-Wetterwarte Hohepeißenberg zeigen trotz CO₂-Zunahme und trotz der Standortverlegung 1936 an den heutigen wärmeren Platz und trotz des Temperatursprunges 1988 nur eine minimale Erwärmung seit 240 Jahren. Auffallend sind die letzten 8 sehr milden Februare, die diesen leichten Trendlinienanstieg bewirken. Und auch 2026 ist auffallend. Mit 3,2°C viel milder als im restlichen Deutschland
Die langen Reihen zeigen: Kaum Erwärmung in einem langen Zeitraum trotz der gewaltigen wärmenden Landschaftsveränderungen mit den WI-effekten
Wohin geht der zukünftige Februartrend in Deutschland?Dazu zeichnen wir nun zusätzlich in die Deutschlandgrafik, die nächtlichen Minimum- und die tagsüber gemessenen Maximumtemperaturen in die DWD-Grafiken mit ein. Die liegen allerdings nur bei 536 DWD-Wetterstationen und auch erst ab 1943 bis heute vor.
Beachte: Die mittlere orangebraune Trendlinie ist der Tagestrend, dieselben Werte wie in den Grafiken 1 und 2 oben, allerdings nur von 536 Stationen. Trotzdem ist die Steigungslinie ab 1988 bis heute ziemlich gleich.
Wir dürfen noch anmerken, dass man diese Grafiken nur bei uns findet. Aus dem Grund werden die Schlussfolgerungen auch niemals von der angeblich seriösen Wissenschaft besprochen. Damit lässt man wichtige Erkenntnisse einfach weg, die wir nach der Grafik nennen werden.
Abb. 9: oben in grau die tagsüber gemessenen Maximumtemperaturen, täglich einen T-Max Temperaturwert ergibt am Monatsende den mittleren T-max Monatswert. Unten in blau die nächtlichen Minimumtemperaturen. Von 1987 auf 1988 erfolgte bei allen drei Reihen der Temperatursprung
Auswertung der Grafik:
- Die Februarabkühlung ab 1943 bis 1987 ist bei allen drei Temperaturreihen vorhanden und etwa gleich, siehe Formeln
- 1987 auf 1988: Temperatursprung bei allen drei Messreihen von knapp 2 Grad.
- Weitererwärmung seit 1988 bis heute, die T-max erwärmen sich stärker als die nächtliche T-min Reihe, die Schere zwischen beiden geht leicht auseinander.
- CO₂-Erwärmung ist nicht erkennbar! Dass ab 1988 die Tagestemperaturen etwas stärker steigen als T-min führen wir auf die Zunahme der Sonnenstunden und der WI-effekte zurück und nicht auf CO₂.
Darauf kann nun diese Grafik 9 wohl auch keine Antwort geben, wir sehen jedenfalls keine. Doch gehen wir davon aus:
Sobald sich die Großwetterlagen wieder ändern. Wann wird das sein? Das weiß niemand. Da kein CO₂-Erwärmungssignal in den Temperaturreihen erkennbar ist, weiß kein Mensch wie sich dieser Monat in Zukunft in Deutschland entwickeln wird.
Fazit:Die ständige Zunahme der Wärmeinseleffekte, die Schaffung großflächiger Wärmeregionen durch Flächenversiegelungen sind der mit Abstand größte menschengemachte Temperaturtreiber. Allerdings im Winter weniger als im Sommer. Eine Einwirkung mittels CO₂ gibt es nicht oder die Wirkung ist so minimal, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.
Will der Mensch den menschengemachten Anteil an der Erwärmung bekämpfen, dann muss man die Wetterstationen entweder wieder raus in die landwirtschaftlichen Flächen stellen oder aber in den Städten und Gemeinden die Bebauung, Versiegelung der einst freien Landschaft und die Trockenlegung der Agrar-Landschaft rückgängig machen oder zumindest einstellen. Aber weshalb sollte man die angenehme Erwärmung überhaupt rückgängig machen – falls wir es könnten? Wir sind doch froh über den Temperatursprung 1987 auf 1988 und die anschließende leichte Weitererwärmung.
Klimapolitik nein, aber eine Diskussion zum Erhalt der Natur und Landschaft wäre zu begrüßen.
Politisch verordnete, teure CO₂-Einsparungen bewirken nichts. Es handelt sich um ein Ablasshandelsmodell ähnlich dem Sünden-Ablasshandel der Kirche im Mittelalter. Der Staat will uns ausplündern und das tut er bereits kräftig über die CO₂-Steuer. Die Demokratie ist dadurch in höchster Gefahr.
CO₂ ist ein lebensnotwendiges Gas, genauso wie Sauerstoff und Wasser. Auf dem Element Kohlenstoff ist das Leben dieses Planeten aufgebaut. Ohne CO₂ wäre die Erde kahl wie der Mond. Mehr CO₂ in der Atmosphäre wäre wünschenswert, denn es beschleunigt die Fotosynthese und lässt die Nahrungspflanzen schneller wachsen. Wer CO₂ einsparen oder gar reduzieren will, versündigt sich an der Schöpfung!!
Wirklicher Natur- und Umweltschutz muss endlich in den Mittelpunkt des politischen Handelns gerückt werden und nicht das Geschäftsmodell Klimaschutz, das unser Land ruiniert und in das Privatleben der Bürger eingreift. Eine Gefahr für die Demokratie.
Organisationen und Parteien, aber auch Privatpersonen, die weiterhin das CO₂-Erhitzungsmodell mit CO₂ als Haupttemperaturtreiber predigen, oder in CO₂ sogar den globalen Temperaturregler sehen, müssen an den Pranger gestellt werden!!
Die Februartemperaturreihen des Deutschen Wetterdienstes beweisen: Es gibt keinen Klimanotstand. Deshalb muss auch keiner bekämpft werden. Aufruf an die Politiker und an die Deutschen: Lasst diesen Blödsinn sein und werdet endlich wieder normal!
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher
Matthias Baritz, Naturwissenschaftler und Naturschützer
Der Beitrag Der Monat Februar 2026 in Deutschland, Teil 1 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Kampf gegen das CO2 ist wie der Klimaterror in Berlin, nur langsamer – dafür aber viel schlimmer!
Anfang Januar 26 wurden im Berliner Südwesten mehrere Hochspannungsleitungen von der Vulkan-Terroristengruppe mit Brandverstärkern angezündet und sie dann„mit herumliegenden Stahlstangen zusätzlich kurzgeschlossen“. Im Ergebnis wurde das Kraftwerk abgeschaltet und anfangs ca. 45.000 Haushalte, mit vielleicht 130.000 Menschen waren für 101 Stunden ohne Strom. Viele davon alt, und tlw, auch behindert und/oder gebrechlich, Sie mussten Tag für Tag und Nacht für Nacht in der Kälte ausharren. Die Außentemperaturen fielen nachts auf – 8 bis – 10 °C. Noch immer sind viele Heizungen defekt. Der Schaden war enorm. Es war der größte Stromausfall seit Kriegsende. Die Gruppe verübt ungehindert seit über 10 Jahren Anschläge mit immensem Schaden.
von Michael LimburgIn einer „Erklärung“ sagen diese Terroristen, dass sie sich als Kämpfer verstehen, die sich der „Klimazerstörung“ (O-Ton Bekennerschreiben) widersetzen wollen und nennen dazu wiederholt das Ansteigen der CO2 Konzentration. „Im vergangenen Jahr ist die CO² Konzentration in der Atmosphäre auf 423,9 Teile Kohlendioxid pro Million gestiegen.“ (O-Ton Bekennerschreiben) gefolgt von diversen Anschuldigungen, denen man nun verstärkt begegnen müsse. Und damit sind wir beim CO2.
Das CO2, was immer noch als Spurengas – so war es jedenfalls in der Schule und vor einigen Jahren noch bekannt- in der Luft vorhanden ist, mit heute ca. 0,042 Vol. %. Und diese Konzentration steigt aktuell Jahr für Jahr mit etwa 2 bis 3 ppm (Teile pro Million) oder 0,002 bis 0,003 Vol. %. an. Was wir aber auch alle wissen, oder wissen sollten, dass das CO2 ein Gas des Lebens ist. Ohne CO2in der Luft – und je mehr, je besser – würden alle Pflanzen verhungern, und mit Ihnen alles Leben. Deswegen leiten viele Gärtnereien CO2 in die Luft ihrer Gewächshäuser. Und bei ca. 150 bis 200 ppm fängt das Ganze an zu wirken. Darunter beginnen die Pflanzen zu verhungern.
Abbildung 1: Bild aus einer Forschungsgärtnerei mit verschiedenen CO2 Konzentration am selben Baum.
Es ist also das CO2in der Luft, was die Terroristen bekämpfen wollen, genauer die Emissionen, und noch genauer, die sog. anthropogenen Emission. Also der Teil, den die Menschen selbst in Luft emittieren, und dabei vorzugsweise der Teil, der bei der Verbrennung von fossiler Energie entsteht.
Nun kann man bei diesen Terroristen allen möglichen Kampfgeist, gestützt auf eine bösartige Ideologie vermuten, mit Sicherheit aber keine naturwissenschaftlichen Kenntnisse und auch – um das Maß vollzumachen – auch nicht den Hauch einer naturwissenschaftlichen Bildung. Und, wenn man sich mittels einer naturwissenschaftlichen Bildung mit diesen Fragen beschäftigt, kommt man zwangsläufig zu völlig anderen Ergebnissen. Und um die soll es sich jetzt drehen.
Wieviel CO2 ist in der Luft?Seit nunmehr über 200 Jahren wird der CO2 Gehalt der Atmosphäre gemessen. Der legendäre Apotheker Max von Pettenkofer hatte daran einen großen Anteil. Er definierte einen Betrag von 0,01 Vol % oder 1000 ppm CO2 in der Luft, als den Wert der „gute“ Luft von „schlechter“ Luft trennt. Und diese Zahl, dann Pettenkofer-Zahl genannt, findet sich heute noch in den Arbeitsschutzbestimmungen z.B. in Deutschland. Alle Werte darunter werden seit 2008 als „hygienisch unbedenklich“ eingestuft. In den US-U-Booten, wie auch den bemannten Raumfähren, wird ein Wert von 8.000 ppm gerade noch als zulässig eingestuft, aber das nur nebenbei. Pettenkofer nannte diese Zahl im Jahre 1858 und man kann deshalb mit Fug und Recht sagen, dass er dies auch messen konnte. Wie viele andere seiner klugen Zeitgenossen.
Ab etwa um 1812 wurde die CO2 Konzentration schon vielfach gemessen. Und zwar mit vergleichbarer Genauigkeit, also um ± 3 % des Messwertes. Der EIKE Mitgründer Ernst Georg Beck hatte sich dazu unsterbliche Meriten erworben, in der er diese zusammenfasste und auswertete. Sein Bericht „80 YEARS OF ATMOSPHERIC CO2 GAS ANALYSIS BY CHEMICAL METHODS“ zeigt über 90.000 Messungen, die er zusammengetragen hat. In seinem Abstrakt schreibt er u.a:
„Seit 1812 schwankt die CO2-Konzentration in der Luft der nördlichen Hemisphäre und weist drei Höchstwerte auf, nämlich um 1825, 1857 und 1942, wobei der CO2-Gehalt im letzten Jahr über 400 ppm lag.“
Und da zeigt sich erstaunliches. In den alten Lexika dieser Zeit, die das Wissen dieser Zeit wiedergeben, finden sich bspw. um 1892 400 ppm. Und was wir auch wissen, ist, dass es eine Vielzahl von Messungen genau dieses CO2 gegeben hat, die alle, durch die Bank alle, eine höhere CO2 Konzentration belegen. Etwas später machte Beck dann zwar einen Teilrückzieher, als er mit Francis Maaßen 2009 schrieb:
„Accurate estimation of CO2 background level from near ground measurements at non-mixed environments“ veröffentlichte. Doch ganz am Schluss schrieben die Autoren: „The overall impression is one of continental European historic regional CO 2 background levels significantly higher than the commonly assumed global ice-core proxy levels.“
Zu Deutsch: „Der Gesamteindruck besteht darin, dass die historischen regionalen CO 2 -Hintergrundwerte in Kontinentaleuropa deutlich höher sind als die allgemein angenommenen globalen Proxy-Werte aus Eiskernen“
Und das ist der Punkt. Eisbohrkerne gelten inzwischen als Goldstandard für die Ermittlung der CO2 Konzentration. Dabei sind sie schlechter als viele anderen Methoden, insbesondere die direkte Messung.
Warum, werden Sie fragen?Viele der Eisbohrkernbohrungen werden in der Antarktis vorgenommen. Nur dort findet man Eisschichtungen, die einige tausend Meter hoch sind. Und man muss sich daran erinnern, dass die Antarktis die trockenste Wüste der Welt ist. Niederschläge, die später zu Firneis und dann zu Eis gefrieren, gibt es nur wenige im Jahr. Und auch die Bestimmung der Jahre der jeweiligen Scheiben im Kern ist ausgesprochen schwierig und mit Riesenunsicherheiten behaftet.
Man muss sich das mal vorstellen: Da gibt es einen geringen Niederschlag auf das Oberflächeneis, immer als Schnee. Dann Tage, Monate später, wird der von einer weiteren Schneedecke bedeckt. Irgendwann ist der Schnee so dicht überdeckt, dass er zu Firn wird. Und weitere Monate, Jahre, Jahrzehnte später, vielleicht sogar länger als 2000 Jahre dauern[1] kann, bevor er zu Eis wird.
Abbildung 2: Artefaktbildung bei der Eisbohrkernanlyse, nach Jaworowsky. Nach ca. 1 km Tiefe gibt es keine Gasblasen mehr, sondern nur noch Clathrathe. Aus díesen muss – nach der Bergung des Bohrkerns– der äußerst geringen CO2 Gehalt herausgefiltert werden, der bis zu > als 2000 Jahre (Beck meint bis zu zu 6000 Jahre) nach den eigentlich bestimmenden Jahresringen eingeschlossen wurde.
Und trotzdem hat es die Klimaforschung geschafft, dass diese Methode zum Goldstandard erklärt wurde, obwohl bspw. die beiden Forscher Jaworowski und Segalstad schon 1992[2] schrieben: „Zahlreiche Studien deuten darauf hin, dass der CO2-Gehalt im Eis aufgrund verschiedener chemischer und physikalischer Prozesse im Vergleich zum ursprünglichen atmosphärischen Wert stark ansteigen oder abnehmen kann. In den Lufteinschlüssen aus vorindustriellem Eis wurden CO2-Konzentrationen zwischen 135 und 500 ppmv gemessen. Daher können die Ergebnisse der CO2-Bestimmungen in den Lufteinschlüssen des Eises nicht als repräsentativ für die ursprüngliche atmosphärische Zusammensetzung angesehen werden.“
Und E.G. Beck schrieb dazu in einer eMail vom 11.07.2008 an einen Leser von EIKE
Eisbohrkerndaten sind ein Grundpfeiler der modernen IPCC gelenkten Klimawissenschaft. Offiziell verwendet man vor 1958 nur indirekt bestimmte CO2 Daten aus Eisbohrkernen, obwohl es zig Tausende direkt gemesene Daten seit 1812 gibt.
Seit ca. 1980 wurde die Methode entwickelt und genau so alt ist die Kritik an den Methoden (siehe Jaworowski und Segalstadt). http://folk.uio.no/tomvs/esef/esef0.htm.
Die CO2-Werte aus Eisbohrkernen sind das Ergebnis einer Rekonstruktion aus sekundären Gasblasen, die ursprünglich nicht im Eis vorhanden waren. Sie entstehen durch Dekomprimierung, also wenn der Eisbohrkern durchgeschnitten und geborgen wird. Zuvor gibt es durch den Druck der Eissäule keine solchen Luftblasen sondern die Gasmoleküle der Luft liegen hydratisiert vor =Klathrat. Dieser Vorgang der Luftblasenbildung sorgt für ein Zusammenfließen älterer und neuerer CO2 Moleküle was zu den gleichmäßigen und fehlerhaften CO2 Werten führt mit einer Eisalter/Gasalter -Differenz bis zu 6000 Jahren in Vostok ( d.h. das analysierte CO2 ist jünger als das Eis).
Die aus Eisbohrkernen rekonstruierten CO2-Werte sind 20-50% zu niedrig. Z.B. in den Eiszeiten der letzten 800 000 Jahren fand man nur 180 ppm. Dies kann nie der CO2-Wert zum Beispiel bei uns im Norden auf dem Kontinent gewesen sein. Bei diesem niedrigen CO2-Gehalt wachsen keine Pflanzen und von einem Pflanzensterben ist nichts bekannt. Er ist aber typisch für Luft über den kalten Polarmeeren.
Außerdem hat man wie im Beitrag bei EIKE bemerkt hohe CO2 Werte ohne Prüfung weggelassen. Insgesamt sind Eisbohrkerne sehr ungenaue Klimaarchive, die durch Bakterienstoffwechsel und fehlerhafte Methoden nur ein verzerrtes Bild der CO2-Konzentration früherer Zeiten abgeben.
Soweit E.G. Beck, eines der profundesten Kenner der damaligen CO2 Messungen.
Und wenn man das alles weiß, oder wissen müsste, dann kann auch diese Grafik zur CO2 Gehalt der Atmosphäre der Erde einen nur noch darin bestärken, dass immer und immer wieder getrickst, besser – betrogen wurde, und noch immer wird.
Und wieder werden Sie fragen warum? In Abbildung 3 wird er Ihnen geliefert.
Abbildung 3:; Das Bild zeigt die CO2 Daten aus den Eisborkernen (Originaltext: Ice core data adjusted for global mean), die nahtlos mit den Mauna Loa Daten anschließen. Der Law Dome in der Antarktis ist 1395 Meter hoch und 12.066 km vom Mauna Loa Observatorium ca. 3000 m hoch entfernt. Letztere ist auf einem aktiven Vulkan gelegen. Wer wirklich glaubt, dass beide Zeitreihen nahtlos ineinander übergehen,[3] der hat sich niemals mit echter Messtechnik beschäftigt. Es gibt sie nicht, egal welche Koryphäen man dazu bemüht.
Was es aber stattdessen gibt, sind die 90.000 Messwerte die Beck ausgewertet hat und die zeigen eine völlig andere Geschichte des CO2 Konzentration[4].
Abbildung 4: Durchschnittwerte der CO2 Konzentration von 1920 bis 1968 nach Beck 2008[5]. mit Kennzeichnung der jeweiligen Datenherkünfte. Keeling, Callendar und das IPCC haben diese Werte willkürlich (Siehe Fußnote 3) verworfen. Sie sind aber, anders als die mit Riesenfehlern behafteten Eisbohrkerndaten, da!
Wie manche es vielleicht wissen, gehen die Vorstellung, dass CO2 und da im Besonderen das menschengemachte CO2 , eine Erwärmung erzeugt, im Wesentlichen auf den Ingenieur John Callendar und den Chemiker Charles David Keeling zurück. Beide haben mit großem Nachdruck ihre Überlegungen dazu publik gemacht. Sie haben Studien veröffentlicht, die ihre Überlegungen stützten. Doch es ist auch bekannt, dass beide, aus der Fülle der Beobachtungen des CO2 in der Atmosphäre, nur die ausgewählt hatten, die in ihre Agenda passten. Siehe Abbildung 5:
Abbildung 5: Durchschnittwerte der CO2 Konzentration nach Callendar und Keeling. Zusammen mit den Werten, die sie verworfen haben. Sie haben sie verworfen, weil sie nicht in ihre Hypothese passten,[6].
All die anderen wurden unter den Tisch gekehrt[7]. Gründe dafür sind detailliert in Fußnote 8 benannt.
Eigentlich unfassbar. Es wird dieselbe Melodie gespielt, die wir sie bei den historischen Temperaturdaten kennen, die plötzlich zu „Rohdaten“ werden, weil bei der bekannten Mann´schen Hockeschläger Kurve mit „Mike´s natur trick“ (Klimaforscher Phil Jones) angewendet wurde und dies in den Climate-Gate eMails von 2008 so dargestellt haben. Phil Jones, damals leitender Klimatologe der Climate Reseach Unit in der University of East Anglia wird dort zitiert mit dem Satz: „Kevin and I will keep them out somehow – even if we have to redefine what the peer-review literature is!“) am 8. Juli 2004 in einer E-Mail im Rahmen der sogenannten Climategate-Leaks.
Was heißt das alles für uns?Ebenso wie die sog. globale Mitteltemperatur nur eine politische Größe[8] ist und dazu auch viel zu fehlerhaft, um daraus irgendetwas herzuleiten, ist auch die Herleitung der globalen CO2 Werte mindestens unbestimmt, nimmt man aber normale wissenschaftliche Vorgehensweisen als Bezugsgröße an, dann waren sie deutlich höher als die genannten 280 ppm, welche die Atmosphäre seit 1850 haben sollte. Was wiederum heißt, dass nicht das CO2 die Ursache für eine Erwärmung war, oder wenn, dann nur in einem extrem geringen Maße, sondern die Sonneneinstrahlung als Energiequelle im Verbund mit dem hiesigen Wasserdampf. Jener ist im Schnitt mit 1,0 bis 1,5 % in der Atmosphäre vorhanden, also 36 x stärker als die aktuelle CO2 Konzentration, und bestimmt nicht nur mit seinen Infrarotstrahlungseigenschaften die Temperatur, sondern auch deswegen, weil er Luftfeuchte, Wolken, und damit Albedo, aber auch Regen, Schnee und Eis bewirkt. Und das Beste daran ist, das eint auch alle Klimaforscher weltweit. Die CO2 Strategen haben ihn nur deswegen nicht auf ihre Klimaagenda gesetzt, weil – wie sie sagen – wir den Wasserdampf nicht beeinflussen können. Das sollen wir aber beim CO2 können, so sagen sie, und liefern damit den Klimaterroristen – aber nicht nur diesen – das Argument an die Hand, mit Terror gegen ihre Mitmenschen vorzugehen. In deren Fall mit Gewalt, im Normalfall mit dem EU-Green Deal, mit Richtlinien, Gesetzen, Verordnungen, dem Heizhammergesetz, die CO2 Abgabe und vieles, vieles mehr. Auch sie wollen kein anthropogenes CO2 mehr, genau wie die Klimaterroristen, doch langsamer. Aber nicht weniger schrecklich. Es betrifft nicht nur mehr hunderttausend Menschen, sondern einige 100 Millionen! Trump nennt in Davos den „Green-New-Scam“ als den größten Betrug, den größten Schwindel in der Geschichte, den die Welt bisher gesehen hat.
Ist es nicht höchste Zeit, dass wir uns von diesem Irrglauben befreien und (legal) dagegen vorgehen?
- Grok zu Schnee, Firn Eis: Der gesamte Weg vom Neuschnee zum Gletschereis kann 200–2000 Jahre dauern, abhängig von Klima, Niederschlagsmenge und Lage. Extreme Bedingungen (z. B. in der Antarktis) verlängern den Prozess. ↑
- ATMOSPHERIC CO2 AND GLOBAL WA R M I N G : A C R I T I C A L REVIEW SECOND REVISED EDITON MEDDELELSER NR. 119 SA POLARINST OSLO 1992 ↑
- https://data.giss.nasa.gov/modelforce/ghgases/Fig1A.ext.txt Dort: 1850-1957: D.M. Etheridge, L.P. Steele, R.L. Langenfelds, R.J. Francey,J.-M. Barnola and V.I. Morgan, 1996, J. Geophys. Res., 101, 4115-4128, „Natural and anthroupogenic changes in atmospheric CO2 over the last 1000 years from air in Antarctic ice and firn“.1958-1974: Means of Scripps Institution of Oceanography Continuous Data at Mauna Loa and South Pole provided by KenMaarie (personal communication) Es gibt noch eine weitere Grafik, mit Law Dome als Spender der Eiskerndaten, dieknapp 20 Jahre (von 1958- 1978) hochpräzise Übereinstimmung mit den Mauna Loa Daten zeigt. Auch sie sind getürkt. ↑
- Quelle: https://eike-klima-energie.eu/2025/03/08/studie-stellt-annahmen-bzgl-des-co₂-gehaltes-in-der-vorindustriellen-zeit-von-280-ppm-in-frage/https://scienceofclimatechange.org/wp-content/uploads/SCC-Ato-2025.pdfhttps://21sci-tech.com/Subscriptions/Spring%202008%20ONLINE/CO2_chemical.pdf ↑
- Quelle: https://21sci-tech.com/Subscriptions/Spring%202008%20ONLINE/CO2_chemical.pdf ↑
- Beck „180 Years of Atmospheric CO2 Measurement By Chemical Methods“. „Callendar set out the actual criteria that he used to judge whether older deter- minations were “allowable” in his 1958 paper [20]. There, Callendar presented only data that fell within 10 percent of a longer yearly average estimate for the region. He rejected all measurements, however accurate, that were “measurements intended for special purposes, such as biological, soil, air, atmospheric pollution.” Callendar also rejected nearly all data before 1870, because of what he erroneously described as “relatively crude instrumentation.” He reported only 12 suitable data sets for the 20th Century as known to him [20], out of 99 made available by Stepanova in 1952 [18]. ↑
- https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.2153-3490.1956.tb01208.x Carbon Dioxide Variations in the Atmosphere Volume8, Issue2 May 1956↑
- Quelle: https://eike-klima-energie.eu/2025/11/23/ki-sagt-globale-mitteltemperatur-ist-eine-politische-groesse-aber-keine-temperatur/ ↑
Der Beitrag wurde in leicht verkürzter Form am 26.2.26 in der Grünen Weltwoche veröffentlicht. Sie finden ihn hier
Der Beitrag Der Kampf gegen das CO2 ist wie der Klimaterror in Berlin, nur langsamer – dafür aber viel schlimmer! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kurzmeldungen aus Klima und Energie – Ausgabe 7 /2026
Eine Meldung aus dem Blog von Pierre Gosselin vom 21. Februar 2026:
Neue Studie: In Kanadas Provinz New Brunswick war es während der mittelalterlichen Warmzeit um 1 °C wärmer als heute.Die anhand von Pollen rekonstruierten Frühlingstemperaturen in New Brunswick (Kanada) bestätigen, dass die mittelalterliche Warmzeit oder mittelalterliche Klimaanomalie (MCA, 900–1400 n. Chr.) um 1 °C wärmer war (3,2 °C gegenüber 2,2 °C) als sowohl die Kleine Eiszeit (LIA, 1400–1850 n. Chr.) als auch die Moderne Warmzeit (1850 bis heute).
Auch andere Standorte in dieser Region zeigen seit den 1800er Jahren keine Nettoerwärmung und eine Abkühlung um 1–3 °C von der MCA zur LIA.
Diese neue Forschung identifiziert auch eine höhere Häufigkeit natürlicher Waldbrände während der Abkühlungsphase der LIA als während der wärmeren MCA.
Quelle: Collins et al., 2026
——————————
Eine Meldung vom 23. Februar 2026:
Wall Street finanziert weiterhin fossile TreibstoffeDie größten Banken der Wall Street investieren weiterhin Dutzende Milliarden in Öl, Gas und Kohle.
Daten von Bloomberg zeigen, dass JPMorgan, Wells Fargo, Bank of America, Citi, Goldman Sachs und Morgan Stanley auch 2024 und 2025 weiterhin massive Kredite für fossile Brennstoffe vergeben werden, wobei viele ihre Investitionen sogar noch erhöhen werden.
Nach Jahren der Proteste und Druckkampagnen räumen Umweltverbände nun ihr Scheitern ein.
Die Strategie bestand darin, Banken durch die Erhöhung des Reputationsrisikos dazu zu bringen, sich aus fossilen Brennstoffen zurückzuziehen. Das hat nicht funktioniert. Fossile Brennstoffe sind nach wie vor der Motor der Wirtschaft, und die Banken folgen dem Geld und der Nachfrage, nicht der Ideologie.
China ist ein weiteres Land, das fest in der Realität verankert ist. Das Land hat im Jahr 2025 seine Kapazitäten für Kohlekraft um 78 GW erweitert. In nur einem Jahr hat China die Reduktionen der EU in den letzten 20 Jahren übertroffen. Die Opfer der Europäer waren umsonst.
——————————
Meldung vom 25. Februar 2026:
2025 verzeichnete die niedrigsten globalen Waldbrandemissionen seit Beginn der AufzeichnungenDie weltweiten Emissionen durch Waldbrände waren 2025 die niedrigsten seit Beginn der Satellitenaufzeichnungen.
Die Medienberichterstattung konzentriert sich auf einzelne Brandsaisons und präsentiert diese als Beweis für einen globalen Trend. Global betrachtet sind die Emissionen durch Waldbrände jedoch rückläufig:
Selbst Copernicus, die Institution, die den oben genannten Datensatz veröffentlicht hat, fasste das Jahr 2025 als „Jahr intensiver Waldbrände in der nördlichen Hemisphäre” zusammen. Die neuesten Grafiken zeigen jedoch einen deutlichen Abwärtstrend, wobei 2025 einen Rekordtiefstand verzeichnet.
Die zugrunde liegenden Daten werden aus offensichtlichen Gründen nicht prominent neben der Schlagzeile veröffentlicht.
——————————
Eine Meldung vom 26. Februar 2026:
UK: Wasserspiegel am Solway Firth lag vor 6000 Jahren 4 m höherEine neue Studie rekonstruiert den relativen Meeresspiegel entlang des südlichen Solway Firth (Großbritannien) und kommt zu dem Ergebnis, dass dieser vor Tausenden von Jahren deutlich über dem heutigen Niveau lag.
Anhand von Sedimentkernen, Mikrofossilien (Foraminiferen), Pollen und Radiokarbondaten erstellen die Autoren Meeresspiegel-Indexpunkte für den Zeitraum von vor etwa 8.300 bis 6.000 Jahren.
Ihre kombinierten Daten zeigen, dass die postglaziale Transgression in dieser Region den relativen Meeresspiegel vor etwa 8.320 bis 7.500 Jahren über den heutigen Stand angehoben hat und einen Höchststand von etwa 3,26 m über dem heutigen Niveau erreichte, wobei einige Punkte fast 4 m erreichten.
Nach diesem Höchststand sank der relative Meeresspiegel zur Mitte und bis zum Ende des Holozäns auf das heutige Niveau. Die Bohrkerne dokumentieren auch die zu erwartenden Umweltveränderungen, die mit dem Absinken des Meeresspiegels einhergingen: Salzwiesen wichen Schilfsümpfen und dann Torfmooren.
Die Rekonstruktionsstandorte befanden sich bis zu etwa 3 km landeinwärts von der heutigen Küste und zeigen, wie weit sich der Einfluss des Meeres während dieser Phase des höheren Meeresspiegels ausdehnte.
——————————
Zwei Meldungen vom 27. Februar 2026:
Bildung einer weiteren großen Stratosphären-ErwärmungDie Modelle stimmen nun überein, dass es Anfang März zu einer weiteren starken plötzlichen stratosphärischen Erwärmung (SSW) kommen wird. Der Winter ist noch nicht vorbei.
Sowohl GFS als auch ECMWF zeigen, dass sich die stratosphärischen Winde in 10 hPa von westlich auf östlich drehen – die formale Definition einer starken SSW. Dies deutet auf einen Zusammenbruch oder eine Verschiebung des Polarwirbels hoch über der Arktis hin.
Historisch gesehen erhöht ein gestörter Wirbel die Wahrscheinlichkeit kälterer Bedingungen in den mittleren Breiten, oft mit einer Verzögerung von 1 bis 3 Wochen.
Dies wäre das zweite SSW-Ereignis in diesem Winter – ein seltenes Ereignis, das etwa einmal pro Jahrzehnt auftritt.
Das stratosphärische Signal bleibt in den Vorhersagen stark und anhaltend. Wenn es sich nach unten ausbreitet, bleibt ein Eindringen arktischer Luft in die Vereinigten Staaten und Eurasien bis Mitte bis Ende März sehr wahrscheinlich.
Viele Gebiete genießen derzeit vielleicht einen vorzeitigen Frühling, aber der Winter ist noch nicht vorbei.
——————————
Warme Jahre bedeuten mehr FischbestandThe Guardian behauptet, dass die Erwärmung der Ozeane zu einem dramatischen Rückgang des Lebens im Meer führt. Die Studie, auf die sich die Zeitung bezieht, belegt dies jedoch nicht.
Die Daten zeigen, dass die Fischbiomasse steigt, wenn ein bestimmtes Jahr wärmer ist als das Vorjahr. Im wärmsten Jahr des Datensatzes stieg die durchschnittliche Biomasse um etwa 24 %. In kälteren Jahren sank die Biomasse um etwa 15 %.
Um jedoch die Klimadiskussion aufrechtzuerhalten, wechselt die Studie dann den Ansatz.
Anstatt zu untersuchen, was in realen Jahren geschieht, konstruiert sie einen jahrzehntelangen Temperaturtrend und führt ein statistisches Modell durch. Dieses Modell weist der Erwärmung einen negativen Koeffizienten zu und meldet einen durchschnittlichen Rückgang von etwa 7 % pro 0,1 °C pro Jahrzehnt, wobei unter bestimmten Annahmen größere Rückgänge auftreten.
Dies ist kein beobachteter Zusammenbruch. Es handelt sich um eine modellierte Zuordnung.
Entscheidend ist das Eingeständnis der Autoren, dass sie die Auswirkungen der Fischerei nicht von den Temperatureffekten trennen können. Die weltweiten Fischereibehörden betonen seit Jahren, dass Überfischung der Hauptgrund für den Rückgang der Fischbestände weltweit ist. Da der Fischereidruck in der Studie nicht berücksichtigt oder quantifiziert wird, hat das Modell keine andere Wahl als die langfristigen Biomasseverluste stattdessen auf die Temperaturtrends zu übertragen.
So bleiben wir mit einer Umkehrung der Beweislage zurück. Das beobachtete Ergebnis – wärmere Jahre bedeuten mehr Fisch – wird als „verschleiernder Schaden” abgetan. Das modellierte Ergebnis – langfristiger Rückgang aufgrund von Temperaturtrends – wird als Wahrheit behandelt.
So funktioniert Kausalität nicht.
Die Daten der Studie selbst zeigen das Gegenteil von dem, was behauptet wird, und die Journalisten von The Guardian sind zu dumm (/korrupt), um dies zu bemerken.
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kurzmeldungen aus Klima und Energie – Ausgabe 7 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wir haben nicht nur teuren Strom bekommen, sondern ein System aufgebaut, das diesen unvermeidlich macht.
[Auch das hier ist wohl ein Abbild für unser Land – nur dass die Deutschen vielleicht wie üblich noch gründlicher sind. A. d. Übers.]
Die meisten Amerikaner denken erst dann über Strom nach, wenn die monatliche Rechnung eintrifft.
Sie kommt einmal im Monat, oft unbemerkt, aber in letzter Zeit schlägt sie zu wie ein Schlag ins Gesicht. Die Heizkosten für Ihr Zuhause sind heute um Hunderte Dollar pro Monat höher als noch vor wenigen Jahren. Sie benutzen die gleichen Geräte. Sie betätigen die gleichen Schalter. Nichts in Ihrem Alltag hat sich geändert – außer dem Preis.
Warum?
Wenn man einen Blick in das Stromsystem wirft, hat man weniger das Gefühl, eine riesige Maschine zu analysieren, als vielmehr in eine hineingezogen zu werden, ähnlich wie in der unvergesslichen Szene aus „Modern Times“, in der Charlie Chaplins Fabrikarbeiter von der Maschine verschluckt wird, an der er arbeitet.
Der amerikanische Strommarkt wird nicht von einer „unsichtbaren Hand“ aus Angebot und Nachfrage gesteuert, sondern von einer Anhäufung von falsch ausgerichteten Regeln, die über Jahrzehnte hinweg festgelegt wurden. Schicht um Schicht wurden Vorschriften, Subventionen, Auflagen und Rechnungslegungsregeln hinzugefügt, bis das System in einer Aufwärtsbewegung und inflationären Tendenz feststeckte, unempfindlich gegenüber Veränderungsbemühungen.
Es gibt mindestens ein halbes Dutzend Umweltvorschriften des Bundes, die mehr mit steigenden Strompreisen zu tun haben als Tarife oder der Ausbau von Rechenzentren, und ein gutes Beispiel dafür ist die sogenannte „Construction Work in Progress“ (CWIP).
Wie ein neuer Themenüberblick deutlich macht, hat dies dazu beigetragen zu verändern, wer für die Infrastruktur Amerikas bezahlt.
Die wichtigste dieser Maßnahmen war die stille Übertragung des finanziellen Risikos von den Investoren auf die Öffentlichkeit. Vor den 1970er Jahren mussten Versorgungsunternehmen den Bau eines Kraftwerks abschließen, bevor sie ihren Kunden dafür Gebühren berechnen konnten. Wenn ein Unternehmen etwas bauen wollte, musste es das Risiko tragen. Investoren stellten das Geld zur Verfügung. Wenn das Projekt erfolgreich war, erzielten sie eine Rendite. Wenn es scheiterte, mussten sie den Preis dafür zahlen.
Während der Inflationskrise der 1970er Jahre wurde der Bau von Kraftwerken – insbesondere von Kernkraftwerken – jedoch erheblich teurer. Die Versorgungsunternehmen argumentierten, dass sie es sich nicht leisten könnten, Jahre zu warten, um ihre Kosten wieder hereinzuholen. In einer Zeit der Schwäche der Zivilgesellschaft begannen die staatlichen Regulierungsbehörden, den Versorgungsunternehmen zu erlauben, ihren Kunden bereits während der Bauphase der Kraftwerke Gebühren in Rechnung zu stellen.
CWIP hat das Investitionsrisiko dauerhaft von den Investoren auf die normale Bevölkerung verlagert. Heute können Sie Ihre Stromrechnung öffnen und für Projekte bezahlen, die noch nicht existieren und in Zukunft möglicherweise gestrichen werden.
Kein Bankier bei klarem Verstand würde solche Bedingungen freiwillig akzeptieren. Dennoch sind Millionen Amerikaner dazu gezwungen, dies jeden Monat zu tun, wenn sie von einem privaten Stromversorgungsunternehmen beliefert werden.
Dieses System hätte unbegrenzt unter der Wasserlinie funktionieren können, wenn es nicht mit der Revolution der erneuerbaren Energien der letzten 15 Jahre kollidiert wäre. Die Wind- und Solarstromerzeugung hat sich zwischen 2011 und 2020 vervierfacht und wird bis 2024 eine Rekordleistung erreichen.
Diese Energiequellen haben Vorteile, aber auch eine grundlegende Einschränkung: Sie erzeugen nicht ständig Strom.
Daher müssen Versorgungsunternehmen Backup-Systeme aufbauen. Zusätzliche Übertragungsleitungen. Zusätzliche Kapazitäten.
Keine dieser Redundanzen ist kostenlos. Jeder Kilometer Kabel, jede ungenutzte Reserveturbine, jede überteuerte und nicht ausgelastete Batteriespeichereinheit wird letztendlich unweigerlich auf der Rechnung des Kunden erscheinen.
Und dank Vorschriften wie CWIP können sie Ihnen diese Kosten in Rechnung stellen, während Sie warten.
Viele dieser Richtlinien entstanden aus aufrichtigen Motiven. Seit den 1970er Jahren und verstärkt in den folgenden Jahrzehnten gewann ein Netzwerk aus gemeinnützigen Anwaltskanzleien und Umweltverbänden enormen Einfluss darauf, wie Infrastrukturprojekte genehmigt werden.
Ihr Ziel war es, die Öffentlichkeit zu schützen. Aber im Laufe der Zeit kam es zu einer anderen Entwicklung.
Sie schufen ein System, in dem es einfacher war, Projekte zu stoppen als sie zu realisieren. Wobei Verzögerungen zur Strategie wurden. Wobei Gerichtsverfahren zur Routine wurden.
Jede Verzögerung erhöhte die Kosten. Jede Kostensteigerung rechtfertigte es, den Kunden früher die Kosten in Rechnung zu stellen. Jede Steigerung machte es einfacher, die nächste zu akzeptieren.
Selbst Autoren wie Ezra Klein von der New York Times – kaum ein Kritiker von Umweltzielen – haben begonnen, das Problem anzuerkennen. Er argumentiert, dass gut gemeinte Vorschriften den Aufbau der von der Gesellschaft benötigten Infrastruktur viel zu erschwert haben.
Die Leute halten dies für ein wichtiges Eingeständnis von Klein und seinesgleichen, aber das ist es nicht.
Diese „gut gemeinten Vorschriften” wurden einfach von einer früheren Generation von Ezra-Klein-Typen geschaffen, die sich für „Überfluss” einsetzten und überhaupt erst die auf öffentliches Interesse ausgerichteten Anwaltskanzleien und das System der NGO-Ablässe ins Leben gerufen haben.
Kleins Autopsie ergab lediglich, dass die Linke Dinge fördert, die ihr selbst ein gutes Gefühl geben, während sie die Welt verschlechtern, doch ihr sabbernder Idealismus schützt sie davor, die Scham über ihre gescheiterte Verantwortung zu spüren. Es ist ein kafkaesker Prozess am Werk, voller Orwell’scher Wortspiele, die alles blockieren. Es ist ein schmutziger, verdorbener, unfähiger Geist, der sich als etwas Edleres und Würdevolleres ausgibt.
Denn es geht nicht darum, ob die Ziele edel waren. Edle Absichten spielen keine Rolle. Es geht darum, dass die Ergebnisse zählen, und die Ergebnisse sind Misserfolge.
Es gibt jedoch ein Heilmittel – keinen technologischen Durchbruch, sondern etwas viel Besseres (wenn auch Selteneres) in Washington: legislative Klarheit.
Ein vielversprechender Ansatz sind Gesetze wie der „Affordable, Reliable, Clean Energy Security Act” (Gesetz für bezahlbare, zuverlässige und saubere Energieversorgung) von Troy Balderson. Der Gesetzentwurf zielt darauf ab, Schlüsselbegriffe wie „bezahlbar”, „zuverlässig” und „sauber” klarer zu definieren, um sicherzustellen, dass Investitionsrisiken nur auf kosteneffiziente Infrastrukturprojekte beschränkt bleiben.
Durch die Anerkennung der Rolle von regelbaren Ressourcen wie Erdgas und Kernkraft würde die Gesetzgebung auch dazu beitragen, dass das Stromnetz die für das moderne Leben erforderliche Zuverlässigkeit aufrechterhält und gleichzeitig die Standards des Clean Air Act erfüllt.
Diese Reformen würden Strompreiserhöhungen nicht von heute auf morgen beseitigen, aber sie würden beginnen, eine der Ursachen anzugehen: ein System, in dem Anreize zunehmend von den Interessen der Kunden abweichen.
Strom ist kein Luxus. Er ist eine Notwendigkeit, die das Wirtschaftswachstum, die öffentliche Sicherheit und die Stabilität der Haushalte untermauert. Um seine Bezahlbarkeit zu gewährleisten, braucht es mehr als nur Versprechungen. Es bedarf einer Politik, die effiziente Investitionen fördert, Risiken angemessen verteilt und die Zuverlässigkeit aufrechterhält.
Vor allem aber muss man sich an ein Grundprinzip erinnern, das einst das Wachstum in Amerika geprägt hat: Man sollte für Dinge bezahlen, wenn sie funktionieren.
Nicht vorher.
Solange dieses Prinzip nicht wieder gilt, werden die Stromrechnungen weiter still und leise steigen, und die Amerikaner werden sich weiterhin fragen, warum das moderne Leben schwerer zu finanzieren ist als früher.
This article originally appeared at RealClear Energy
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wir haben nicht nur teuren Strom bekommen, sondern ein System aufgebaut, das diesen unvermeidlich macht. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Ein Blizzard von Klimawandel-Wahn und -Täuschung
Vorbemerkung des Übersetzers: Natürlich schreibt der Autor hier über die jüngsten Wetterereignisse in den USA. Die Art und Weise jedoch, wie dort damit umgegangen wird, lässt sich ohne Weiteres auf unser Land übertragen, weshalb das hier (in leicht gekürzter Form) übersetzt wird. – Ende Vorbemerkung
Dies ist das Gesicht, das ich als Beispiel für diesen Titel gewählt habe. Es gäbe noch so viele andere, aber Kathy Hochuls kleine Rede über den Schneesturm zeugt von einer solchen Ignoranz, dass man darüber nur lachen kann. Wenn sie nicht von so vielen Menschen geschluckt würde, die solche Leute in Ämter wählen.
In dem Clip sagt sie, dass die Leute das, was gerade passiert ist, mit dem Buffalo Blizzard von 1977 vergleichen. Wie ahnungslos kann sie sein? 1) New York ist bekannt für See-Effekte. Hat sie jemals von Oswego gehört und was dort 1966 passiert ist? Hier ist eine Lektion für sie. Sie ist die Gouverneurin.
Der Blizzard von 1966 war ein schwerer Schneesturm, der vom 29. Januar bis zum 1. Februar Oswego, New York, und die umliegenden Gebiete heimgesucht hat. Er brachte über 250 cm Schnee und verursachte erhebliche Beeinträchtigungen, darunter Straßensperrungen und Todesfälle.
Es ist unglaublich ignorant, dies mit Buffalo im Jahr 1977 zu vergleichen, da der größte Teil dieses Schnees nie vom Himmel gefallen ist! Ein gefrorener See kann keinen See-Effekt verursachen, daher hier die Erklärung, was passiert ist:
Ein Großteil der massiven Schneemengen während des Buffalo Blizzard von 1977 (28. Januar bis 1. Februar) stammte von starken Winden, die pulvrigen Schnee von der gefrorenen Oberfläche des Eriesees aufwirbelten und an Land trieben.
Sie hat also nicht nur keine Ahnung, mit welchen Stürmen sie diesen vergleichen könnte, sondern der Sturm, den sie heranzieht, hat auch nichts mit dem zu tun, was tatsächlich passiert ist. Mein Unternehmen hat sich eine Woche lang darauf gestürzt und für alle, die zugeschaut haben, eine analoge Methode mit sechs großen Februarstürmen angewendet und diese damit verglichen.
Außerdem gehört dieser Sturm nicht einmal zu den fünf stärksten Stürmen in NYC.
[27.5 Inches ≈ 70 cm; 20 Inches ≈ 50 cm]
Auch in Boston nicht:Es gab sechs Analogien, die wir zur Erstellung dieses Sturms verwendet haben, vier davon sind in der obigen Grafik dargestellt. Ich habe die sechs stärksten Stürme im Februar an einem bestimmten Ort herangezogen und die entsprechende Strömung im 500-hPa-Niveau dargestellt:
Beachten Sie den negativen Wert nahe der mittleren Atlantikküste, den positiven Wert nördlich davon und die Tiefdruckrinne vor der Westküste.
Das Modell hat genau das getroffen:
WAS GLAUBEN SIE, WAS PASSIERT, WENN SIE EINE AUSWAHL VON STÜRMEN AUS DEM JAHR 1958, EINIGE AUS DEN 60ER UND 70ER JAHREN UND NUR EIN PAAR AUS DEN LETZTEN 15 JAHREN BETRACHTEN? Glauben Sie wirklich, dass die Gouverneurin von New York sich das am vergangenen Wochenende angesehen hat? Oder die anderen Propagandisten, die aus ihren Löchern gekrochen kommen? Sie haben keine Ahnung, was vor sich geht, bis es offensichtlich ist, und sie können es für ihre falsche Klimakriegs-Agenda nutzen. Erstaunlich ist, dass es ihnen egal ist, wenn ihre Unwissenheit durch Fallen wie diese aufgedeckt wird. Sie sind so zuversichtlich, dass die Menschen ihre Täuschung schlucken und sie nicht entlarven, dass sie es trotzdem tun. Das bedeutet, wenn eine andere Regierung an die Macht kommt, sind sie sofort wieder da. Nur dass sie diesmal den Rest des Landes ruinieren werden, so wie sie es mit ihren Bundesstaaten getan haben. ES IST IHNEN EGAL.
Glauben Sie, dass einer der Klimagenies, die hier eine Flut von Lügen und Täuschungen verbreiten (die beeindruckender ist als der Sturm selbst), 3–4 Tage zuvor beobachtet hat, ob es in Los Angeles regnen würde? Diese Regel wurde in den 1980er Jahren von Dave Weinbrenner im NWS Medium Range Forecast Office entwickelt. Wenn Schneefans wie ich sehen, dass kalte Luft kommt und es in Los Angeles (LAX) regnet, wissen wir, dass wir aufpassen müssen. Denn das Wetterphänomen muss sehr viel Energie haben, um in Los Angeles Regen zu verursachen, und wenn es innerhalb von drei Tagen das ganze Land überqueren kann, wird es in den meisten Fällen schneien. WeatherBELL war dem ersten großen Sturm im Januar weit voraus, und als ich sah, dass es in LAX zu regnen begann, war ich mir sicher, dass die von uns vorhergesagte Sonderwetterlage von DC bis Boston eintreten würde! (In DC war es nicht so besonders, aber überall sonst war es genau so, wie vorhergesagt, und sogar noch mehr.) Der Sturm in der Woche zuvor war also ein Reinfall. Drei Tage zuvor hatte es in Los Angeles nicht geregnet.
Sehen Sie sich hier das Niederschlagsmuster mit der oben gezeigten analogen Karte der sechs großen Stürme im Februar an:
Und was ist damit passiert:
Ist das also der Klimawandel? Und was ist mit dem Sturm in der Woche davor, der sich in Luft aufgelöst hat?
Beides sind einfach gute, altmodische, klassische Meteorologie.
Und dann gab es noch die warmen Wirbel vor der Ostküste. Wir haben sie ausdrücklich gezeigt und gesagt, dass der Sturm von einem zum anderen ziehen und sich dort erheblich verstärken würde:
Was er auch ganz sicher getan hat.
Es stimmt, Rhode Island hatte den schlimmsten Sturm aller Zeiten. Aber er reichte nicht an einen der analogen Stürme heran, die ich im Februar 2013 herangezogen habe!
Der Klimawandel, schreien sie, habe dies verursacht. Wirklich? Sehen Sie sich an, wie KALT DAS WASSER ÜBERALL IST, DENN DIESE LEUTE WISSEN NICHT, DASS ES IN DEN LETZTEN ZWEI JAHREN IM NORDWESTATLANTIK ZU EINER STARKEN ABKÜHLUNG GEKOMMEN IST! Die jüngste starke Entwicklung Ende Januar 2022 war von warmem Wasser umgeben.
Aber dieses Jahr ist das nicht der Fall.
Diese bedeutende Veränderung hat übrigens wahrscheinlich wie ein Magnet kalte Luft nach Neuengland gezogen und könnte ein Hinweis darauf sein, dass die Atlantische Multidekadische Oszillation ihre Phase wechselt, wie es alle 30 bis 40 Jahre auf natürliche Weise geschieht.
Aber es handelt sich nicht um einen vom Menschen verursachten Klimawandel, und man kann argumentieren, dass die verstärkten Temperaturgradienten durch das kalte Wasser rund um die warmen Stellen dazu geführt haben, dass die Energie des Sturms stärker gebündelt wurde. Was für ein Witz, die Abkühlung hat zur Verstärkung des Sturms beigetragen.
Wenn ich also höre, dass dies genau das ist, was sie erwartet haben, dann sage ich: NEIN, DAS IST ES NICHT. Sie haben darüber geredet, wie warm das Wasser ist, was hier ganz offensichtlich nicht der Fall ist!
Außerdem gab es Dutzende von Stürmen, die sich nicht entwickelt haben. In den 1970er Jahren sangen wir im Wetterturm der PSU (in den Tagen der echten Wetterfreaks) ein Lied namens „Bomb-o-Genesis off the southeastern U.S.“ Ich erinnere mich sogar noch daran, als ich es zum ersten Mal hörte, während des Schnee- und Eissturms an der Ostküste im Dezember 1973. Ich war erstaunt, wie ähnlich dieser Sturm dem Sturm vom 2. bis 4. März 1960 war. Der hatte übrigens einen Druckfall auf 960 mb, also noch stärker als dieser.
Auch dies ist nur eines von vielen Beispielen, die ich anführen könnte.
Diese Leute behaupten, dass alles auf den Klimawandel zurückzuführen ist. The Divine Miss M vor 9 Jahren:
Sie hätte besser den Mund gehalten (aber das tun sie nie), denn am 6. März war es 13 Grad mild, bevor ein Schneesturm Mitte des Monats Schnee auf dem Boden für den St. Patrick’s Day fallen ließ.
Aber das tun sie nie, sie werden in ein paar Wochen über die Wärme schwadronieren, und wenn es dann im März und Anfang April kälter wird, werden sie auch darüber schwadronieren.
Und diese Art von wahnsinnigem Eifer bedeutet, dass sie nicht verschwinden werden. Dass sie Wetter und Klima in ihre agenda-getriebene Politik hineinziehen, ist für jemanden wie mich, der das Wetter seit seiner frühesten Kindheit liebt, eine besondere Art von Übel.
Ich wünschte, sie würden in dieser Angelegenheit verschwinden, aber das werden sie nicht. Sie werden noch mehr darauf setzen und noch mehr lügen. Eine Vorhersage, auf die man sich verlassen kann.
Link: https://www.cfact.org/2026/02/25/a-blizzard-of-climate-delusion-and-deceit/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Ein Blizzard von Klimawandel-Wahn und -Täuschung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Energie-Dominanz 2.0: Ausgabe Flüssiggas LNG
- LNG = Liquified Natural Gas
- mcf = thousand cubic feet
- mmcf = million cubic feet
- Bcf = billion cubic feet
- Tcf = trillion cubic feet
- mmBTU = million BTU, generally equivalent to mcf
- bbl = Barrel – Standard measurement of crude oil. 1 bbl = 42 gallons
- BOE = Barrels of Oil Equivalent. The energy 6 Bcf of natural gas is roughly equivalent to 1 million bbl of crude oil
Vor neun Jahren, als die LNG-Exporte der USA noch in den Kinderschuhen steckten, verfasste ich diesen Beitrag: Can the U.S. Become the Saudi Arabia of Natural Gas?
Im April 2017 stellte ich fest, dass die Gesamtkapazität der bestehenden, im Bau befindlichen, genehmigten und geplanten LNG-Exportanlagen 44 Milliarden Kubikfuß pro Tag (Bcf/d) betrug. Dies entspricht einer Energieäquivalenz von 7,8 Millionen Barrel Rohöl pro Tag (mmBOE/d). Zu dieser Zeit exportierte Saudi-Arabien etwa 7,4 mmbbl/d.
Nun, die USA sind weiterhin auf dem besten Weg, das Saudi-Arabien des Erdgases zu werden…
Vor zehn Jahren, am 24. Februar 2016, wurde die erste Flüssiggasladung (LNG) vom Sabine Pass Terminal aus den Vereinigten Staaten exportiert, was den Beginn einer neuen Ära für US-amerikanische LNG-Exporte markierte. Heute sind die Vereinigten Staaten der weltweit größte LNG-Exporteur, noch vor Australien und Katar. Die LNG-Exporte stiegen von 0,5 Milliarden Kubikfuß pro Tag (Bcf/d) im Jahr 2016 auf 15,0 Bcf/d im Jahr 2025, und in unserem Kurzfristigen Energieausblick vom Februar prognostizieren wir, dass die US-LNG-Exporte im Jahr 2027 18,1 Bcf/d überschreiten werden. Die LNG-Exporte aus den Vereinigten Staaten stiegen aus mehreren Gründen, darunter reichliche Erdgasvorräte und –reserven, flexible LNG-Exportverträge und relativ niedrige Feedgas-Kosten. Darüber hinaus haben die steigende internationale Nachfrage und ein günstiges Investitionsklima den Ausbau der LNG-Infrastruktur in den Vereinigten Staaten unterstützt. – EIA
18.1 Bcf/d = 3.2 mmBOE/d
Datenquelle: US-Energieinformationsbehörde, Kurzfristige Energieprognose, Februar 2026 (EIA)
Die EIA geht davon aus, dass sich diese Kapazität bis 2031 verdoppeln wird…
Die Vereinigten Staaten verfügen über acht operative LNG-Exportterminals, und bis 2031 erwarten wir eine fast doppelt so hohe Exportkapazität wie im Dezember 2025. Zuletzt wurde im März 2025 die erste Ladung aus der erweiterten LNG-Anlage in Corpus Christi verschifft, nachdem Ende Dezember 2024 die LNG-Anlage in Plaquemines in Betrieb genommen worden war. Golden Pass LNG wird voraussichtlich Anfang 2026 seine erste Ladung auf den Weg bringen. – EIA
Dadurch könnten die LNG-Exporte in nur fünf Jahren bis 30 Bcf/d (5,3 mmBOE/d) steigen. Die derzeitige Gesamtkapazität der bestehenden und im Bau befindlichen Anlagen beträgt 33,67 Bcf/d (5,95 mmBOE/d). Weitere 10,25 Mrd. Kubikfuß pro Tag (1,81 Mio. Barrel Öläquivalent pro Tag) an Exportkapazität sind derzeit für den Bau genehmigt. In den meisten Fällen ist die FEED (Front-End-Engineering-Design) abgeschlossen und die Bauaufträge wurden vergeben. Damit würde sich die gesamte LNG-Exportkapazität auf 43,92 Mrd. Kubikfuß pro Tag (7,76 Mio. Barrel Öläquivalent pro Tag) erhöhen.
Können die USA genug Erdgas fördern, um 44 Mrd. Kubikfuß pro Tag zu exportieren?
Ohne ins Schwitzen zu kommen…
7. November 2025
Drei Regionen der USA fördern jeweils mehr Erdgas als die meisten Länder.
Datenquelle: U.S. Energy Information Administration, International Energy Outlook und Short-Term Energy Outlook
• Die Vereinigten Staaten förderten 104 Milliarden Kubikfuß pro Tag (Bcf/d) Erdgas, 75 % mehr als der zweitgrößte Erdgasproduzent der Welt Russland im Jahr 2023, dem letzten Jahr, für das uns umfassende weltweite Daten zur Erdgasförderung vorliegen.
• Die Vereinigten Staaten sind seit 2009 der weltweit größte Erzeuger von Erdgas. In jüngerer Zeit ist die Erdgasproduktion in den USA weiter gestiegen und lag im ersten Halbjahr 2025 (1H2025) bei durchschnittlich 106 Bcf/d.
• Drei Regionen in den Vereinigten Staaten gehören zu den zehn größten Erdgasfördergebieten der Welt, wenn sie unabhängig von anderen Erdgasförderländern bewertet werden:
◦ Die Region Appalachen im Nordosten der Vereinigten Staaten umfasst die Schiefervorkommen Marcellus und Utica und war 2023 mit 33 Bcf/d der zweitgrößte Förderstandort. In jüngerer Zeit lag die Erzeugung aus dieser Region im ersten Halbjahr 2025 weiterhin bei durchschnittlich 33 Bcf/d.
◦ Die Permian-Region in Texas und New Mexico lag 2023 mit 21 Bcf/d weltweit an fünfter Stelle. Seitdem ist die Förderung aus dem Permian-Becken auf durchschnittlich 25 Bcf/d im ersten Halbjahr 2025 gestiegen.
◦ Die Region Haynesville in Texas, Louisiana und Arkansas lag 2023 mit 15 Bcf/d auf Platz acht der größten Erdgasfördergebiete. Die Förderung aus Haynesville ist leicht zurückgegangen und lag im ersten Halbjahr 2025 bei durchschnittlich 14 Bcf/d.
Braun = Jahresproduktion (mmcf). Blau = Jahresverbrauch (mmcf). Grün = Nachgewiesene Reserven (Bcf). EIA
Im Jahr 2024 betrug die vermarktete Förderung 41.383.893 mmcf (41.384 Bcf, 113 Bcf/d), der Inlandsverbrauch 33.055.901 mmcf (33.056 Bcf, 91 Bcf/d). Die Erzeugung überstieg den Verbrauch um etwa 21 Bcf/d. Zum Jahresende 2024 beliefen sich die nachgewiesenen Reserven auf 603,6 Billionen Kubikfuß (Tcf)… Das Verhältnis von Reserven zu Produktion (R/P) betrug 14,5.
LNG-Exporte treiben die Erdgaspreise in die Höhe… Richtig?
Falsch!
Die Erdgaspreise waren viel höher, bevor wir mit dem Export von Flüssigerdgas begonnen haben.
Vor der „Schieferrevolution“ waren wir Netto-Importeur von Erdgas.
Blau = Erdgaspreis ($/mcf). Braun = Erdgasimporte (mmcf). Grün = Erdgasexporte (mmcf). EIA
Die USA können LNG exportieren, ohne die Preise in die Höhe zu treiben, da wir weit mehr Erdgas erzeugen, als wir verbrauchen, und die Differenz zwischen Produktion und Verbrauch immer größer wird. MANGGA!!!
Nun zum Gnadenstoß!
Saudi-Arabiens neuer LNG-Vertrag mit den USA markiert eine erstaunliche geopolitische KehrtwendeSimon Watkins
Montag, 23. Februar 2026
Die Unterzeichnung eines 20-Jahres-Vertrags zwischen dem US-Gasproduzenten Caturus, Abteilung Commonwealth Liquefied Natural Gas (LNG), und der saudischen Aramco über die Lieferung von einer Million Tonnen LNG pro Jahr ist sowohl innerhalb als auch außerhalb des Energiemarktes von enormer Bedeutung. In einer Zeit, in der LNG zum flexibelsten Instrument der Energiepolitik weltweit geworden ist, könnte die Entscheidung von Aramco, sich für zwei Jahrzehnte die Versorgung aus den USA zu sichern, auf eine tiefgreifende geopolitische Neuausrichtung in Riad hindeuten. Für Washington bietet der Vertrag hingegen eine seltene Gelegenheit, seinen Einfluss in einer Region wieder zu festigen, in der China und Russland in den letzten zehn Jahren rasch Fuß gefasst haben.
[…]
Für Washington bedeutet dieser jüngste LNG-Liefervertrag mit Saudi-Arabien eine außergewöhnliche Umkehrung seiner bisherigen Energieabhängigkeit vom Königreich. Seit dem Ende des Ölpreiskriegs 2014-2016 sind die USA nicht nur mit großem Abstand zum weltweit führenden Rohölproduzenten geworden, sondern auch zum größten Erdgas- und LNG-Produzenten. In einer Ironie, die Präsident Trump wohl nicht entgehen dürfte, unterstützen US-Unternehmen Saudi-Arabien seit etwa 2019 bei der Erschließung seines bahnbrechenden Schiefergasvorkommens in Jafurah.
[…]
Saudi Aramco kauft US-Flüssiggas!
Link: https://wattsupwiththat.com/2026/02/26/energy-dominance-2-0-lng-edition/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Energie-Dominanz 2.0: Ausgabe Flüssiggas LNG erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Grönland-Erwärmung endete nach 2012
Cap Allon
Einem kürzlich in Communications Earth & Environment veröffentlichten Artikel zufolge erreichte die Erwärmung Grönlands im Sommer um 2012 ihren Höhepunkt und dann in den 2010er Jahren weitgehend zum Stillstand kam, wobei der größte Treiber die natürliche Variabilität durch sich verändernde Wetterlagen war – und nicht durch CO₂.
Die Studie verfolgt die Sommertemperaturen über Grönland im 700 hPa-Niveau (etwa 3000 m), einer Höhe, die eng mit der Variabilität der Schneeschmelze verbunden ist. In den Reanalyse-Daten erreichen die Temperaturen 2012 ihren Höchststand und steigen dann in den folgenden zehn Jahren nicht noch weiter.
Die Autoren bringen diesen Stillstand mit einer Veränderung im Verhalten des Pazifiks in Verbindung: El-Niño-Ereignisse im „zentralen Pazifik” sind häufiger aufgetreten als klassische El-Niño-Ereignisse, wodurch sich die tropischen Niederschläge verschoben haben und ein atmosphärisches Wellenmuster entstanden ist, das eine stärkere zyklonale Strömung über Grönland begünstigt. Eine stärkere zyklonale Strömung bedeutet weniger anhaltende Blockierungen, mehr Bewölkung und eine weniger anhaltende Sommererwärmung über der Eisdecke.
Ein weiteres wichtiges Problem wird ebenfalls hervorgehoben: Klimamodelle haben Schwierigkeiten, die natürlichen Schwankungen Grönlands nachzubilden.
In ihren Modellversuchen lassen sich die jüngsten Temperaturänderungen in Grönland ohne moderne Treibhausgasemissionen erklären, was darauf hindeutet, dass natürliche Schwankungen einen Großteil, wenn nicht sogar den gesamten Einfluss ausmachen.
Eine zweite Studie (aus dem Jahr 2024) kommt zu dem Ergebnis, dass die Landtemperaturen in Grönland insgesamt weitgehend stabil waren, mit einem inselweiten Trend von etwa -0,055 °C pro Jahrzehnt (-0,099 °F pro Jahrzehnt) und Konfidenzintervallen, die den Wert Null einschließen (keine statistisch signifikante Veränderung).
Grönland folgt keinem einfachen Muster der „stetigen Erwärmung“. Die Sommertemperaturen erreichen je nach Zirkulation über Jahre hinweg Spitzenwerte, stagnieren oder sinken. In einzelnen Jahren kann es zwar immer noch zu einem Anstieg der Schmelze kommen, aber das ist kein Beweis für einen anhaltenden, gleichmäßigen Erwärmungstrend.
Und in diesem Jahr (2026) verzeichnet die Insel Rekordkälte.
Am Mittwoch (25. Februar 2026) wurde in Summit eine Tiefsttemperatur von -65,3 °C gemessen, nur 2 °C unter dem Februar-Rekord der Station. Laut DMI könnten noch vor Ende der Woche noch tiefere Werte gemessen werden, die möglicherweise den historischen Tiefstwert der nördlichen Hemisphäre von -69,6 °C vom 22. Dezember 1991 gefährden könnten.
Link: https://electroverse.substack.com/p/final-snow-totals-missing-greenland?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Grönland-Erwärmung endete nach 2012 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Globale Eliten, die an grüner Politik festhalten, haben keine Ahnung
Die globalen Eliten, die an „grüner“ Politik festhalten, können nicht erklären, wie die mehr als 341.000 Windturbinen, die derzeit auf der Erde stehen, Folgendes bewirken werden:
• Die mehr als 6.000 Produkte in unserem materialistischen Alltag, die es vor dem 19. Jahrhundert noch nicht gab und die die Anforderungen der Lieferketten von Krankenhäusern, Flughäfen, Telekommunikationsunternehmen, Haushaltsgeräten, Elektronik, sanitären Einrichtungen und Heizungs- und Lüftungssystemen erfüllen, die unseren heutigen Lebensstil ermöglichen.
• Die Kraftstoffe für den Transport, die den Bedarf an Schwerlast- und Langstreckentransporten von mehr als 50.000 Jets für den Personen- und Güterverkehr, mehr als 50.000 Handelsschiffen für den globalen Warenverkehr sowie dem Militär- und Raumfahrtprogramm zur Unterstützung unseres Lebens, wie wir es kennen, decken.
Windkraftanlagen erzeugen lediglich Strom, können jedoch keine Produkte für das Leben herstellen, wie wir es kennen.
Die Weltbevölkerung ist in weniger als 200 Jahren von einer auf acht Milliarden Menschen gestiegen dank der mehr als 6.000 Produkte und Kraftstoffe, die aus fossilen Brennstoffen hergestellt werden.
[Hervorhebung im Original]
Heute leben wir in einer materialistischen Gesellschaft. Wind- und Sonnenenergie können keine Elektrofahrzeuge oder andere Produkte oder Kraftstoffe herstellen, die aus fossilen Brennstoffen gewonnen werden und Folgendes unterstützen:
• Krankenhäuser
• Flughäfen
• Militär
• Medizinische Geräte
• Telekommunikation
• Kommunikationssysteme
• Raumfahrtprogramme
• Haushaltsgeräte
• Elektronik
• Sanitäranlagen
• Heizung und Lüftung
• Transport – Fahrzeuge, Schiene, See- und Luftverkehr
• Bauwesen – Straßen und Gebäude
• Fast die Hälfte der Weltbevölkerung ist auf synthetische Düngemittel aus fossilen Brennstoffen angewiesen
Mit Hilfe von Krankenhäusern, Ärzten und Medikamenten stieg die Lebenserwartung in diesen 200 Jahren von 40 auf über 75 Jahre.
Windkraftanlagen und Solarzellen können nur Strom erzeugen, aber keine der Produkte oder Kraftstoffe herstellen, die aus fossilen Brennstoffen gewonnen werden und das moderne Leben ermöglichen.
Elektroautos und Fahrzeuge mit Verbrennungsmotor sind praktisch identisch, d. h. Reifen, Isolierung, Kabel, Elektronik, Glas usw. werden alle aus fossilen Brennstoffen hergestellt.
Die wichtigsten Mineralien für EV-Batterien stammen hauptsächlich aus Bergbaubetrieben in China und Afrika, in denen Arbeiter ausgebeutet werden. Daher argumentiert das für den Pulitzer-Preis nominierte Buch „Clean Energy Exploitations“, dass es unethisch und unmoralisch ist, China und Afrika finanziell dazu zu ermutigen, weiterhin Arbeiter auszubeuten und diesen Entwicklungsländern Umweltschäden zuzufügen, nur damit die reichen Länder „grün“ werden können.
Im Kongo wurden Kobaltminen, in denen Kinder ausgebeutet werden, in diesem 6-minütigen Video von SKY NEWS dokumentiert.
Die Kosten für die Installation von Windkraftanlagen und Sonnenkollektoren hängen stark von den Materialien ab, die für den Bau dieser erneuerbaren Energien benötigt werden. Diese stammen oft von Menschen, die in China und Afrika in Armut arbeiten und Materialien verwenden, die mit Kinderarbeit in Minen und Anlagen mit minimalen oder gar keinen Sicherheits- und Umweltschutzmaßnahmen gewonnen werden.
Es gibt eine „Doppelmoral“ bei der Rückgewinnung von privat finanzierten Projekten im Vergleich zu staatlich finanzierten Projekten. Raffineriegelände müssen in ihren ursprünglichen Zustand zurückversetzt werden, während ausgefallene Windkraftanlagen einfach aufgegeben oder auf Mülldeponien entsorgt werden.
Elektrizität entstand nach den fossilen Brennstoffen, da alle Teile und Komponenten (Kabel, Isolierung, Computer, Glas) zur Stromerzeugung aus Kohle, Erdgas, Wasserkraft, Kernkraft, Wind oder Sonne aus fossilen Brennstoffen hergestellt werden.
Die heutigen Transportmittel, Lastwagen, Flugzeuge und Containerschiffe kamen nach den fossilen Brennstoffen auf, da alle Teile und Komponenten für den Bau dieser Fahrzeuge, Lastwagen, Flugzeuge und Schiffe aus fossilen Brennstoffen und Transportkraftstoffen hergestellt werden, um sie zu bewegen.
Die Abschaffung fossiler Brennstoffe würde die Stromversorgung, den Verkehr und die Infrastruktur erheblich beeinträchtigen, die es vor 200 Jahren noch nicht gab.
Net Zero ist für die mehr als sechs Milliarden in Armut lebenden Menschen auf diesem Planeten nicht bezahlbar.
• Nach der Festnahme von Nicolás Maduro durch die USA Anfang Januar 2026 war Venezuela in den letzten Wochen häufig in den Schlagzeilen.
• Besonders interessant ist, dass heute mehr als 90 Prozent der 30 Millionen Venezolaner, also 27 Millionen Menschen, in Armut leben. Fast 70 Prozent sind in extremer Armut gefangen. Schockierenderweise leben 80 Prozent der acht Milliarden Menschen auf der Erde, also mehr als sechs Milliarden, von weniger als 10 Dollar pro Tag. Die 27 Millionen Venezolaner machen nur etwa 5 Prozent dieser sechs Milliarden Menschen aus, die weltweit in Armut leben.
In armen Ländern sterben jedes Jahr Millionen von Menschen in Armut durch:
• Luftverschmutzung in Innenräumen, weil sie Holz, Holzkohle, Gras und Dung verbrennen müssen, weil sie kein Erdgas, Propan oder Strom zum Kochen und Heizen haben.
• Bakterien und Parasiten in ihrem Wasser und ihren Lebensmitteln, weil sie keinen Strom, keine Wasseraufbereitung und keine Kühlmöglichkeiten haben.
• Malaria und andere Krankheiten, weil ihre minderwertigen Kliniken und Krankenhäuser weder über Strom, sauberes Wasser, ausreichende Impfstoffe und Antibiotika noch über Fliegengitter verfügen.
Um bezahlbaren Strom zu gewährleisten befinden sich derzeit 460 Kohlekraftwerke im Bau. Weitere 500 wurden genehmigt oder stehen kurz vor der Genehmigung, und voraussichtlich werden noch 260 neue Kraftwerke angekündigt werden. Der Großteil dieser Aktivitäten findet in China und Indien statt.
Bevor wir den Planeten von fossilen Brennstoffen befreien, müssen wir einen tragfähigen Ersatz finden, um die Lieferkette für Produkte und Kraftstoffe zu sichern, die heute von allen Infrastrukturen benötigt werden, die es vor 200 Jahren noch nicht gab. Windkraftanlagen können nichts produzieren.
[Hervorhebung im Original]
Diese Tatsache negiert nicht die Bedeutung der Verantwortung für die Umwelt. Vielmehr unterstreicht sie die Notwendigkeit pragmatischer Rahmenbedingungen, die gleichzeitig die Abhängigkeit von Rohstoffen, die Energiesicherheit und den globalen Wohlstand berücksichtigen. Nachhaltiger Fortschritt darf nicht auf Ideologie basieren, sondern muss auf realistischen Übergängen beruhen, die die Grundlagen der modernen Zivilisation bewahren und gleichzeitig die Umweltbilanz verbessern.
Ronald Stein, P.E. is an internationally published columnist and energy consultant, and a policy advisor for The Heartland Institute.
Link: https://heartland.org/opinion/global-elites-clinging-to-green-policies-are-clueless/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Globale Eliten, die an grüner Politik festhalten, haben keine Ahnung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Überraschende Entdeckung: Die Sahara wird grüner … Milliarden von Bäumen wachsen dort, wo man einst nur Ödland vermutete.
Satellitenbilder bestätigen: Die Sahara-Wüste ist geschrumpft – ein Beweis für einen echten ökologischen Wandel
Jahrzehntelang ging es in den Berichten über die Sahara um eine unaufhaltsame Wüstenbildung – eine riesige, trockene Landschaft, die langsam alles verschlingt, was ihr im Weg steht, wie Alarmisten in Europa gewarnt haben.
Jüngste wissenschaftliche Erkenntnisse zeichnen jedoch ein viel hoffnungsvolleres und komplexeres Bild. Dank fortschrittlicher Satellitentechnologie und künstlicher Intelligenz haben Forscher etwas Bemerkenswertes entdeckt: Die Ränder der Sahara und die Sahel-Zone ergrünen signifikant.
Der längere Artikel ist auf Deutsch, die Lektüre ist zu empfehlen. Pierre Gosselin hat hier aber eine so gute Zusammenfassung desselben verfasst, dass sie hier übersetzt wird. A. d. Übers.
Ein echter ökologischer Wandel
In der Vergangenheit waren Satellitenbilder oft zu „unscharf“, um einzelne Bäume in trockenen Regionen zu erkennen. Die spärliche Vegetation wurde häufig übersehen, was zu einer Unterschätzung der tatsächlichen Biomasse führte.
Mithilfe hochauflösender Satellitendaten und Deep-Learning-Algorithmen ist es Wissenschaftlern nun gelungen, einzelne Bäume und Sträucher zu zählen. Die Ergebnisse sind verblüffend: In Gebieten, die bisher als weitgehend unfruchtbar galten, gibt es Milliarden Bäume. Dies ist nicht nur eine Korrektur alter Daten, sondern ein Beweis für einen echten ökologischen Wandel.
Warum wird die Wüste grüner?Mehrere Faktoren treiben diesen „Begrünungseffekt“ in der größten heißen Wüste der Welt voran. Erstens sind in bestimmten Regionen der Sahelzone die Niederschlagsmengen in den letzten Jahrzehnten gestiegen.
Zweitens der CO₂-Düngungseffekt: Während steigende CO₂-Werte als einer der Haupttreiber des Klimawandels gelten, sind sie zweifellos ein wirksamer Dünger für Pflanzen. Höhere CO₂-Konzentrationen ermöglichen es Bäumen, Wasser effizienter zu nutzen. Sie können ihre Poren (Stomata) teilweise geschlossen halten, um Verdunstung zu verhindern.
Drittens haben Veränderungen in der Häufigkeit von Bränden in diesen Regionen dazu geführt, dass junge Bäume nun auswachsen können anstatt in einem frühen Stadium zerstört zu werden.
Warum ist das bedeutsam?Diese Erkenntnisse haben tiefgreifende Auswirkungen auf unseren Planeten: Mehr Bäume bedeuten, dass mehr Kohlendioxid aus der Atmosphäre gebunden wird. Bäume spenden Schatten, verringern die Bodenerosion und tragen dazu bei, die Feuchtigkeit im Boden zu halten, wodurch die Umwelt für die lokalen Gemeinschaften lebenswerter wird.
Darüber hinaus unterstützt eine grünere Landschaft eine größere Vielfalt an Insekten, Vögeln und Säugetieren und stärkt so das lokale Ökosystem.
Dies erinnert uns daran, dass die Natur widerstandsfähig ist und dass sich unser Verständnis der Ökosysteme der Erde ständig weiterentwickelt. Die Wüste ist nicht nur ein Ort voller Sand und Hitze – sie ist ein Ort verborgenen Lebens, das sich diesen Lebensraum langsam wieder zurück erobert.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Überraschende Entdeckung: Die Sahara wird grüner … Milliarden von Bäumen wachsen dort, wo man einst nur Ödland vermutete. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Energie-Dominanz 2.0: Flüssiggas-Edition, Teil zwei
Der überwiegende Teil (85 %) der 2025 gebauten Pipelinekapazität wird Erdgas aus Haynesville zu den LNG-Exportterminals an der Golfküste transportieren.
25. Februar 2026
Die meisten im Jahre 2025 gebauten Erdgasleitungen verbinden den Süden und die Mitte der Vereinigten Staaten für die Versorgung.
Datenquelle: US-Energieinformationsbehörde, US-Tracker für Erdgas-Pipeline-Projekte Hinweis: Die Regionen basieren auf den Erdgasspeicherregionen der EIA, wobei die Region Ost in die Regionen Nordost und Südost unterteilt ist.
Laut unserem kürzlich aktualisierten Natural Gas Pipeline Projects Tracker haben die 2025 in den Vereinigten Staaten fertiggestellten Erdgas-Pipeline-Projekte die Kapazität um etwa 6,3 Milliarden Kubikfuß pro Tag (Bcf/d) erhöht. Ein erheblicher Teil dieser neuen Kapazität, nämlich 85 % oder 5,3 Bcf/d, ist für die Lieferung von Erdgas in die südliche Zentralregion der Vereinigten Staaten vorgesehen. Zu dieser Region gehört auch die Golfküste, wo sich ein Großteil der wachsenden Erdgasnachfrage des Landes konzentriert, insbesondere nach Flüssigerdgas (LNG). Die neue Kapazität verbindet in erster Linie neue und bestehende Versorgungsquellen mit den Verbrauchern in der Region.
Etwa 65 % der gesamten im Jahr 2025 gebauten Pipelinekapazität entfallen auf innerstaatliche Pipelines, womit sich der jüngste Trend fortsetzt, dass der Ausbau innerstaatlicher Pipelines den Ausbau zwischenstaatlicher Kapazitäten übertrifft. Diese Pipelines werden hauptsächlich innerhalb der Staatsgrenzen betrieben und unterliegen daher nicht der Zuständigkeit der Federal Energy Regulatory Commission (FERC).
[Gemeint sind hier immer US-Staaten. „Innerstaatlich“ = innerhalb eines US-Staates; „zwischenstaatlich“ = über die Grenzen mehrer US-Staaten hinweg. A. d. Übers.]
Die 2025 geschaffenen neuen innerstaatlichen Kapazitäten dienen größtenteils als Sammelsysteme, die für den Transport des Erdgases der Förderer in das größere Übertragungsnetz unerlässlich sind. Zwei solcher Projekte, abgeschlossen 2025, erweiterten die Pipelinekapazität um insgesamt 3,5 Bcf/d, um die Erdgasproduktion aus dem Erdgasfördergebiet Haynesville mit dem Gillis Hub im Südosten von Louisiana zu verbinden. Das Louisiana Energy Gateway-Projekt fügte 1,8 Bcf/d hinzu, und das New Generation Gas Gathering-System fügte 1,7 Bcf/d hinzu. Beide waren im Oktober 2025 in Betrieb.
Darüber hinaus wurde durch drei Großprojekte die Kapazität der Erdgasleitungen für die Versorgung der wachsenden Nachfragezentren an der Golfküste um insgesamt 1,8 Mrd. Kubikfuß pro Tag erweitert. Das Evangeline Pass Expansion Project steuerte 1,1 Mrd. Kubikfuß pro Tag bei, das East Lateral Xpress Project 0,3 Mrd. Kubikfuß pro Tag. Diese beiden Projekte liefern Feedgas direkt an Plaquemines LNG, das 2025 seine erste Ladung verschiffte. Das Texas to Louisiana Pathway Project erhöhte die zwischenstaatliche Kapazität von Texas bis nach Ost-Louisiana um 0,4 Mrd. Kubikfuß pro Tag.
Datenquelle: US-Energieinformationsbehörde (U.S. Energy Information Administration) Hauptverantwortliche: Katie Dyl, Trinity Manning-Pickett, Laia Munoz-Cortijo Stichworte: Erdgas, Pipelines, Karte, LNG (Flüssigerdgas), Haynesville, EIA
Es wird erwartet, dass Haynesville in den nächsten zwei Jahren für zwei Drittel des Anstiegs der Erdgasproduktion verantwortlich sein wird.
Haynesville wird voraussichtlich in den nächsten zwei Jahren das Wachstum des Schieferölsektors in den USA anführen.Alton Wallace | The Center Square
19. Februar 2026
(The Center Square) – Die heimische Erdgasproduktion wird in den nächsten zwei Jahren voraussichtlich um durchschnittlich 4,0 Milliarden Kubikfuß pro Tag oder 3,4 % auf 122,3 Milliarden Kubikfuß pro Tag steigen, wobei mehr als zwei Drittel der zusätzlichen Produktion in der Haynesville-Schieferregion im Nordwesten von Louisiana und im Nordosten von Texas gefördert werden.
Bis Ende 2027 wird die höhere Gasproduktion laut der aktualisierten Februar-Prognose des US-Energieministeriums vor allem durch die steigende Nachfrage nach Brennstoffen für Rechenzentren in den gesamten USA und durch Flüssiggas-Exporte aus Terminals in Louisiana und Texas angetrieben werden.
[…]
Haynesville wurde oft von den Lagerstätten Permian Basin und Appalachian (Marcellus & Utica) in den Schatten gestellt.
Der folgende Auszug stammt aus diesem Beitrag vom April 2022: Haynesville Shale: Record Natural Gas Production
Unentdecktes RessourcenpotenzialDie jüngste Einschätzung der USGS beziffert das unentdeckte Ressourcenpotenzial des Haynesville-Schiefergebiets (hervorgehoben) auf fast 300 Tcf (~10 Jahre des gesamten US-Erdgasverbrauchs).
Bewertung der unentdeckten Öl- und Gasressourcen in der Haynesville-Formation, US-Golfküste, 2016. (USGS)
Die Haynesville-Schiefervorkommen sind die schraffierten und gepunkteten Bereiche auf der folgenden Karte…
Bewertung der unentdeckten Öl- und Gasressourcen in der Haynesville-Formation, US-Golfküste, 2016. (USGS)
Die vielen Vorteile des katastrophalen Anstiegs des MeeresspiegelsDer Haynesville Shale, der auch als „Lower Bossier“ bezeichnet wird, ist das Beckenäquivalent zum Cotton Valley Lime und zum Pinnacle Reef Trend in Osttexas, der während der transgressiven Phase von SS2 abgelagert wurde. Diese Pinnacle Reefs bildeten sich als Reaktion auf den steigenden Meeresspiegel, als sie sich auf die Haynesville-Rampenkarbonate zurückzogen; die Karbonate konnten mit dem steigenden Meeresspiegel Schritt halten, bis sie von der feinkörnigen Sedimentdominanz „ertränkt” wurden. Die Oberseite des Haynesville-Schiefers markiert die maximale Überschwemmungsfläche, wie durch die maximale marine Überlappung auf dem Schelf belegt wird (z. B. Goldhammer, 1998). Die Bossier-Schiefer (sogenannter „oberer Bossier”) sind charakteristisch für den Hochstand-Systemtrakt von SS2 und reflektieren eine Umkehrung des Meeresspiegels und einen Anstieg des silikiklastischen Einflusses. – Hammes et al., 2009
Eine marine Transgression (katastrophaler Anstieg des Meeresspiegels) vor etwa 150 Millionen Jahren führte zur Ablagerung des Haynesville-Schiefers sowie zum Entstehen des Einschlussmechanismus‘ für den Haynesville-Schiefer und die stratigraphisch gleichwertigen Cotton Valley Lime-Riffformationen.
Haynesville-Stratigraphische Abfolge. Ramirez et al., 2011, Galloway, 2008
Isopachenkarte (Dickenmesskarte) des Haynesville/Bossier-Schiefers. Ramirez et al., 2011
Die Kohlenwasserstoffe im Haynesville Shale und Cotton Valley Lime stammen aus den Smackover- und Haynesville-Formationen.
Mudstones innerhalb der Smackover- und Haynesville-Formationen aus dem Oberjura sind Quellen für Öl und Gas sowohl in konventionellen (Montgomery, 1993a, 1993b; Mancini et al., 2006) als auch in kontinuierlichen Lagerstätten (Hammes et al., 2011; Cicero und Steinhoff, 2013) in weiten Teilen des Untersuchungsgebietes.
Bewertung unentdeckter Öl- und Gasressourcen in der Haynesville-Formation, US-Golfküste, 2016. – (USGS)
Die Smackover-Formation ist wahrscheinlich die ergiebigste Muttergesteinsformation in der Region Golfküste/Golf von Mexiko Amerika. Je nach Ablagerungsumgebung ist die Smackover-Formation auch ein ergiebiger Öl- und Gasproduzent und die Abdichtung für die Norphlet-Formation, wo sie produktiv ist. Die Haynesville-Formation würde sich in der folgenden Abbildung zwischen der Bossier- und der Smackover-Formation befinden:
Von links nach rechts: Verallgemeinerter Querschnitt entlang der nördlichen GOM GOA-Region (Galloway et al., 2009), Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO2 (Berner & Kothavala, 2001) und Temperaturabweichungen (Royer et al., 2004). Bild. Haynesville liegt zwischen Bossier und Smackover östlich von Cotton Valley.
Die nächsten vier Abbildungen stammen aus Cicero & Steinhoff, 2013, und zeigen die Sequenzstratigraphie und Ablagerungsumgebungen der Schiefer von Haynesville und Bossier:
Karte der Bohrstellen, der seismischen Untersuchungen und der in der Studie verwendeten Querschnitte
Querschnitt B-B’. Westen ist nach links. Die Kurve auf der rechten Seite stellt den Meeresspiegel dar, der Anstieg des Meeresspiegels ist nach links zu sehen.
Dies ist das interpretierte seismische Profil A-A’, das von Norden (links) nach Süden (rechts) verläuft, westlich der Staatsgrenze zwischen Texas und Louisiana.
Abbildung 3b. Integrierte seismische und sequenzielle Stratigraphie der neigungsorientierten seismischen Linie A-A’. Supersequenzgrenzen sind rot markiert (SSB), Sequenzgrenzen höherer Ordnung (3.) mit schwarzen gestrichelten Linien (SB), maximale Überflutungsflächen (mfs) grün und transgressive Flächen (TS) in Bezug auf Supersequenzen blau. Überlappungen und Unterlappungen sind mit Pfeilen gekennzeichnet. Gestrichelte vertikale Linien zeigen ungefähre Verwerfungen im Untergrund an. Modifiziert nach Cicero et al. (2010).
Das Folgende ist eine Karte der Ablagerungsumgebung (Paläogeographie) des Bossier-Schiefers (~vor 150 Millionen Jahren):
…
ReferencesBerner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.
Cicero, Andrea D. and Ingo Steinhoff, 2013, Sequence stratigraphy and depositional environments of the Haynesville and Bossier Shales, East Texas and North Louisiana, in U. Hammes and J. Gale, eds., Geology of the Haynesville Gas Shale in East Texas and West Louisiana, U.S.A.: AAPG Memoir 105, p. 25–46.
Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.
Galloway, William E., et al. “Gulf of Mexico.” GEO ExPro, 2009, www.geoexpro.com/articles/2009/03/gulf-of-mexico .
Hammes, Ursula and Ray Eastwood, Harry Rowe, Robert Reed. (2009). Addressing Conventional Parameters in Unconventional Shale-Gas Systems: Depositional Environment, Petrography, Geochemistry, and Petrophysics of the Haynesville Shale. 10.5724/gcs.09.29.0181.
Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.
Ramirez, Thaimar, James Klein, Ron Bonnie, James Howard. (2011). Comparative Study of Formation Evaluation Methods for Unconventional Shale Gas Reservoirs: Application to the Haynesville Shale (Texas). Society of Petroleum Engineers – SPE Americas Unconventional Gas Conference 2011, UGC 2011. 10.2118/144062-MS.
Link: https://wattsupwiththat.com/2026/02/28/energy-dominance-2-0-lng-edition-part-deux/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Energie-Dominanz 2.0: Flüssiggas-Edition, Teil zwei erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Effizienz der nach unten gerichteten IR-Strahlung
Die Sonnenstrahlung dringt (je nach Wellenlänge und Wassertrübung) bis zu einer Tiefe von 10 bis 100 Metern in die Ozeane ein und erwärmt direkt die Misch-Schicht des Ozeans. Die Infrarotstrahlung (IR) der Treibhausgase (THG) wird aufgrund ihrer langen Wellenlänge in den oberen ~10 Mikrometern (der thermischen oder elektromagnetischen Hautschicht oder „TSL“) absorbiert, wo sie Temperaturgradienten, Verdunstung und Wärmeleitung beeinflusst. Die TSL liegt oberhalb der Mischschicht und hat eine andere Temperatur. Unterhalb der TSL kann sich, insbesondere tagsüber oder bei sehr schwachem Wind, ein Temperaturgradient zwischen ihr und der „Grundtemperatur” oder der Temperatur der Mischschicht entwickeln (siehe Abbildung 1). Die vertikal nahezu konstante Temperatur der Mischschicht wird durch Turbulenzen und Konvektion aufrechterhalten und folgt den Trends der darüber liegenden Lufttemperatur (jedoch nicht der tatsächlichen Lufttemperatur) um einige Tage bis einige Wochen oder sogar länger, je nach Jahreszeit und Breitengrad. Höhere Breitengrade reagieren langsamer und niedrigere Breitengrade schneller; die Windgeschwindigkeit hat einen großen Einfluss auf die Verzögerung.
Neben Veränderungen der atmosphärischen Temperatur reagiert die Mischschicht auch auf Veränderungen der Ozeandynamik (Strömungen usw.). Die Veränderungen der Ozeandynamik variieren ebenfalls je nach Jahreszeit und Breitengrad und können eine wichtige Rolle bei mehrjährigen und multidekadischen Veränderungen (z. B. ENSO, AMO und PDO usw.) der Temperatur dieser Schicht spielen (Patrizio & Thompson, 2021). Veränderungen in der Ozeandynamik und die höhere Wärmekapazität der Mischschicht führen dazu, dass sie die schnelleren Veränderungen in der unteren Atmosphäre und in der TSL ausgleicht. Die Wechselwirkung zwischen der Atmosphäre und der Mischschicht erfolgt nicht nur von der Atmosphäre zur Mischschicht, sondern in beide Richtungen (Patrizio & Thompson, 2021).
Die Sichtweise des MainstreamDie vorherrschende Meinung ist, dass die IR-Strahlung der Treibhausgase die TSL erwärmt, wodurch der Wärmeleitungsverlust aus der Mischschicht reduziert wird, was zu einem Anstieg des gesamten Wärmegehalts der Ozeane (OHC) führt. Es ist klar, dass sowohl der OHC als auch die Temperaturen in den letzten Jahrzehnten gestiegen sind, aber ist diese Erwärmung auf vom Menschen verursachte Treibhausgase zurückzuführen? Abbildung 1 ist eine schematische Darstellung aus GHRSST (Minnett & Kaiser-Weiss, 2012), welche die elektromagnetische Hautschicht oder TSL zeigt, wo die gesamte IR-Strahlung der Treibhausgase absorbiert wird.
Wong & Minnett (2018) zeigen, dass IR die Krümmung der thermischen Hautschicht anpasst und so die molekulare Wärmeleitung aus der darunter liegenden Mischschicht reduziert. Sie untersuchten die Rate der nach unten gerichteten IR-Strahlung an klaren Tagen im Vergleich zu bewölkten Tagen und stellten fest, dass eine erhöhte nach unten gerichtete IR-Strahlung (aufgrund von Wolken) den TSL-Gradienten abflacht. Dies senkte den Netto-Wärmefluss des Ozeans nach oben und führte dazu, dass sich mehr absorbierte Sonnenwärme aus tieferen Schichten der Wassersäule im oberen Ozean ansammelte anstatt zu entweichen. Ihre Analyse von Spektren und Profilen stützt die Modulation der oberen OHC durch diesen Prozess. Da ihre Daten jedoch qualitativ und nicht quantitativ sind, wissen wir nicht, wie viel der Erwärmung des Ozeans auf die Erwärmung der Atmosphäre in den letzten Jahrzehnten zurückzuführen ist und wie viel auf einen Anstieg der Wärme durch absorbierte anthropogene Treibhausgas-IR in der TSL.
Abbildung 1. Schematische Darstellung hypothetischer Temperaturprofile der oberen Meeresoberfläche bei Tag und Nacht. Die roten Sterne und die gelbe Schattierung kennzeichnen die Basis der elektromagnetischen Hautschicht oder TSL. Dies ist die Schicht, welche die gesamte IR-Strahlung der Treibhausgase absorbiert. Nach: (Minnett & Kaiser-Weiss, 2012).
Die in der TSL eingefangene IR-Strahlung der Treibhausgase wird größtenteils zurückgehalten, da sie nur durch molekulare Leitung, als emittierte Strahlung oder durch Verdunstung entweichen kann. Der Energiefluss ist netto nach oben in die Atmosphäre gerichtet. Ein Teil der von der TSL emittierten Strahlung gelangt nach unten in die Mischschicht, aber im Nettoergebnis gelangt sie in die (im Durchschnitt) kühlere Atmosphäre. Die Atmosphäre teilt ihre Wärmeenergie mit der Mischschicht durch Konvektion, Turbulenzen und in geringerem Maße durch Wärmeleitung. Dies geschieht durch Wind und Niederschläge. Wie oben erläutert, ist dies ein viel langsamerer Prozess als die Absorption der IR-Strahlung der Treibhausgase in der TSL.
Es gibt zwei ProzesseZwei Prozesse spielen hier eine Rolle. Der eine ist, dass Energie aus der TSL, wie oben beschrieben, an die Atmosphäre abgegeben wird. Der andere ist die Erwärmung oder Abkühlung der Mischschicht durch die Atmosphäre. Letzteres beinhaltet die Vermischung der Luft mit dem Wasser der Mischschicht durch Wellen und Turbulenzen, während diese versuchen, ein Gleichgewicht zu erreichen. Die relative Bedeutung dieser beiden Prozesse ist unbekannt und Gegenstand heftiger Debatten innerhalb der Klimagemeinschaft.
Gibt es einen signifikanten Unterschied zwischen den beiden? Nur in der Wahrnehmung der Ursache. Wir wissen, dass Veränderungen der Sonnenstrahlung sich direkt auf den Energiegehalt und die Temperatur der Mischschicht auswirken. Wenn zusätzliche in der TSL absorbierte IR-Strahlung von Treibhausgasen das Temperaturprofil des oberen Ozeans verändert, kann dies zum gleichen Ergebnis führen, wird jedoch als anthropogener Effekt wahrgenommen. Beide Prozesse können am Werk sein, aber welcher ist stärker? Der Sonderbericht des IPCC über den Ozean und die Kryosphäre (IPCC, 2022) behauptet, dass 90 % der zusätzlichen Wärme im Klimasystem von den Ozeanen absorbiert wurden, geht jedoch davon aus, dass die gesamte zusätzliche Wärme anthropogen ist, und spekuliert nicht über den Prozess, durch den die Wärme in den Ozean gelangt, es könnte sich um einen der beiden Prozesse oder um beide handeln.
Die Sichtweise der KritikerKritiker argumentieren, dass IR die Mischschicht nicht nennenswert erwärmen kann, da es nicht bis zu ihrer Oberfläche vordringt; stattdessen verstärkt es vor allem die Verdunstung, wodurch die Meeresoberfläche abgekühlt wird. Die Daten zeigen gemischte Auswirkungen. Bei ruhigen Bedingungen kann IR die Oberfläche um 0,1–0,3 °C erwärmen, aber durch Windverwirbelungen wird diese Wärme schnell wieder abgeführt. Wind verstärkt auch die Verdunstung (Yu, 2007b). Die TSL-Temperatur wird durch Turbulenzen kaum beeinflusst, aber stark durch die IR-Strahlung von Treibhausgasen.
Die Kritiker weisen darauf hin, dass die TSL an der Meeresoberfläche die gesamte Treibhausgasstrahlung einfängt. Der Prozess für den Wärmetransport innerhalb dieser Schicht ist die molekulare Wärmeleitung und nicht die Turbulenz (Soloviev & Lukas, 2014) & (Wong & Minnett, 2018). Die Richtung des Wärmeflusses verläuft normalerweise vom Ozean zur Atmosphäre, so dass die Wärme der absorbierten langwelligen Strahlung nach oben zur Meeresoberfläche und schließlich in die Atmosphäre geleitet wird. Wie Wong und Minnett jedoch zeigen, erwärmt die IR die Meeresoberfläche, was die Abkühlung der Mischschicht etwas verlangsamen dürfte, indem es den Wärmeverlust der Mischschicht verringert.
Wir haben nicht wirklich genügend Daten, um sicher zu sein, welcher der beiden Prozesse dominiert. Die zentrale Annahme, welche die Konsensmeinung stützt, dass der Anstieg des Wärmegehalts der Ozeane (OHC) auf die zusätzliche Erwärmung durch Treibhausgase zurückzuführen ist lautet, dass die Sonneneinstrahlung in das Klimasystem konstant ist. Daher argumentieren sie, dass bei einem Anstieg des OHC es sich aufgrund des Ausschlussverfahrens um zusätzliche Treibhausgase handeln muss. Diese Meinung basiert auf Modellen und nicht auf nachgewiesenen Fakten.
Es ist anzunehmen, dass die zusätzliche IR-Strahlung der Treibhausgase, wenn sie in einer etwa 10 Mikrometer dicken Schicht an der Meeresoberfläche eingeschlossen ist, schnell wieder in die Atmosphäre zurückgeführt wird. Ist dies mehr oder weniger als die thermische Energie solarer Herkunft, die eine wärmere TSL teilweise in der Mischschicht einschließt? Ich weiß es nicht und habe keine Messungen gesehen, die die relativen Mengen quantifizieren.
Wie genau kennt man die OHC?Die Analyse der Studie von Wong und Minnett wird dadurch erschwert, dass die OHC-Trends nicht sehr genau bekannt sind. Dies gilt selbst heute noch, obwohl ARGO-Floats und präzise Bojen zur Verfügung stehen. Noch weniger ist über die OHC vor 2005 bekannt, bevor die ARGO-Floats weit genug verbreitet waren, um gute Daten über die oberen 2.000 Meter der Ozeane zu liefern. Unterhalb von 2.000 Metern gibt es nur sehr wenige Daten. Vor 2005 beziehen sich unsere Informationen meist nur auf einen kleinen Teil der Mischschicht, nur wenige Zentimeter bis wenige Meter unter der Oberfläche. Es kann noch viele Jahrzehnte dauern, bis wir über genügend Daten verfügen, um vernünftige Trends in der OHC bis zu einer angemessenen Tiefe zu bestimmen. Trends in den Temperaturen der oberen Ozeanschichten können sich in Zyklen von über 60 Jahren ändern, wie im Fall der AMO (May & Crok, 2024). Andere multidekadische Ozeanoszillationen werden hier diskutiert.
Solare VariabilitätWir haben gerade das längste solare Grand Maximum (SGMx) seit über 5.000 Jahren hinter uns gebracht. Könnte dies die Ursache für den zusätzlichen Wärmegehalt der Ozeane sein, oder zumindest ein Teil davon? Der Konsens besagt, dass die Veränderung der TSI während des SGMx im 20. Jahrhundert gering ist und wir uns ohnehin auf der Abwärtsseite befinden. Allerdings sind Veränderungen der TSI nicht die einzige Art und Weise, wie die Sonnenaktivität unser Klima beeinflusst (Lean, 2017), (Scafetta, 2023) und (Haigh, 2011). Die Welt ist wärmer als vor 100 Jahren, und die Mischschicht tendiert dazu, sich an die atmosphärische Temperatur anzupassen, aber sollten wir davon ausgehen, dass die atmosphärische Temperatur und die Mischschicht nur aufgrund zusätzlicher Treibhausgase wärmer sind? Ich denke nicht.
Der Temperaturunterschied über die TSL hinweg liegt zwischen 0,1 K bei hohen Windgeschwindigkeiten (>7 m/s) und 0,6 K bei niedrigen Windgeschwindigkeiten (<2,5 m/s) (Wong & Minnett, 2018). Die TSL ist immer vorhanden, außer bei vorübergehenden Unterbrechungen durch brechende Wellen und Niederschläge. Die Wiederherstellung der TSL nach Unterbrechungen dauert nur wenige Sekunden. Es scheint keinen Prozess zu geben, durch den die IR-Wärmeenergie in die Mischschicht gelangt, außer in geringen Mengen aufgrund molekularer Wärmeleitung. Der starke Temperaturgradient durch die TSL besteht aufgrund der geringen Effizienz der Wärmeübertragung durch molekulare Wärmeleitung (Wong & Minnett, 2018).
DiskussionWärmeverluste von der Meeresoberfläche durch Verdunstung und Strahlung entstehen innerhalb der TSL. Wie Wong und Minnett in ihrer Arbeit zeigen, wird es aufgrund einer höheren TSL-Temperatur zu einem Anstieg der gespeicherten OHC kommen. Ihre Studie schließt jedoch einen Anstieg der gespeicherten OHC bei einer wärmeren Atmosphäre nicht aus, unabhängig davon, warum die Atmosphäre wärmer ist. Das Verhältnis zwischen beiden Faktoren ist nicht bekannt. Der Konsens und der IPCC gehen davon aus, dass 90 % der überschüssigen OHC auf Treibhausgase zurückzuführen sind (IPCC, 2022, S. 9,83), aber ich habe keine Daten gesehen, die diesen Anteil belegen oder Aufschluss darüber geben, wie viel von diesen 90 % auf die einzelnen oben beschriebenen Prozesse zurückzuführen ist. Nur weil die Treibhausgase zunehmen und die Temperaturen steigen, bedeutet das nicht, dass die gesamte Erwärmung auf Treibhausgase zurückzuführen ist. Auch die Sonnenvariabilität muss berücksichtigt werden.
Das Argument, dass 90 % des kürzlich beobachteten Anstiegs der OHC auf zusätzliche vom Menschen verursachte Treibhausgas-IR zurückzuführen sind, welche die TSL erwärmen, erscheint mir wenig stichhaltig. Die Schlussfolgerung von Wong und Minnett, dass der beobachtete Anstieg des Wärmeinhalts der oberen Ozeanschicht darauf zurückzuführen ist, dass mehr Wärme unter der TSL gespeichert wird, ist ebenfalls schwach. Es ist ebenso wahrscheinlich, dass eine Erwärmung der Atmosphäre aufgrund erhöhter Verdunstung und Strahlung aus der TSL sowie eine variable Sonneneinstrahlung zu einer Erwärmung der Mischschicht führen. Ich bin nicht skeptisch gegenüber den Daten von Wong und Minnett oder ihrer Analyse, ich glaube nur nicht, dass ihre Schlussfolgerungen oder die Schlussfolgerungen des IPCC daraus gerechtfertigt sind.
Download the bibliography here.
Link: https://andymaypetrophysicist.com/2026/02/23/efficacy-of-downwelling-ir/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Effizienz der nach unten gerichteten IR-Strahlung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Türkei finanziert und beginnt Ölexplorationen vor der Küste von Afrika
Andreas Demmig, 24.02.2026, Einleitung
Durch Information auf englischsprachigen Webseiten, habe ich von den Ölbohrplänen der Türkei erfahren. Diesmal eine eigene Zusammenstellung der Meldungen von anderen Medien. Unterstützt durch Bing-KI. (Artikel auf Bezahlwebseiten, sind nicht frei übersetzbar). – –
Die Türkei hat Anfang 2026 ihre Aktivitäten zur Öl- und Gasexploration vor der Küste Afrikas, speziell Somalia, intensiviert. Das staatliche türkische Energieunternehmen TPAO hat mit Bohrungen begonnen, was als erster Offshore-Einsatz der Türkei außerhalb ihrer eigenen Hoheitsgewässer gilt.
Hier sind die aktuellen Details (Stand Februar 2026):
- Standort Somalia: Das türkische Tiefsee-Bohrschiff „Cagri Bey“ hat im Februar 2026 den Hafen von Mersin verlassen und ist auf dem Weg nach Somalia, um im April 2026 mit den Bohrungen am Bohrloch „Curad-1“ zu beginnen.
- Hintergrund: Die Bohrungen basieren auf einem im März 2024 unterzeichneten Abkommen zur Förderung von Kohlenwasserstoffen, das der Türkei Explorationsrechte in drei Offshore-Blöcken umfasst.
- Vorbereitung: Zuvor hatte das Forschungsschiff „Oruç Reis“ seismische 3D-Daten in diesem Gebiet gesammelt.
- Ziele: Die Türkei strebt eine Diversifizierung ihrer Energiequellen an und plant, bis 2028 täglich 500.000 Barrel Öl zu produzieren, auch durch internationale Projekte.
- Sicherheit: Aufgrund der Sicherheitslage vor der somalischen Küste werden die Bohrschiffe von türkischen Kriegsschiffen begleitet.
Zusätzlich zu den Aktivitäten in Somalia hat die Türkei Anfang Februar 2026 auch zwei Ausschreibungen für Ölexplorationen (einen Onshore, einen Offshore) in Libyen gewonnen.
Die Türkei verfolgt mit den Bohrungen vor Somalia eine langfristige Strategie, die über die reine Energiegewinnung hinausgeht. Das Land strebt eine führende Rolle am Horn von Afrika an und möchte sich als energetisch unabhängige Großmacht positionieren.
Dies sind die zentralen Ziele der türkischen Regierung:
- Verringerung der Importabhängigkeit
Die Türkei ist derzeit zu etwa 74 % von Energieimporten (vorgelagert aus Russland und dem Irak) abhängig. Die Erschließung somalischer Felder, deren Potenzial auf bis zu 30 Milliarden Barrel geschätzt wird, soll die nationale Energiesicherheit stärken und die hohen Kosten für Importe senken.
- Geopolitischer Einfluss am Horn von Afrika
Die Mission festigt die Türkei als strategischen Partner Somalias. Durch die Bohrungen und der begleitende militärische Präsenz (Eskorte durch Kriegsschiffe) positioniert sich Ankara als Sicherheitsgarant in einer Region, die für den Welthandel (Suezkanal-Route) entscheidend ist.
- Wirtschaftliche Profitabilität
Die Abkommen mit Somalia sehen vor, dass die türkische Staatsgesellschaft TPAO einen erheblichen Teil der Einnahmen zur Deckung der Explorationskosten behalten kann. Berichten zufolge könnte die Türkei bis zu 90 % der Einnahmen sichern, bis die operativen Kosten gedeckt sind, bevor eine Gewinnteilung mit Somalia erfolgt.
- Technologische Demonstration
Dies ist der erste Einsatz eines türkischen Tiefsee-Bohrschiffs (Çağrı Bey) außerhalb eigener Gewässer. Die Türkei möchte beweisen, dass sie technologisch in der Lage ist, komplexe Offshore-Projekte eigenständig durchzuführen, ohne auf westliche Firmen angewiesen zu sein.
- Erweiterte Kooperation (Raumfahrt & Militär)
Die Energiepartnerschaft ist Teil eines größeren Pakets. Parallel dazu plant die Türkei den Bau eines Weltraumbahnhofs in Somalia, um ihre Ambitionen in der Raketentechnologie voranzutreiben. Zudem unterstützt die Türkei Somalia massiv beim Aufbau der eigenen Küstenwache und im Kampf gegen den Terrorismus.
**********
Kleine Auswahl gefundener Quellen
Turkey Begins Ultra-Deepwater Oil Drilling in Horn of Africa, By Alex Kimani – Feb 17, 2026,
https://priceonn.com/nachrichten/turkei-beginnt-tiefsee-olbohrungen-in-somalia
Türkei beginnt Tiefsee-Ölbohrungen in Somalia, PriceONN News, 17 Februar 2026,
….
Kritik und Gegenargumente
Trotz der potenziellen Vorteile … wurden Bedenken hinsichtlich der Transparenz des Abkommens und des potenziellen Ungleichgewichts geäußert, … Kritiker verweisen auf die hohe Kostenerstattungsquote für die Türkei (bis zu 90%) und die begrenzten Lizenzgebühren für Somalia (angeblich 5%) sowie auf Ausnahmen von branchenüblichen Boni und Steuern.
Befürworter … argumentieren hingegen, dass Somalias begrenzte Kapazität für unabhängige Offshore-Exploration Partnerschaften mit Ländern wie der Türkei erfordert, die die notwendige Infrastruktur, Finanzierung und Sicherheit bereitstellen können. Die Bohrarbeiten zielen auf Ultra-Tiefseestandorte mit Tiefen von bis zu 3.480 Metern unter dem Meeresspiegel ab, was erhebliche finanzielle und technologische Herausforderungen darstellt, die Somalia derzeit nicht selbstständig bewältigen kann. Die Vorlaufkosten für Tiefseebohrungen, die zwischen 40 Millionen Dollar und über 100 Millionen Dollar pro Bohrloch liegen, sowie die Sicherheitsrisiken im Zusammenhang mit Piraterie und bewaffneten Gruppen unterstreichen die Notwendigkeit externer Investitionen und Expertise. Große Unternehmen wie Shell und ExxonMobil sind aufgrund der damit verbundenen Risiken in Somalia weitgehend inaktiv geblieben.
https://nex24.news/2025/05/20-milliarden-barrel-tuerkei-entdeckt-oelfeld-in-somalia/
Der Beitrag Türkei finanziert und beginnt Ölexplorationen vor der Küste von Afrika erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Veränderliches Sonnenlicht – Sonnenbewegung und -rotation
Richard Willoughby
SummaryDieser Artikel knüpft an einen früheren Artikel an, in dem untersucht worden war, wie die Bewegung der Sonne relativ zur Erde sowie die Sonnenaktivität das Klima der Erde verändern.
Die Bewegung der Sonne im Laufe dieses Jahrhunderts wird detailliert analysiert und gibt Aufschluss darüber, wie die verschiedenen Planeten zur Bewegung der Sonne beitragen. Die Ursache für die täglichen Abweichungen der Entfernung zwischen Erde und Sonne wird ebenfalls untersucht und für jeweils den gleichen Tag des Jahres über einen Zeitraum von 30 Jahren quantifiziert.
Die für diese Analyse verwendeten ursprünglichen Bewegungsdaten der Sonne wurden direkt aus der NASA Horizons Application extrahiert und für die freie Dynamikanalyse verwendet. Das JPL-Freikörpermodell des Sonnensystems behandelt jedes Himmelsobjekt als Punktmasse, die sich im Schwerpunkt konzentriert. Die Freikörperanalyse der Sonne erstreckt sich hier auf eine Punktmasse, die elastisch mit dem Schwerpunkt der Sonne verbunden ist und um den Schwerpunkt rotiert, um das auf die rotierende Masse wirkende Gravitationsmoment zu bestimmen.
SonnenbewegungDie Umlaufbahn der Sonne ist etwas unregelmäßig, wobei jede Umdrehung sich von der vorherigen und den folgenden unterscheidet. Diagramm 1 zeigt den Weg der Sonne unter Verwendung des Internationalen Himmelsbezugssystems (ICRF) für den Zeitraum von 2000 bis 2030 in der himmlischen Äquatorialebene. Im ICRF ist der Punkt (0,0,0) der Schwerpunkt des Sonnensystems. Die dynamische Analyse in diesem Artikel geht davon aus, dass die Nord-Süd-Bewegung der Sonne außerhalb der Äquatorialebene vernachlässigbar gering ist.
Um jedoch ein vollständiges Bild der Sonnenbewegung zu erhalten, zeigt Graphik 1 die Nord-Süd-Abweichungen von der Himmelsäquatorialebene im gleichen Zeitraum wie Diagramm 1.
Die Umlaufbahn des Jupiter dominiert die Bewegung der Sonne, und die Umlaufbahnebene des Jupiter weist eine Neigung von 1,3 Grad zur Himmelsäquatorialebene auf. Die Nord-Süd-Auslenkung der Sonne in Bezug auf das ICRF ist darauf zurückzuführen, dass sich die Sonne im Wesentlichen in der Umlaufbahnebene des Jupiter bewegt. Wie in Grafik 1 zu sehen ist, folgt die Erde tendenziell der Sonne in ihrer Nord-Süd-Auslenkung. Der direkte Einfluss des Jupiter auf die Erde ist in der Äquatorialebene deutlicher zu erkennen, wie in Grafik 2 dargestellt, welche die Anomalie der Entfernung zwischen Sonne und Erde im Vergleich zu 2000 für die September-Tagundnachtgleiche über einen Zeitraum von 30 Jahren zeigt.
Der in Grafik 2 dargestellte Bereich der anomalen Entfernung reicht aus, um die maximale Sonnenintensität für den ausgewählten Tag um 1 W/m² zu verändern. Der Tag wurde aufgrund der einfachen jährlichen Ausrichtung in der Äquatorialebene ausgewählt und nicht aufgrund der maximalen Differenz für einen bestimmten Tag des Jahres.
Einfluss einzelner Planeten auf die Umlaufbahn der SonneDie Sonnenbahn steht weitgehend in Opposition zu Jupiter, so als wäre die Sonne der Hammerwerfer und Jupiter der Hammer. Die Sonne ist 1050 Mal massereicher als Jupiter, daher muss die Sonnenbahn 1/1050 der Jupiterbahn betragen, um die Bahnen stabil zu halten. Diagramm 2 zeigt die 2-D-Freikörperbahn der Sonne, die von der tatsächlichen Jupiterbahn angetrieben wird.
Zur Verdeutlichung: Die hier dargestellte Bewegung der Sonne ist das Ergebnis der alleinigen Beeinflussung der Sonne durch Jupiter, während Jupiter unter dem Einfluss aller anderen Himmelskörper, die eine Gravitationswirkung auf das Sonnensystem ausüben, seiner vorgegebenen Bahn folgt. Die in Diagramm 2 dargestellten Anfangsbedingungen für Position und Geschwindigkeit der Sonne unterscheiden sich von dem Gesamtsystem, das die in Diagramm 1 oben dargestellte tatsächliche Umlaufbahn erzeugt.
Diagramm 3 zeigt, wie sich die Sonne bewegen würde, wenn sowohl Jupiter als auch Saturn vorhanden sind. Saturn hat einen ausreichenden Einfluss, um eine Neufestlegung der Anfangsbedingungen zu erfordern, damit die Umlaufbahn der Sonne stabil bleibt.
Durch die Einbeziehung von Saturn weist die Umlaufbahn der Sonne eine gewisse Ähnlichkeit mit der vollständigen Systemumlaufbahn aus Diagramm 1 auf.
Obwohl Jupiter 390 Mal massereicher ist als Venus, befindet sich Venus in einer Entfernung von 1/7 zur Sonne, sodass Venus einen nachweisbaren Einfluss auf die Bewegung der Sonne hat, wie in Diagramm 4 dargestellt.
Neptun ist der am weitesten von der Sonne entfernte Planet, aber seine Masse beträgt etwas mehr als die Hälfte der Masse von Jupiter, sodass er aufgrund der doppelten Integration der Zeit von Kraft zu Entfernung einen gravitativen Einfluss hat, wie in Diagramm 5 dargestellt.
Der in Diagramm 5 dargestellte Zeitraum von 30 Jahren ist etwas zu kurz, um den Einfluss von Neptun auf die Bewegung der Sonne vollständig zu erfassen, da sich der Planet in dieser Zeit nur um 65 Grad bewegt hat. Neptun ist der Langsamste bei der Bewegung der Sonne; langsam und stetig.
Verteilung der Masse der SonneDer Radius der Sonne von 6,96E8 m ist im Verhältnis zu ihrer Umlaufbahn von 7,31E8 m unter dem Einfluss von nur Jupiter signifikant. Angesichts der unregelmäßigen Umlaufbahn der Sonne unter dem Einfluss aller Objekte des Sonnensystems gibt es Zeiten, in denen sich der Schwerpunkt innerhalb der Sphäre der Sonne befindet. Tatsächlich gibt es einige Umlaufbahnen, bei denen der Massenschwerpunkt (CoM) der Sonne den Schwerpunkt nicht umkreist.
Eine weitere Besonderheit der Sonne ist, dass ihre Masse in Form von Plasma vorliegt. Daher ist sie eher flüssig als fest. Unter dem Einfluss ihrer Rotation bewirken die Zentrifugalkräfte auf das Plasma, dass sich die gesamte Sonne abflacht, wobei der Durchmesser am Äquator im Verhältnis zum Durchmesser von Pol zu Pol zunimmt.
Die einfachste Methode zur Analyse der freien Körperbewegung der Sonnenoberfläche besteht darin, sie auf einen einzigen Punkt im Raum zu reduzieren, der an den CoM gebunden ist. Dies ist in Bild 1 schematisch dargestellt.
Das Seil ist elastisch, um das Verhalten der Plasmaablösung unter Zentrifugalbeschleunigung darzustellen.
Die erste Analyse, dargestellt in Diagramm 6, zeigt die vom JPL bestimmte Position der Sonne als schwarzen Ort für den Schwerpunkt (CoM) und als roten Ort für den Äquatorialpunkt (EP) unter dem Einfluss der gleichen Gravitationsbeschleunigungen, die den Schwerpunkt bewegen. Der EP wird in X-Richtung vom Schwerpunkt aus festgelegt.
Der EP behält im Wesentlichen seine Position in X-Richtung bei und beschreibt eine ähnliche, aber verschobene Umlaufbahn. Graphik 2 zeigt die Geschwindigkeit des EP, wenn die Sonne keine Rotation hätte. Sie entspricht der Geschwindigkeit der Sonne. Venus trägt am meisten zu den kleinen Schwankungen in der Geschwindigkeit bei.
Diagramm 7 zeigt die Ortskurven des CoM und des EP, nachdem dem EP eine Anfangsbewegung in Y-Richtung von 100 m/s relativ zum CoM gegeben wurde.
Die Anfangsrotation von 100 m/s ergibt eine Rotationsperiode von 506 Tagen, so dass der EP den CoM in einem Zeitraum von 30 Jahren 22 Mal umkreist, abzüglich der fast 3 Umläufe, die der CoM in der gleichen Zeit absolviert hat. Dies ist in Graphik 3 zu sehen, welche die Geschwindigkeit des EP über den Zeitraum mit einem Durchschnitt von 100 m/s und 19 Auslenkungen zeigt.
Die Geschwindigkeit des EP liegt in einem Bereich um den Durchschnittswert, der durch die Geschwindigkeit des CoM bestimmt wird. Das EP muss im Verlauf jeder Umdrehung beschleunigt und abgebremst werden, was dazu führt, dass sich das Seil bei jeder Umdrehung dehnt und wieder entspannt. Würde das EP nicht durch das Gravitationsfeld beeinflusst, würden sich das Beschleunigungsmoment und das Bremsmoment gegenseitig aufheben. Die auf den EP wirkende Gravitationskraft ist um Größenordnungen kleiner als die Kraft des Seiles, aber die Gravitationskraft erzeugt ein Nettodrehmoment wie in Graphik 4 dargestellt. Das berechnete Drehmoment basiert auf einem EP mit einer Masse von 1 kg.
Über einen Zeitraum von 30 Jahren steigt die durchschnittliche Rotationsgeschwindigkeit um 0,04 m/s, aber es gibt auch Phasen, in denen sich die Rotation verlangsamt.
Die äquatoriale Rotation der Sonne beträgt etwa 25 Tage, was einer Geschwindigkeit von 2000 m/s entspricht. Graphik 5 zeigt das kumulative Drehmoment auf den EP unter diesen Bedingungen.
Das durchschnittliche Drehmoment für eine Rotationsperiode von 25 Tagen ist leicht negativ.
Drehmoment zwischen 100 m/s und 2000 m/sDie beiden bisher betrachteten Beispiele ergaben sowohl ein positives als auch ein negatives kumulatives Drehmoment über den betrachteten Zeitraum von 30 Jahren. Dies wirft die Frage auf, was zwischen diesen Extremen geschieht.
Falls die Drehung der Sonne durch Gravitationseffekte verursacht würde, wären diese in dem Bereich am stärksten ausgeprägt, der das höchste Drehmoment erzeugen könnte. Betrachtet man die Sonne als eine Reihe konzentrischer Zylinder, welche die Rotationsachse umgeben, und geht man von einer konstanten Dichte aus, würde das höchste Drehmoment bei 5,7E8 m erreicht werden, was einer Breite von 35 Grad entspricht. Dementsprechend zeigt Graphik 6 das kumulative Drehmoment für einen Bereich von Anfangsrotationsgeschwindigkeiten bei 5,7E8 m von 900 m/s bis zu 1850 m/s.
Es gibt zwei interessante Spitzen, die auf Resonanzen hindeuten. Die erste tritt bei Perioden von 44 Tagen auf, die zweite bei 29,3 Tagen. Beide Spitzen zeigen einen starken Anstieg des Drehmoments, gefolgt von einem raschen Abfall auf ein negatives Drehmoment. Bei 970 m/s kommt es zu einer Erholung auf ein positives Drehmoment mit einem allmählichen Anstieg auf 1400 m/s vor der nächsten Spitze und einem plötzlichen Abfall.
Das kumulative Drehmoment durchläuft eine Phasenfolge, wenn sich die Anfangsgeschwindigkeit der Resonanz nähert. Graphik 7 zeigt das kumulative Drehmoment bei 5,7E8 m für 1403,7 m/s, das ausgewählt wurde, weil die Zyklen eine gute negative Korrelation mit der Sonnenaktivität über einen Zeitraum von 60 Jahren aufweisen.
Die kumulativen Drehmomentzyklen nehmen ab, wenn sich die Anfangsgeschwindigkeit 1413 m/s nähert, wo sie gemäß Graphik 8 zu einem stetigen Aufwärtstrend wird.
Obwohl das Drehmoment während des gesamten Zeitraums steigt, erhöht es die EP-Geschwindigkeit in diesem Zeitraum nur um 0,05 m/s. Das Drehmoment fällt oberhalb von 1413 m/s steil ab und ist bei 1414 m/s negativ. Somit befindet sich jeder Teil der Sonne, der sich mit einer Periode von 29,33 Tagen dreht, kurz vor dem Wechsel zwischen Drehbeschleunigung und Drehbremsung.
DiskussionDie Periode der beiden Resonanzen zeigt, dass Merkur einen Gezeiteneinfluss auf die Sonne hat. Tatsächlich könnte diese Analyse den Einfluss von Merkur unterschätzen, weil die einzelnen planetarischen Beiträge summiert und als eine einzige variable Gravitationskraft sowohl auf den Schwerpunkt als auch auf den Epizentrumspunkt angewendet werden. Angesichts der Nähe von Merkur zur Sonne und des großen Durchmessers der Sonne könnten auch die lokalen Gezeiteneffekte von Merkur auf die angrenzende Sonnenoberfläche erheblich sein. Der Beitrag des Merkur zur Bewegung des Sonnen-CoM ist zwar verschwindend gering, scheint jedoch eine Schlüsselrolle für die Rotation der Sonne zu spielen, was sich auf die Entwicklung der Sonnenaktivität auswirkt.
Wäre das Drehmoment immer positiv, würde sich die Sonne immer schneller drehen. Die Tatsache, dass das Drehmoment einen Auslösepunkt erreicht, der eine scharfe Drehmomentumkehr verursacht, steht im Einklang mit der Erzeugung lokaler Turbulenzen und hoher Scherung in jedem Bereich, der sich mit einer Periode von 29,33 Tagen dreht. Dies stimmt mit der beobachteten dominanten Periode der Sonne gemäß dem Titelbild oben aus dem Max Planck Solar System Research überein.
Die Berechnungen des Drehmoments erklären weder die Rotationsperiode des Sonnenäquators noch warum die Rotationsgeschwindigkeit bei kleineren Radien langsamer als 29,33 Tage ist.
SchlussfolgerungenDie Bewegung der Sonne unterscheidet sich deutlich von der Bewegung der Planeten. Die Sonne folgt einer unregelmäßigen Bahn und erreicht dabei eine zweifache Schwankungsbreite ihrer Umlaufgeschwindigkeit. Das Plasma der Sonne hat die Fähigkeit, sich unter der Zentrifugalbeschleunigung durch die axiale Drehung abzuflachen. Diese Fähigkeit teilen auch die Gasriesen Jupiter und Saturn, die sich mit einer noch höheren Äquatorialgeschwindigkeit als die Sonne drehen.
Die Analyse der Bewegung von Himmelskörpern als Punktmassen ist eine Vereinfachung, die das Verständnis ihres Verhaltens einschränkt. Die Verteilung der Masse und ihr physikalischer Zustand sind wichtige Faktoren für die Beurteilung der Gravitationskräfte, die über Geschwindigkeit und Position hinausgehen.
Autor: Richard Willoughby is a retired electrical engineer having worked in the Australian mining and mineral processing industry for 30 years with roles in large scale operations, corporate R&D and mine development. A further ten years was spent in the global insurance industry as an engineering risk consultant where he developed an enduring interest in natural catastrophes and changing climate.
Link: https://wattsupwiththat.com/2026/02/22/changing-sunlight-sun-movement-and-spin/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Veränderliches Sonnenlicht – Sonnenbewegung und -rotation erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Gasspeicher leeren sich: Uns trennt noch eine Kälteperiode von der Notstandssituation, von Fritz Vahrenholt
https://www.drroyspencer.com/wp-content/uploads/UAH_LT_1979_thru_January_2026_v6.1_20x9-scaled.jpg
Die Gasspeicher leeren sich: Uns trennt noch eine Kälteperiode von der NotstandssituationDer durchschnittliche Gasverbrauch im Winter beträgt in Deutschland 4 TWh Erdgas pro Tag, an kalten Tagen unter -5 °C ca. 5 TWh, an milderen Tagen sinkt er auf 3 TWh.
Der Verbrauch wird gedeckt durch
1. Pipelinegas
2. LNG-Gas
3. Entnahme aus den im letzten Jahr gefüllten Gasspeichern
1.Die Pipeline-Importe belaufen sich zurzeit bei 2,7 TWh. 44% davon kommen aus Norwegen, 24% aus den Niederlanden und 21% aus Belgien/Frankreich. Die letzteren beiden Importe sind LNG-Gas, da sowohl die Niederlande, Belgien als auch Frankreich keine eigenen Erdgasquellen für den Export zur Verfügung haben. Das macht diese Quellen verletzlich, wenn in diesen Ländern eine eigene Knappheit vorliegt. Der Speicherstand in den Niederlanden (5.Februar) liegt bei 22,4%, in Frankreich bei 28,5%.
2. Die aktuellen LNG-Importe in Deutschland belaufen sich auf etwa 0,4- 0,6 TWh pro Tag über die Terminals in Wilhelmshaven, Brunsbüttel, Lubmin und Mukran. Sie können zwar auf bis zu 1 TWh hochgefahren werden. Allerdings muss berücksichtigt werden, dass eine zusätzliche Menge an LNG-Gas in Deutschland mit erheblicher Verzögerung ankommt. Die Belade- und Transportzeit eines LNG-Tankers vom Golf von Amerika nach Brunsbüttel dauert 18 Tage.
3. Die Entnahme von Erdgas aus den deutschen Speichern betrug im Januar etwa 0,4 bis 1 TWh je nach Kältesituation. Diese Batterie für den Winter läuft langsam aber sicher leer. Der aktuelle Füllgrad der Speicher liegt bei 29%. Diese Menge ist im Prinzip auch entnehmbar. Das entscheidende Problem ist aber, daß mit sinkendem Füllstandsgrad auch der Druck sinkt und somit die Entnahmeleistung des Speichers abnimmt, wie der sehr gute Übersichtsartikel zur Versorgungssicherheit von Markus Schall beschreibt.
Schon unterhalb eines Füllstandsgrades von 50% geht die Entnahmerate (Gas pro Stunde) auf Grund des geringeren Druckes zurück. Bei 35% Füllstandsgrad ist die Entnahmerate bereits um 22% gesunken. Darunter sinkt sie dann stärker als linear ab. Unterhalb von 20% ist die Entnahmerate so stark gesunken, daß die Speicher keine Nachfragespitzen mehr abdecken können, was zu einem Risiko von Versorgungsengpässen in einer Kaltwetterlage führen kann.
Die meteorologische Situation in den nächsten 14 Tagen wird zunächst von leicht ansteigenden Temperaturen bis zum 12.2. gekennzeichnet, um danach möglicherweise erneut in eine deutliche, bundesweite Frostperiode zurückzufallen. Kommt es zu dieser Entwicklung wird Ende Februar die 20% Marke des Füllstands deutscher Gasspeicher unterschritten.
Nach der Gasnotfallverordnung von Minister Habeck sind folgende Kriterien für die Beurteilung einer Gasnotfalllage heranzuziehen:
„- Als kritisch wird die Lage eingestuft, wenn die prognostizierte Durchschnittstemperatur der kommenden sieben Tage min. zwei Grad Celsius unter dem Durchschnitt der vorherigen vier Jahre liegt“
„- Als kritisch wird die Lage eingestuft, wenn der Füllstand unter den Speicherpfad fällt, der auf das 40%-Niveau am 01. Februar des jeweiligen Jahres führt.“
Beide Kriterien sind seit dem 1. Februar erfüllt. Es ist schon erstaunlich, dass die Bundesnetzagentur bei einem Speicherstand von unterhalb 30% immer noch abwiegelt und erklärt : „Die Gasversorgung in Deutschland ist stabil. Die Versorgungssicherheit ist gewährleistet. Die Bundesnetzagentur schätzt die Gefahr einer angespannten Gasversorgung im Augenblick als gering ein.“
Aber man versucht sich durchzumogeln und hofft auf eine Erwärmung in den nächsten vier bis sechs Wochen. Und wieder einmal stehen Landtagswahlen in Baden-Württemberg vor der Tür.
Nach Ausrufung einer Notfallstufe muss die Bundesnetzagentur Maßnahmen ergreifen, um die Versorgung von Haushalten und öffentlichen Einrichtungen zu gewährleisten. Das kann dann nur noch durch Abschalten von Industrie-und Gewerbebetrieben erfolgen. Sollte es dazu kommen, wäre das ein Alptraum für die deutsche Energiepolitik:ein Resultat des Versagens. Der schon angeschlagene Investitionsstandort Deutschland würde nachhaltig beschädigt.
Warum sind wir in eine solche Situation geraten ? Zum einen haben Gaseinkäufer und die Politik wohl die vier letzten milden Winter in die Zukunft fortgeschrieben. In einer allgemeinen Wahrnehmung einer Klimakatastrophe kommen sehr kalte Winter offenbar nicht mehr vor.
Zusätzlich ist aber seit dem 1. 1. 25 die Versorgung Osteuropas mit russischem Erdgas reduziert worden, da die Ukraine den Transit des Gases zu diesem Datum gestoppt hat. Die Versorgung über die einzig noch verbliebene, über die Türkei verlaufende Turkstream-Pipeline reicht aber nicht aus, so dass das deutsche Gasnetz auch die Nachbarn Österreich, Tschechien und indirekt die Slowakei versorgt. Über die Slowakei und Polen erhält die Ukraine Gas in Umkehrung der bisherigen Fließrichtung (reverse Flow). Die gesamte Exportmenge ist mit 1TWh täglich erheblich und liegt in der Höhe der täglichen Entnahme aus den deutschen Gasspeichern. Die Grafik zeigt den Anstieg der Exporte aus Deutschland seit der Schließung der Transgas-Pipeline aus der Ukraine.
Quelle: Bundesnetzagentur
Quelle: Bundesnetzagentur
Wie immer sich die Erdgasversorgung in den nächsten 3 Wochen entwickelt, es gäbe einen guten Anlaß, die politische Debatte über die eigene Erdgasversorgung durch Schiefergas aus der norddeutschen Tiefebene zu eröffnen. Dort lagert ausreichend preiswertes Erdgas für die nächsten 30 Jahre. Die Förderung von Erdgas aus 1000 m tiefen Gesteinsschichten ist seit 2017 durch Bundesgesetz verboten (Fracking-Verbot).
Der Beitrag Die Gasspeicher leeren sich: Uns trennt noch eine Kälteperiode von der Notstandssituation, von Fritz Vahrenholt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Woher kommt der Strom? Windstrom-Erzeugungstiefpunkt
Die aktuelle Analysewoche hatte am Mittwoch einen Windstrom-Erzeugungstiefpunkt. Dieser korrelierte mit dem Stromhöchstpreis (186€/MWh; 0,186€/kWh) der Woche. Anschließend stieg die Windstromerzeugung an und erreichte schließlich am Samstag zusammen mit den anderen „Erneuerbaren“ (Wasserkraft, Biomasse und den sonstigen Erneuerbaren) vor Beginn der PV-Stromerzeugung den Strombedarf Deutschlands. Das ist selbstverständlich auch dem geringen Wochenendbedarf in Verbindung mit dem Karneval geschuldet. Zu Negativpreisen kam es nicht; der Wochentiefstpreis lag bei 35€/MWh, 0,35€/kWh). Es wechselten sich im Lauf der Woche Im- und Exporte ab. Zunächst überwogen Stromimporte, ab Mittwochabend wurde fast durchgehend Strom exportiert. Netto wurden 194 GWh mehr Strom ex- als importiert.
Einen Überblick über die wichtigsten Aspekte der 8. Analysewoche 2026 gibt Agora-Energiewende. Diese NGO erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. Wir nehmen den möglichen Prognose-Höchstwert von 86 Prozent Ausbaurate. Die Residuallasten liegen am Mittwoch über 70 GW. Zu Wochenende kommt es zu starker Strom-Übererzeugung.
Was ist Kraftwerks-Leistung? Was ist Energie?
Gigawatt (GW) ist eine Einheit für Leistung, also für die maximale Fähigkeit eines Kraftwerks, Strom zu erzeugen. Gigawattstunden (GWh, TWh) sind eine Einheit für Energie, also für die tatsächlich produzierte Strommenge über eine bestimmte Zeit. Die Beziehung ist einfach: Energie = Leistung × Zeit. Ein Kraftwerk mit 1 GW Leistung erzeugt bei Volllast theoretisch maximal: 1 GW × 8.760 h = 8,76 TWh pro Jahr. Wie viel elektrische Energie tatsächlich entsteht, bestimmt beim Kohle-, Gas- oder Kernkraftwerk im weitesten Sinn der Mensch über die Brennstoffzufuhr und Zufuhrdauer. Die Energie für eine Stunde wird üblicher- und für den Normalbetrachter irreführenderweise mit GW bezeichnet. Die manchmal verwendete Schreibweise „GWh pro Stunde“ ist nur eine umständliche Form von GW – mathematisch kürzt sich die Sunde („h“ und „pro Stunde“) weg.
Sonderfall Wind- und Solarkraft
Bei Wind- und Solarkraft bestimmt nicht der Betreiber, sondern das Wetter die Strom-Produktion. Eine 5-MW-Windkraftanlage könnte theoretisch 43,8 GWh/Jahr erzeugen, liefert an Land aber realistisch in Deutschland nur etwa 20 Prozent davon (auf See 40 bis 50 Prozent), also rund 8,8 GWh/Jahr – im Mittel 1 MW-Dauerenergie. Bei Solarpaneelen mit ebenfalls 5 MW installierter Leistung halbieren sich die Werte nochmals wegen verschiedener Kapazitätsfaktoren: Nacht, Winter, flacher Sonnenstand, Bewölkung und Temperaturverluste.
In diesem Zusammenhang mein wiederkehrender Appell an die Verantwortlichen von „Unsererdemokratie“ und die „Freunde der Energiewende“: Stoppen Sie die Energiewende. Streichen Sie die CO2-Steuern und bauen Sie wieder eine kostengünstige, verlässliche Energieversorgung mit Kernenergie auf, bevor es zu spät ist. Hören Sie auf, einer Schimäre nachzujagen. Die Energiewende ist zum Scheitern verurteilt.
Tageswerte
Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potenzial.
Windstrom fällt. PV-Strom winterlich schwach. Die Strompreise wurden nicht ausgeworfen
Wind-Stromerzeugung zieht etwas an. Die Strompreise.
Ein Windloch über Mittag. Die Strompreise.
Die regenerative Stromerzeugung zieht an und bleibt konstant. Die Strompreise.
Regenerative Stromerzeugung steigt weiter. Die Strompreise.
Jetzt wieder fallende regenerative Stromerzeugung auf hohem Niveau bei niedrigerem (Wochenend-)Bedarf. Die PV-Stromerzeugung kaum vorhanden. Die Strompreise.
Windstrom stark. Die Strompreise .
Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.
Ab Ausgabe 1/2026 bilden die öffentlichen Analyseseiten smard.de, Agora Energiewende und Energy-Charts die Datengrundlage dieser Kolumne. Stromdaten.info läuft aus.
Der Beitrag Woher kommt der Strom? Windstrom-Erzeugungstiefpunkt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kältereport Nr. 9 / 2026
Meldungen vom 23. Februar 2026:
USA: Starker Blizzard im NordostenEtwa 35 Millionen Menschen von Virginia bis Maine sind von Schneesturmwarnungen betroffen – mehr als 10 % der Bevölkerung der kontinentalen Vereinigten Staaten. Insgesamt sind über 65 Millionen Menschen von Sturmwarnungen betroffen, fast ein Fünftel der Bevölkerung des Landes.
Das System begann sich am frühen Montagmorgen zu entwickeln und trat in eine Phase rascher Intensivierung ein. Der zentrale Druck sinkt auf Werte, die mit denen eines Hurrikans der Kategorie 2 vergleichbar sind, ein Zeichen für einen extrem starken Sturm in den mittleren Breiten. Die Folgen sind weit verbreitete Whiteout-Bedingungen und Schneeverwehungen.
In New York City zeigen Bilder, wie Schnee an Straßenschildern in Brooklyn klebt, wobei die Gesamtmenge um 2 Uhr morgens Ortszeit bereits etwa 23 cm erreicht hat und sich die Bedingungen weiter verschlechtern.
…
——————————-
Grönland: Kälte nähert sich Allzeit-RekordwertenÜber Grönland entwickelt sich einer der intensivsten Kaltluftkörper, die jemals beobachtet worden waren. Ein historisch intensiver troposphärischer „Polartwirbel“ hält die Insel im Griff. Die Luftmasse ist außergewöhnlich trocken, der Himmel weitgehend klar, und langwellige Strahlung kann ungehindert ins All entweichen. Diese Kombination ermöglicht extreme Strahlungskühlung.
Die Temperaturen im 500 hPa-Niveau sollen auf etwa -58,5 °C fallen:
Bei dieser kalten Luft in der Höhe und fast keiner Feuchtigkeit, die Wärme speichern könnte, sinken die Bodentemperaturen auf dem Eisschild rapide.
Laut dem Dänischen Meteorologischen Institut ist die Kälte bereits eingetreten. Es wurden Werte unter -50 °C gemessen, und die Prognose für die neue Woche geht von einer weiteren Abkühlung auf etwa -65 °C aus.
Damit nähert sich Grönland dem in der Neuzeit gemessenen Extremwert von -69,4 °C, der im Dezember 1991 (nach dem Ausbruch des Pinatubo) gemessen worden war. Der Februar-Rekord am Summit, der am 28. Februar 2020 mit -63,9 °C gemessen worden war, dürfte sehr wahrscheinlich fallen.
…
——————————-
Alpen: Weiterer NeuschneeIn den Alpen schneit es weiter. Im Arlberg liegt die Schneehöhe mittlerweile vielerorts bei über 2 Metern.
Lech und Zürs am Arlberg waren am Wochenende aufgrund der erhöhten Lawinengefahr von der Außenwelt abgeschnitten, während weiter westlich in La Rosière in Savoyen die Schneehöhe bereits 3 Meter überschritten hat – Tendenz steigend. In der Schweiz liegt die Schneehöhe am Glacier 3000 „offiziell” bei 180 cm (mit höheren Verwehungen):
…
——————————-
Blizzards in ChinaAm Wochenende fegten Schneestürme über Nordchina hinweg und führten zu weitreichenden Verkehrsbehinderungen.
Die schlimmsten Bedingungen wurden im Tianshan-Gebirge und in Hulunbuir in der Inneren Mongolei gemeldet, wo starke Winde und Schneeverwehungen mehrere Autobahnen blockierten.
Weiter westlich wurden auch große Teile von Xinjiang von heftigen Schneeverwehungen heimgesucht. Die Sichtweite nahm auf exponierten Strecken stark ab, was zu weiteren Sperrungen führte.
——————————-
Meldungen vom 24. Februar 2026:
Strenge Kälte hält über Grönland anDer kalte Kern der Arktis hat sich dramatisch verschärft.
An der Summit Station in Grönland sank die Temperatur in den frühen Morgenstunden des 24. Februar auf -60,4 °C und erreichte damit den niedrigsten Wert der Saison in der gesamten nördlichen Hemisphäre. Damit wurde der bisherige Saison-Tiefstwert von -59 °C in Delyankir in Russland unterboten.
Alle Augen bleiben auf Grönland gerichtet, wo im Laufe der Woche Rekordkälte möglich ist.
Das DMI prognostiziert Temperaturen von -67 °C, was der niedrigsten jemals auf der Nordhalbkugel gemessenen Temperatur nahekommen würde – derzeit sind es-69,6 °C, gemessen am 21. Dezember 1991 (nach dem Ausbruch des Pinatubo).
[—88,5°F ≈ —67°C]
Im benachbarten Nunavut fielen die Temperaturen am Montag unter -40 °C, als mehrere Gemeinden von Schneestürmen heimgesucht wurden. Starke Winde ließen die gefühlte Temperatur auf -65 °C sinken, unter anderem in Taloyoak, wo es innerhalb weniger Minuten gefährlich wurde, sich im Freien aufzuhalten.
Weiter westlich sank die Temperatur in Eureka auf -50,4 °C – der erste Wert unter -50 °C in dieser Saison in Kanada.
Dies ist ein konsolidiertes arktisches Reservoir, das große Systeme stromabwärts speist…
…
Anmerkung des Übersetzers: Extreme Kälte in Grönland hatte und hat in Europa fast immer milde oder sehr milde Witterung zur Folge. Das ist der normalen Verteilung der Rossby-Wellen geschuldet. Auf dem Atlantik sorgt dieser besonders große horizontale Temperaturunterschied für die Bildung der riesigen Orkanwirbel, die es bisher in diesem Winter noch nicht gab. Solange sich die Kälte über Grönland hält, wird es auch weiterhin bei uns mild bleiben.
Ausbrüche aus dem Kältereservoir dort betreffen natürlich nun auch angrenzende Gebiete…
——————————-
Kanada: Schnee-Rekorde in NeufundlandEin Wintersturm hat Neufundland heimgesucht.
In Paradise wurden 79,5 cm Schnee gemessen, wobei im gesamten östlichen Teil der Avalon-Halbinsel insgesamt 60 bis 70 cm Schnee gefallen sind. In St. John’s East wurden 55,6 cm gemessen, während im nahe gelegenen Ferryland 70 cm erreicht worden sind.
Der Sturm folgte unmittelbar auf ein früheres großes Sturmsystem, wodurch sich die Auswirkungen verstärkten und kaum Zeit für eine Erholung blieb. In vielen Gebieten sind nun innerhalb einer Woche mehr als 100 cm Schnee gefallen.
Die Schneemenge in St. John’s ist in diesem Monat auf 165 cm gestiegen, womit die Stadt nur noch 5 cm an den schneereichsten Februar seit Beginn der Aufzeichnungen (170,1 cm im Jahr 2006) heran reicht, und nähert sich schnell dem schneereichsten Kalendermonat aller Zeiten (173,4 cm im Dezember 2000) – in Aufzeichnungen, die bis ins späte 19. Jahrhundert zurückreichen und seit den 1940er Jahren lückenlos geführt werden.
Weiter südlich…
——————————-
USA: Rekorde brechender Blizzard im NordostenEin „Blockbuster-Blizzard“ fegt über den Nordosten der USA hinweg und bringt extreme Schneefälle und anhaltende Winde von Virginia und Delaware bis nach New England – einschließlich New York City und Boston.
Das System verstärkte sich rasch und führte in mehreren Bundesstaaten zu bestätigten Blizzardbedingungen.
Die Schneefallraten erreichten 8 cm pro Stunde. Dutzende Orte von der Delmarva-Halbinsel bis zum nördlichen New England haben bereits locker 30 cm überschritten, wobei die Gesamtmenge weiter steigt.
Rhode Island ist bislang am stärksten betroffen.
Warwick meldete mit 90 cm die bislang höchste Gesamtmenge. In Providence wurden am Montag um 13 Uhr am T.F. Green Airport 83 cm gemessen, was offiziell den größten jemals registrierten Schneesturm darstellt und den bisherigen Rekord von 73 cm aus dem Blizzard vom 6. bis 7. Februar 1978 bricht. Außerdem fielen an einem einzigen Tag 77 cm, was den bisherigen Tagesrekord von 18 cm aus dem Januar 1996 deutlich übertrifft.
New York City hat bisher 50 cm gemessen, den stärksten Schneefall seit Februar 2021 und möglicherweise den stärksten Sturm seit einem Jahrzehnt, abgesehen vom Wintersturm Jonas im Januar 2016. Philadelphia hat 36 cm erreicht, den stärksten zweitägigen Schneefall seit 2016. Atlantic City hat 43 cm verzeichnet und nähert sich damit fast seinem durchschnittlichen jährlichen Schneefall in diesem einen Ereignis. Und Boston liegt bisher bei 37 cm, was diesen Sturm bereits zum stärksten seit vier Jahren macht.
Während des Schneesturms lieferten die Windkraftanlagen von ACUA in Atlantic City genau 0,00 kWh ins Netz – weil es zu viel Wind gab. Gerade als Strom am dringendsten benötigt wurde, versagte die „erneuerbare“ Energie erneut.
[Hervorhebung vom Übersetzer]
…
Unterdessen hat im Westen ebenfalls sehr starker Schneefall das Central Sierra Snow Lab in der Nähe des Donner Passes unter einer Schneedecke begraben.
In nur fünf Tagen fielen insgesamt 282 cm Schnee, was diesen Zeitraum zum drittschneereichsten 5-Tage-Zeitraum seit Beginn der Messungen im Jahr 1970 macht.
Erster Platz: 300 cm, April 1982.
Zweiter Platz: 287 cm, Dezember 1970.
Dritter Platz: 282 cm, Februar 2026.
All dieser Schnee hat zur Masse der nördlichen Hemisphäre beigetragen, die nach einem langsamen Start nun über dem Durchschnitt von 1982-2012 liegt:
…
——————————-
Meldungen vom 25. Februar 2026:
Grönland: Kälte bis –65.3°CDie außergewöhnliche Kältewelle über Grönland hält an.
Summit verzeichnete gerade eine Tiefsttemperatur von -65,3 °C, nur 2 °C unter dem Februar-Rekord der Station.
Die Angabe des Taupunktes in der Graphik habe ich nicht verstanden. Der Taupunkt muss niedriger liegen als die Lufttemperatur bzw. kann höchstens den gleichen Wert annehmen. A. d. Übers.
Die Automatische Wetterstation (AWS) Klinck ist offiziell als Grönlands Rekordhalterin anerkannt, mit einer am 22. Dezember 1991 gemessenen Temperatur von -69,6 °C (die niedrigste jemals in der nördlichen Hemisphäre gemessene Lufttemperatur in Bodennähe). Die Station ist jedoch nicht mehr in Betrieb.
Im Internet herrscht weiterhin Verwirrung, da einige Kommentatoren Temperaturrekorde verschiedener Einrichtungen miteinander vermischen. Ältere Stationen aus der dänischen Ära (Klinck) und die derzeitigen, von den USA betriebenen Camps (Summit) werden oft miteinander verwechselt.
Unabhängig davon nähert sich das Hochland Grönlands historischen Rekordwerten.
Der dänische Wetterdienst DMI deutet an, dass es noch kälter werden könnte.
Unterdessen gleitet die Antarktis am anderen Ende der Welt in ihre Winterphase.
Am 24. Februar verzeichnete die Südpolstation erstmals in dieser Saison Temperaturen unter -50 °C:
——————————-
USA: Weiterhin historische Blizzard-Bedingungen im NordostenEin einmaliger Schneesturm hat diese Woche den Nordosten der USA heimgesucht und Schneefallrekorde gebrochen.
Große Ballungsräume wurden schwer getroffen. In New York City, Boston und Philadelphia fielen insgesamt 40 bis 50 cm Schnee, wobei die lokalen Mengen unter intensiven Verwehungen weitaus höher waren.
In Providence wurde mit 96,3 cm ein neuer Landesrekord aufgestellt. Die Gesamtmenge innerhalb von 24 Stunden betrug 90,2 cm, ebenfalls ein Landesrekord. Bei einer Niederschlagsmenge von etwa 67 mm in Flüssigkeitsäquivalent und 94 cm Schnee ergibt sich ein Verhältnis von Schnee zu Flüssigkeit von fast 14:1.
…
——————————-
Am 26. und 27. Februar 2026 bringt Cap Allon keine aktuellen Kaltmeldungen, sondern nur Meldungen, die in die „Kurzbeiträge“ Eingang finden werden.
Wird fortgesetzt mit Kältereport Nr. 10 / 2026
Redaktionsschluss für diesen Report: 27. Februar 2026
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kältereport Nr. 9 / 2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kuba wird das erste Land, das Netto-Null erreicht. Sollten wir das nicht feiern?
Francis Menton, THE MANHATTAN CONTRARIAN
Da stand es auf der Titelseite der Samstagsausgabe der New York Times: Mit ein wenig Unterstützung seitens der Vereinigten Staaten hat der Inselstaat Kuba die Nutzung fossiler Brennstoffe fast vollständig eingestellt. Endlich haben wir das erste Land der Welt, das den Heiligen Gral und das Nirwana der Klimabewegung erreicht hat – Netto-Null! Oder zumindest eine sehr nahe Annäherung daran. Das sollte doch Anlass zu einer großen Feier sein.
Man könnte meinen, dass die Times, die seit mindestens zwei Jahrzehnten die Abschaffung fossiler Brennstoffe fordert, an der Spitze der Feierlichkeiten stehen würde. Aber seltsamerweise entscheidet sich die Times nun, da Kuba endlich den Weg gewiesen hat, die Errungenschaft in einem völlig anderen Licht darzustellen. Die Überschrift und Unterüberschrift lauten (Printversion; übersetzt): „USA drosseln Öllieferungen an kubanische Häfen; Militäraktion zwingt Nation in die Knie.“
Dem Artikel zufolge hilft die Trump-Regierung Kuba dabei, Netto-Null zu erreichen, indem sie Öltanker daran hindert, dort anzulegen. Irgendwie wird das in diesem Artikel als etwas Schlechtes dargestellt. Es habe Kuba „in die Knie gezwungen“.
Das Lustige daran ist, dass wir hier in den USA vor etwas mehr als einem Jahr noch Präsident Biden und eine Regierung voller eifriger Umweltschützer hatten, die alle ihnen zur Verfügung stehenden staatlichen Mittel einsetzten, um die Amerikaner dazu zu zwingen, auf die Nutzung fossiler Brennstoffe zu verzichten. Mit der Durchführungsverordnung 14057 vom 8. Dezember 2021 hatte Biden alle Bundesbehörden angewiesen, eine aggressive „ganzheitliche Regierungsmaßnahme” zu verfolgen, um „Netto-Null” in einem beschleunigten Zeitplan zu erreichen. Die Ziele Nummer 1 und 2 dieser Verordnung lauten „100 Prozent CO2-freier Strom auf Jahresbasis bis 2030” und „100 Prozent emissionsfreie Fahrzeugbeschaffung bis 2035”. Im Jahr 2023 veröffentlichte das Verkehrsministerium einen „Entwurf“ zur Beseitigung aller Kohlenstoffemissionen aus dem Verkehrssektor. Im Jahr 2024 veröffentlichte die EPA einen Plan zur Abschaffung fossiler Brennstoffe bei der Stromerzeugung. Ähnliche Initiativen gab es überall in der Regierung.
Hat die Times jemals behauptet, dass die Regierung mit ihrem Vorstoß, die Nutzung fossiler Brennstoffe zu beenden, „Amerika in die Knie zwingt“? Oder dass die Beendigung der Nutzung fossiler Brennstoffe überhaupt ein Problem darstellt? Wenn sie jemals etwas Derartiges behauptet hat, habe ich es nicht mitbekommen. Was ich stattdessen gesehen habe war, dass die Times der größte Befürworter staatlicher Zwangsmaßnahmen zur Unterdrückung der Nutzung fossiler Brennstoffe war, zumindest wenn es um die Nutzung durch Amerikaner ging.
Und doch, wenn man dem gestrigen Artikel Glauben schenkt, ist die Abschaffung fossiler Brennstoffe, die für die Vereinigten Staaten ein solcher Segen sein sollte, in Kuba irgendwie ein Problem. Aus dem Artikel der Times:
In Kuba haben die Menschen mit häufigen Stromausfällen, Benzin- und Kochgas-Engpässen sowie schwindenden Vorräten an Dieselkraftstoff zu kämpfen, der die Wasserpumpen des Landes antreibt. Der Müll stapelt sich, die Lebensmittelpreise steigen, Schulen sagen den Unterricht ab und Krankenhäuser setzen Operationen aus.
Was übersehe ich hier? Seit wann sind Brennstoffe wie Öl, Benzin, Erdgas und Diesel noch notwendig oder gar nützlich oder wirtschaftlich, um die Menschen mit Energie zu versorgen? Seit Jahren betont die Times unermüdlich, dass Wind- und Solarenergie mittlerweile die günstigsten Möglichkeiten zur Energieerzeugung sind und dass alle vernünftigen Menschen auf diese besten Energiequellen setzen. Zum Beispiel am 17. August 2023:
Da der Planet die höchsten jemals gemessenen Temperaturen verzeichnet, die an einigen Orten auf Werte steigen, die mit menschlichem Leben unvereinbar sind, investieren Regierungen weltweit Billionen von Dollar in saubere Energien, um die Kohlenstoffbelastung zu reduzieren, die den Planeten aufheizt. Die Kosten für die Stromerzeugung aus Sonne und Wind sinken rapide und sind in vielen Bereichen mittlerweile günstiger als Gas, Öl oder Kohle. Private Investitionen fließen in Unternehmen, die um Vorteile in den aufstrebenden grünen Industrien wetteifern.
Mit anderen Worten: Um die Nutzung fossiler Brennstoffe einzustellen, müsste Kuba lediglich ein paar Windkraftanlagen und Sonnenkollektoren aufstellen, und schon könnte es seine Wirtschaft mit reichlich vorhandener erneuerbarer Energie betreiben, ohne auf die unangenehmen fossilen Brennstoffe zurückgreifen zu müssen. Und dabei würde es auch noch Geld sparen! Kuba verfügt tatsächlich über eine Reihe von Windparks. Warum nutzt es diese nicht einfach, um den Strom zu liefern, der zuvor durch fossile Brennstoffe erzeugt wurde?
Es scheint, als würden die Leute, die diese Artikel für die Times schreiben, ihre eigene Zeitung nicht lesen.
In der Zwischenzeit möchte ich als Erster dem kubanischen Volk dazu gratulieren, dass es als erstes Land die Netto-Null-Vorgabe erreicht hat.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Kuba wird das erste Land, das Netto-Null erreicht. Sollten wir das nicht feiern? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
