EIKE - Europäisches Institut für Klima und Energie e.V.

EIKE - Europäisches Institut für Klima und Energie e.V. Feed abonnieren EIKE - Europäisches Institut für Klima und Energie e.V.
Nicht das Klima ist bedroht, sondern unsere Freiheit!
Aktualisiert: vor 3 Stunden 54 Minuten

Ein weiterer Grund, warum die Stromerzeugung aus Wind und Sonne niemals ausreichen wird, um eine Wirtschaft zu betreiben

2. April 2026 - 17:00

WUWT, THE MANHATTAN CONTRARIAN, Francis Menton, 26.03.2026

Wer fossile Brennstoffe ablehnt – und wer tut das schon? –, für den haben unsere Experten aus Wissenschaft und Umweltorganisationen die perfekte Antwort parat: Wir können unseren Energiebedarf einfach durch Strom aus Wind und Sonne decken. Die Energiequelle ist reichlich vorhanden und kostenlos. Die New York Times berichtete , dass die Stromkosten aus Wind und Sonne mittlerweile niedriger sind als die Kosten für Strom aus fossilen Brennstoffen. Und während wir Stromkosten sparen, schonen wir gleichzeitig die Umwelt! Alle Studierenden der Soziologie und Gender Studies sind sich einig, dass wir eine moralische Pflicht haben, unser Energiesystem von fossilen Brennstoffen auf „sauberen und grünen“ Wind- und Solarstrom umzustellen. Wer könnte sich uns schon in den Weg stellen?

Auf dieser Website habe ich mich eingehend mit der Dokumentation gravierender Schwächen dieser Darstellung auseinandergesetzt. Insbesondere habe ich zahlreiche Beiträge zum Thema der intermittierenden Stromerzeugung aus Wind- und Solarenergie verfasst. Diese führt dazu, dass entweder eine permanente, vollständige Absicherung durch eine andere Energiequelle oder alternativ massive Energiespeicherkapazitäten erforderlich sind, um ein voll funktionsfähiges Stromnetz ohne regelmäßige Stromausfälle zu gewährleisten. Wie mein Energiespeicherbericht vom Dezember 2022 zeigt, könnten ausreichende Energiespeicher in Form von Batterien die Stromkosten aus Wind- und Solarenergie um das Zehnfache oder mehr erhöhen.

Es hat sich herausgestellt, dass die intermittierende Stromerzeugung nur eines der Hauptprobleme bei Wind- und Solarenergie ist, die diese Energiequellen für den Betrieb eines Stromnetzes völlig unpraktisch und unerschwinglich machen. Ein weiteres großes Problem, das ich hier bisher nur kurz angesprochen habe, ist die Synchronisation und die damit verbundene Trägheit. Ich gehe davon aus, dass die meisten Leser mit diesem Thema kaum vertraut sind und auch nicht wissen, warum es sich als unüberwindbares Problem erweist, wenn Länder versuchen, auf ein überwiegend auf Wind- und Solarenergie basierendes Stromerzeugungssystem umzustellen. Dieser Beitrag soll Ihnen daher eine Einführung in dieses Thema geben.

In meiner Freizeit engagiere ich mich im Vorstand der „American Friends of the Global Warming Policy Foundation“. Diese amerikanische Wohltätigkeitsorganisation sammelt Spenden für zwei Partnerorganisationen in Großbritannien: die Global Warming Policy Foundation und Net Zero Watch . Am 9. März veranstaltete Net Zero Watch in Edinburgh einen Vortrag der Energieberaterin Kathryn Porter zum Thema „Schottlands Energiekrise“.

Frau Porters vollständiger Vortrag ist unter diesem Link zu finden. Diese Kathryn Porter ist nicht zu verwechseln mit Katherine („Katie“) Porter, der etwas exzentrischen ehemaligen Kongressabgeordneten und jetzigen Gouverneurskandidatin in Kalifornien. Unsere Kathryn Porter betreibt ein Energieberatungsunternehmen in Großbritannien und hat eine sehr informative Website namens watt-logic.com . Und sie weiß definitiv, wovon sie spricht, wenn es um die Funktionsweise eines Stromnetzes geht.

Während Frau Porters Vortrag sich speziell mit der aktuellen Situation des schottischen Stromnetzes befasste, stellte sich heraus, dass das größte Problem des schottischen Stromnetzes die Aufrechterhaltung der Synchronisierung ist. Falls Ihnen dieser Begriff nicht geläufig ist, überlasse ich Frau Porter die Erläuterung:

[Nachfolgende Beschreibung habe ich nach meinem Verständnis korrigiert – Demmig
Wer darüber mehr wissen möchte, schauen Sie meine Ausarbeitung ganz unten an.]

Unsere Stromnetze basieren auf Wechselstrom, also Strom, dessen Stärke sich im Laufe der Zeit sinusförmig ändert. Auch die Spannung ändert sich entsprechend. Dieser Strom wird mithilfe grundlegender physikalischer Prinzipien erzeugt.

Bewegt man einen Draht im Magnetfeld eines Magneten, wird eine Spannung induziert. Sind die Drahtenden miteinander verbunden, so fließt darin ein Strom. In unseren Stromnetzen sind „die Drähte“ über die Stromnetze und die Verbraucher „miteinander verbunden“.

In einem Generator sind diese Drähte um ein Eisenteil gewickelt – als Läufer, Rotor oder auch Anker bezeichnet. Die vorgebaute Turbine dreht sich und damit diesen Rotor. Drumherum ist das Gehäuse des Generators, ebenfalls mit Spulen bewickelt und in exakten Abständen zueinander verteilt – Fachname „der Ständer“. Durch diese Spulen im Ständer fließt ein Strom, der damit ein Magnetfeld erzeugt, in dem sich der Rotor dreht – physikalisches Prinzip, wie oben beschrieben (es würde auch im Feld eines Dauermagneten funktionieren, kann dann aber nicht in der Stärke reguliert werden)

Je nach Polzahl (Anzahl der paarigen Wicklungen im Ständer) rotiert der Läufer mit 3.000 1/min (zweipolig) oder 1.500 1/min (vierpolig).  (achtpolig usw. gibt’s auch, je nach Platz im Ständer, dann verringert sich die notwendige Drehzahl, um einen Sinus mit genau 50Hz zu bekommen.)

Das gesamte Stromnetz basiert auf diesen Eigenschaften: Strom und Spannung wechseln mit stabilen 50 Hz, und die Größe und Form der Spannungswelle müssen im gesamten Netz konstant bleiben. [In Nordamerika, Saudi-Arabien und Teilen von Japan beträgt die Frequenz 60 Hz statt 50 Hz.] Bevor ein Generator an das Netz angeschaltet wird, muss er hinsichtlich Spannung [Stärke des Magnetfeldes des Ständers] Frequenz [Drehzahl] und Phase [Beginn des Spannungsanstiegs] mit dem Netz synchronisiert werden – das heißt, die Wellenberge und -täler müssen übereinstimmen. Dieser Vorgang wird als Synchronisation bezeichnet.

Was Frau Porter als „konventionelle Kraftwerke“ bezeichnet, umfasst alle Wärmekraftwerke – sowohl fossil befeuerte als auch nukleare – sowie Wasserkraftwerke. Wind- und Solaranlagen fallen jedoch nicht unter diesen Begriff. Diese verfügen nicht über große, schwere rotierende Komponenten, die den für den Netzbetrieb unerlässlichen Wechselstrom mit konstanter Frequenz erzeugen und aufrechterhalten. Stattdessen erzeugen sie sogenannten Gleichstrom, der mithilfe von Wechselrichtern in Wechselstrom mit der Netzfrequenz umgewandelt wird. Zwar lässt sich Wind- und Solarstrom durch diese Wechselrichter in synchronisierten Wechselstrom umwandeln, um ihn in ein bestehendes Netz einzuspeisen, doch ist die Wind-/Solarstromerzeugung nicht in der Lage, die notwendige Netzfrequenz zu erzeugen oder gar aufrechtzuerhalten. Frau Porter erklärt dazu:

„Der drehende Läufer hat eine Rotationsenergie, die man  Trägheit nennt und Drehzahländerungen entgegen wirkt – je nach Masse = Energie mehr oder weniger. Eine höhere oder auch geringere Belastung [Verbraucher werden hinzu- oder abgeschaltet] beeinflußt die Rotation der Läufer. Doch die Rotationsenergie stabilisiert die Frequenz. Zu erwähnen ist noch, das es sich um Synchrongeneratoren handelt, die entsprechend der Drehzahl eine stabile / gleichmäßige Frequenz liefern.

Dies ist wichtig, denn wenn die Frequenz im Netz – oder gar zugeschaltete Stromquellen in Frequenz, Phase und Spannungshöhe zu stark voneinander abweichen, kommt es zu Ausgleichsströmen, die sogar andere Generatoren, Trafos und auch Verbraucher beschädigen können. Daher verfügen Kraftwerke über Schutzrelais, die die Turbinen bei einem gefährlichen Frequenzpegel abschalten. Schalten Kraftwerke mit dem unkontrolliert ab, kommt es zu Stromausfällen. Daher ist es äußerst wichtig, dass dies verhindert wird.

Die rotierenden Generatoren besitzen ebenfalls „elektromagnetische Trägheit“, was bedeutet, dass sie die Spannung – zu hoch, zu gering, stützen. Verändert sich die anliegende Netzspannung [Spannungshöhe, Frequenz], verändert sich der Ausgleichstrom in den Synchrongeneratoren Strom automatisch und versucht die Netzspannung wieder nachzuregeln. In konventionellen Kraftwerken geschieht dies aufgrund ihrer physikalischen Eigenschaften quasi automatisch. Sie benötigen kein externes Steuerungssystem, um Änderungen im Netzverhalten zu erkennen und entsprechende Anpassungen vorzunehmen.

Wind- und Solaranlagen verhalten sich dagegen sehr unterschiedlich. Windgeneratoren erzeugen je nach Drehzahl unterschiedliche Frequenzen, daher werden diese gleichgerichtet, Solarpanels erzeugen Gleichspannung, beide Quellen schwanken allerdings in der Spannungshöhe. d. h. Stromstärke und Spannung sind zeitlich nicht konstant. Aber Wechselrichtern wandeln die Gleichspannung in Wechselstrom. Wechselrichter benötigen zwingend die anliegende Netzspannung um dieser zu folgen – um dort Energie „passend hinein zu liefern“. (In Einzelanwendungen, die vom Netz völlig unabhängig arbeiten, können Wechselrichter selbstverständlich Energie liefern – Inselnetz)

Wenn man also alle „konventionellen“ Energiequellen ausschließt und nur noch Wind- und Solarenergie zur Verfügung stehen, wie kann man dann ein Stromnetz aufbauen und es mit einer stabilen Frequenz von 50 oder 60 Hz betreiben? Frau Porter erklärt, dass es ein Konzept namens „netzbildende Wechselrichter“ gibt – aber diese existieren noch nicht!

Es gibt einige Bestrebungen zur Entwicklung netzbildender Wechselrichter, die [die Strom- und Spannungswelle erzeugen würden], aber es gibt große Herausforderungen bei ihrer Entwicklung, und bisher gibt es weltweit keine derartigen Geräte, die tatsächlich das Stromnetz bilden.

Die „netzbildenden Wechselrichter“ ähneln somit sehr den magischen „steuerbaren emissionsfreien Ressourcen“, von denen unsere New Yorker Energiebürokraten erwarten, dass sie eines Tages jemand erfinden wird, um das Problem der intermittierenden Energieversorgung zu lösen.

Frau Porter erklärt, dass der große Stromausfall in Spanien im April 2025 auf einen Mangel an konventionellen Kraftwerken mit ausreichender Trägheit zurückzuführen ist, um das Stromnetz bei einer Spannungsanomalie zu stabilisieren:

Spanien hat die meisten konventionellen Kraftwerke im Süden stillgelegt und kämpft nun mit der Spannungsregelung. Der Netzbetreiber warnt, dass weitere Stromausfälle nicht ausgeschlossen werden können.

Und dann erklärt Frau Porter, dass Schottland sich in einer ähnlichen Lage wie Spanien befindet. Schottland hat voll auf Windenergie gesetzt und bis auf zwei alle konventionellen Kraftwerke stillgelegt. Daher scheint Schottland die meiste Zeit über ausreichend Strom zu verfügen. Es ist jedoch völlig von den beiden verbliebenen konventionellen Kraftwerken abhängig, um die Netzfrequenz und -stabilität aufrechtzuerhalten. Eine kleine Störung, und das gesamte System bricht zusammen. Ach ja, und diese beiden letzten konventionellen Kraftwerke sollen innerhalb der nächsten Jahre abgeschaltet werden. Wind und Sonne sind schließlich reichlich vorhanden und kostenlos!

Der Vortrag von Frau Porter ist von weitaus größerem Interesse und lohnt sich auf jeden Fall, wenn Sie sich für dieses Thema interessieren.

https://wattsupwiththat.com/2026/03/26/yet-another-reason-why-wind-and-solar-electricity-generation-will-never-work-to-run-an-economy/

Wechselstromnetz – Gleichtakt ist wichtig

Der Beitrag Ein weiterer Grund, warum die Stromerzeugung aus Wind und Sonne niemals ausreichen wird, um eine Wirtschaft zu betreiben erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Klimamodelle entdecken eine weitere Wirkung von CO₂

2. April 2026 - 14:00

Charles Rotter

Eine neue Studie macht die Runde, und auf den ersten Blick scheint sie eine weitere Wendung in der Klimadebatte zu bieten: Kohlendioxid, das Molekül, das üblicherweise als Hauptverursacher der Erwärmung dargestellt wird, kann offenbar eine Abkühlung bewirken – zumindest über Indien, zumindest im Sommer und zumindest innerhalb eines bestimmten Modellierungsrahmens.

https://www.nature.com/articles/s41467-026-69875-2

Das allein sollte jedem zu denken geben, dem bisher gesagt wurde, die „Wissenschaft sei sich einig“.

Die betreffende Studie formuliert ihre zentrale These klar und deutlich:

„Steigende CO₂-Konzentrationen in der Atmosphäre können auch zu einer Abkühlung im Sommer über Indien führen.“

Dies wird als „bisher unterschätzter Effekt“ dargestellt, bei dem der Treibhauseffekt die atmosphärische Zirkulation so verändert, dass sich die Bewölkung verdichtet, die Sonneneinstrahlung an der Erdoberfläche abnimmt und die Temperaturen lokal sinken.

Abstract

Als Reaktion auf anthropogene Einflüsse erwärmt sich die Erdoberfläche im Allgemeinen, da Treibhausgase die abgehende langwellige Strahlung zurückhalten. Entgegen der Intuition weisen einige Regionen vor dem Hintergrund dieser globalen Erwärmung jedoch eine Abkühlung der Oberfläche auf – ein Phänomen, das als „Warming Hole“ bekannt ist. Über die gut dokumentierten „Warming Holes“ über dem Nordatlantik und dem Südosten der Vereinigten Staaten hinaus zeigen wir hier, dass steigende CO₂-Konzentrationen in der Atmosphäre auch eine Abkühlung im Sommer über Indien bewirken können. Aufgrund des direkten Strahlungseffekts von CO₂ werden die Erwärmung des eurasischen Kontinents im Vergleich zu den umgebenden Ozeanen, der Feuchtigkeitstransport in den unteren Schichten und die vertikale Bewegung über Indien verstärkt. In Kombination mit der reichlich vorhandenen Feuchtigkeit des Sommermonsuns und den topografischen Blockierungseffekten des Himalaya und des Hindukusch führen diese Zirkulationsänderungen zu einer Zunahme der Wolkendecke. Die daraus resultierende verstärkte Bewölkung reduziert die einfallende Sonnenstrahlung an der Oberfläche und führt zu der beobachteten regionalen Abkühlung. Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise über atmosphärische dynamische Wege eine regionale Abkühlung bewirken kann.Mehr hier.

Die Autoren räumen sogar ein, dass das Ergebnis kontraintuitiv ist:

„Diese Ergebnisse zeigen einen bisher unterschätzten Prozess auf, durch den der Treibhauseffekt paradoxerweise zu einer regionalen Abkühlung führen kann …“

Das Wort „paradoxerweise“ spielt hier eine wichtige Rolle.

Denn wenn ein Effekt je nach Modellkonfiguration sowohl Erwärmung als auch Abkühlung bewirken kann, was genau wird dann vorhergesagt – und mit welchem Grad an Sicherheit?

Die Untersuchung stützt sich in hohem Maße auf CMIP6-Modell-Ensembles, darunter sowohl reine Atmosphärensimulationen als auch gekoppelte Modelle. In einem Szenario wird der CO₂-Gehalt vervierfacht, während die Meerestemperaturen konstant gehalten werden. Das ist keine Beschreibung der realen Welt, sondern ein kontrolliertes numerisches Experiment, das darauf abzielt, bestimmte Prozesse zu isolieren. Die Autoren machen dies ausdrücklich deutlich:

„Wenn die Meerestemperatur auf dem Niveau des heutigen Klimas fixiert und die atmosphärische CO₂-Konzentration vervierfacht wird …“

Dieser Satz – „die Meerestemperatur wird konstant gehalten“ – ist es wert, näher betrachtet zu werden. Ozeane sind keine optionalen Komponenten des Klimasystems der Erde. Sie dominieren die Wärmekapazität, den Transport und die Variabilität. Ihre Rückkopplungen zu entfernen, um einen Effekt zu isolieren, mag für die Theorie nützlich sein, schafft aber auch ein Szenario, das keine direkte physikalische Entsprechung hat.

Man könnte genauso gut die Bewölkung, die Windverhältnisse oder die Luftfeuchtigkeit festlegen und beobachten, was passiert. Die Frage ist, ob solche Übungen aussagekräftige Erkenntnisse für die Erwartungen in der realen Welt liefern – oder lediglich zeigen, was ein Modell unter ausreichenden Einschränkungen hervorbringen kann.

Und was liefern diese Modelle? Eine auffallend große Bandbreite an Ergebnissen:

„Die maximale Abkühlung reicht in den Modellen von −2,55 bis −0,68 K … wobei die maximale Abkühlung in den Modellen von −9,93 bis −0,20 K reicht.“

Eine Streuung von etwa −0,2 K bis fast −10 K ist keine geringfügige Unsicherheit. Es handelt sich um eine Variabilität in der Größenordnung. Allein dieser Bereich wirft Fragen zur Robustheit auf. Wenn der gleiche Antrieb in den verschiedenen Modellen radikal unterschiedliche Größenordnungen erzeugt, dann ist der Prozess hochgradig empfindlich gegenüber internen Annahmen – Parametrisierungen von Wolken, Konvektion, Feuchtigkeitstransport und so weiter.

Dennoch beschreibt die Arbeit das Signal weiterhin als „robust“.

Dies ist ein wiederkehrendes Merkmal der Literatur zur Klimamodellierung: Übereinstimmung hinsichtlich der Richtung wird oft als ausreichend angesehen, selbst wenn die Größenordnung stark variiert. Für politische Zwecke ist jedoch die Größenordnung entscheidend. Eine Abkühlung um −0,2 K ist kaum wahrnehmbar; −10 K wären katastrophal. Diese Ergebnisse unter einem einzigen konzeptionellen Oberbegriff zusammenzufassen, dehnt die Bedeutung des Begriffs „robust“ über das Maß des Sinnvollen hinaus.

Der Prozess selbst ist eine Kette modellierter Wechselwirkungen. Der CO₂-Gehalt steigt, Eurasien erwärmt sich stärker als die umliegenden Ozeane, Druckgradienten verschieben sich, Winde verstärken sich, der Feuchtigkeitstransport nimmt zu, Wolken bilden sich und die einfallende Sonnenstrahlung nimmt ab:

„Die Verringerung der nach unten gerichteten Sonnenstrahlung ist der dominierende Faktor für die Abkühlung der Erdoberfläche … verbunden mit einer verstärkten Wolkendecke.“

Dies ist ein klassisches Beispiel für eine Rückkopplungs-Kaskade. Jeder Schritt hängt von Parametrisierungen ab, die bekanntermaßen zu den unsichersten Elementen in Klimamodellen zählen – insbesondere Wolken.

Wolken sind seit langem die Achillesferse der Klimamodellierung. Geringfügige Änderungen in der Wolken-Mikrophysik oder -verteilung können die Ergebnisse von einer Erwärmung zu einer Abkühlung umkehren. Die Autoren veranschaulichen diese Empfindlichkeit eindrucksvoll: Verändert man die Zirkulation geringfügig, nimmt die Wolkendecke so stark zu, dass sie den Strahlungsantrieb lokal ausgleicht.

Mit anderen Worten: Das System ist in hohem Maße nichtlinear, und kleine Modellierungsentscheidungen können qualitativ unterschiedliche Ergebnisse hervorbringen. Dies ist eine Beobachtung über das System selbst und erschwert die Vorstellung, dass Modelle regionale Ergebnisse für die nächsten Jahrzehnte zuverlässig vorhersagen können.

Der Artikel weist zudem auf saisonale und geografische Besonderheiten hin, die die Anwendbarkeit des Ergebnisses weiter einschränken. Die Abkühlung scheint…

„…vor allem auf den borealen Sommer beschränkt zu sein … und fällt mit dem indischen Sommermonsun zusammen.“

Außerhalb dieser Monate erwärmt sich die gleiche Region.

Nun lautet die Geschichte also: CO₂ verursacht weltweit eine Erwärmung, außer dort, wo es eine Abkühlung bewirkt, außer wenn es dies nicht tut, abhängig von Jahreszeit, Topografie, Feuchtigkeitsverfügbarkeit und Zirkulationsmustern.

Das mag als Beschreibung des Modellverhaltens zutreffend sein. Als Grundlage für weitreichende politische Entscheidungen führt es jedoch eine Komplexität ein, die der Öffentlichkeit selten vermittelt wird.

Die Autoren gehen noch weiter und ziehen politische Schlussfolgerungen, die an Ironie grenzen:

„Der prognostizierte Rückgang der CO₂-Konzentration … könnte – entgegen der Intuition – zur Erwärmung in Indien beitragen.“

Eine Reduzierung von CO₂ könnte also zu einer Erwärmung führen – zumindest regional, zumindest in diesem Rahmen.

An dieser Stelle könnte man sich fragen, ob die Variable, auf die die Politik abzielt, überhaupt der dominierende Faktor für lokale Klimaentwicklungen ist. Wenn ein Anstieg des CO₂-Gehalts eine Region abkühlen und ein Rückgang sie erwärmen kann, dann ist der Zusammenhang zwischen Emissionen und regionalen Temperaturen alles andere als eindeutig.

Zu ihrer Ehre betonen die Autoren die Komplexität:

„Die Ergebnisse verdeutlichen die Komplexität regionaler Klimareaktionen …“

Das ist wahrscheinlich die am ehesten vertretbare Aussage in der gesamten Arbeit.

Der Punkt, an dem diese Analyse mit der Skepsis zusammentrifft, liegt nicht darin zu leugnen, dass solche Prozesse in Modellen existieren könnten. Er liegt vielmehr darin zu hinterfragen, was diese Untersuchungen belegen – und was nicht.

Sie zeigen, dass Modelle unter unterschiedlichen Annahmen eine Vielzahl von Ergebnissen hervorbringen können. Sie zeigen, dass Rückkopplungen je nach Konfiguration angepasst, verstärkt oder unterdrückt werden können. Sie zeigen, dass neue „Mechanismen“ identifiziert werden können, sobald die Aufmerksamkeit auf einen bestimmten Bereich oder eine bestimmte Variable gerichtet wird.

Was sie nicht zeigen, ist, dass diese Prozesse in der realen Welt mit der gleichen Stärke, Konsistenz oder Vorhersagbarkeit ablaufen.

Das Vertrauen in Multi-Modell-Ensembles wird oft als Stärke dargestellt. Zwölf Modelle hier, achtundvierzig dort. Aber wenn diese Modelle strukturelle Ähnlichkeiten aufweisen – und das tun sie –, ist das Ensemble keine Sammlung unabhängiger Experimente. Es ist eine Familie verwandter Hypothesen.

Übereinstimmung innerhalb dieser Familie bedeutet nicht zwangsläufig Übereinstimmung mit der Realität.

Die Studie versucht eine Validierung, indem sie Modellausgaben mit Beobachtungsdaten vergleicht:

„Die meisten Modelle weisen einen angemessen zentrierten quadratischen Mittelwertfehler auf … und bieten damit eine solide Grundlage für nachfolgende Analysen.“

„Angemessen zentriert“ ist ein dehnbarer Begriff. Modelle können zwar allgemeine räumliche Muster abbilden, sich jedoch in Bezug auf Dynamik, Rückkopplungen und Empfindlichkeiten erheblich unterscheiden. Die Übereinstimmung mit einer Klimatologie garantiert keine genaue Reaktion auf Störungen.

Fairerweise muss man sagen, dass die Autoren keine Vorhersagesicherheit beanspruchen. Sie identifizieren einen Prozess innerhalb eines Modellierungsrahmens. Das ist eine legitime wissenschaftliche Vorgehensweise.

Doch die allgemeinere Erzählung, die solche Ergebnisse oft begleitet – dass die Klimawissenschaft einen Punkt erreicht hat, an dem Politik mit hoher Sicherheit diktiert werden kann –, passt nur schwer zu Ergebnissen wie diesen.

Falls CO₂ auf dem einen Weg zu einer Abkühlung und auf einem anderen zu einer Erwärmung führen kann, falls regionale Auswirkungen von fein ausbalancierten Rückkopplungen abhängen und falls die Modellprognosen eine ganze Größenordnung umfassen, dann bleibt das System von großer Unsicherheit geprägt.

Dies stellt die Klimawissenschaft eindeutig in den Bereich der laufenden, spekulativen Forschung, in dem Hypothesen getestet, überarbeitet und manchmal widerlegt werden.

Aus politischer Sicht wird dies zu einer Frage der Verhältnismäßigkeit. Wie viel Sicherheit ist erforderlich, bevor groß angelegte Eingriffe in Energiesysteme, Landwirtschaft und Wirtschaftsstrukturen vorgenommen werden?

Wenn die zugrunde liegende Wissenschaft weiterhin neue Prozesse, neue Empfindlichkeiten und neue Unsicherheiten aufdeckt, scheint Vorsicht geboten.

Es gibt zudem ein Muster, das Beachtung verdient. In jedem Jahrzehnt scheinen neue „bisher unterschätzte Prozesse“ aufzutauchen: Veränderungen in der Ozeanzirkulation, Aerosoleffekte, Landnutzungsänderungen, Auswirkungen der Bewässerung und nun auch CO₂-bedingte Wolkenrückkopplungen, die zu einer Abkühlung führen.

Man könnte dies als Fortschritt interpretieren – als einen Prozess, in dem die Wissenschaft immer feinere Details eines komplexen Systems aufdeckt. Das ist sicherlich eine mögliche Interpretation.

Eine andere Interpretation lautet, dass das System so komplex und die Modelle so empfindlich sind, dass immer neue Erklärungen gefunden werden können, um Diskrepanzen zwischen Erwartungen und Beobachtungen in Einklang zu bringen.

Die Arbeit ist nicht sinnlos. Sie erweitert den Katalog möglicher Wechselwirkungen innerhalb des Klimasystems. Aber sie unterstreicht auch, wie weit das Fachgebiet noch von einem einheitlichen, stabilen Verständnis der regionalen Klimadynamik entfernt ist.

Und vielleicht ist das die wichtigste Erkenntnis.

Nicht, dass CO₂ unter bestimmten Modellbedingungen im Sommer eine Abkühlung über Indien bewirken würde. Sondern dass sich das Klimasystem weiterhin einer einfachen Charakterisierung entzieht und dass jeder neue „Mechanismus“ den ohnehin schon komplexen Prognosen eine weitere Ebene von Bedingungen hinzufügt.

Für diejenigen, die auf der Grundlage von Modellausgaben weitreichende, irreversible politische Veränderungen befürworten, stellt diese wachsende Komplexität eine Herausforderung dar.

Für diejenigen, die zur Skepsis neigen, bekräftigt sie ein Grundprinzip: Urteile zurückhalten, Annahmen hinterfragen und der Versuchung widerstehen, sich weiterentwickelnde Modelle als feststehende Tatsachen zu behandeln.

Die Modelle können eine Erwärmung ergeben. Sie können eine Abkühlung ergeben. Sie können beides gleichzeitig ergeben, je nachdem, wo und wann man hinschaut.

Die Frage ist, wie sicher diese Ergebnisse in Erwartungen für die reale Welt übersetzt werden können – und ob diese Sicherheit das Ausmaß der politischen Maßnahmen rechtfertigt, die in ihrem Namen vorgeschlagen werden.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2026/03/26/climate-models-discover-yet-another-thing-CO₂-can-do/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimamodelle entdecken eine weitere Wirkung von CO₂ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Met Office beim Fälschen von Daten erwischt

2. April 2026 - 11:00

Cap Allon

Laut einer umfassenden Studie des unabhängigen Forschers Eric Huxter übertreibt das Met Office die Temperaturextreme in UK aufgrund der Art und Weise, wie es die Tageshöchstwerte misst.

Die Tageshöchstwerte in UK werden anhand von hochfrequenten elektronischen Sensoren – sogenannten Platin-Widerstandsthermometern (PRTs) – ermittelt, die minütliche Werte aufzeichnen. Diese Instrumente erfassen kurzlebige Spitzenwerte, verursacht durch lokale Einflüsse.

Huxter erstellte eine Kontrollreihe unter Verwendung von über 525.000 Messwerten auf Minutenebene von einer Messstation der Klasse 1 in Rothamsted, einem sauberen, offenen Standort auf Ackerland. Dieser Datensatz zeigt enge, stabile Schwankungen, die mit den Umgebungsbedingungen übereinstimmen.

Das ist beim größeren Messnetz nicht der Fall.

An 96 Stationen weisen 340 aufgezeichnete Höchstwerte wiederholte Spitzenwerte auf – typischerweise etwa 1–1,2 °C über den Werten der Umgebung. Diese Spitzenwerte treten in Rothamsted nicht auf. Die Wahrscheinlichkeit, dass dieser Unterschied zufällig auftritt, liegt bei weniger als 1 zu 10.000 (Chi-Quadrat-Test).

Die meisten dieser Messwerte stammen von Standorten niedrigerer Qualität (CIMO 3–5). Hochwertige Standorte der Klasse 1 machen nur einen kleinen Teil des Netzwerks des Met Office aus.

Eine ungünstige Aufstellung setzt die Sensoren nahe gelegenen Wärmequellen aus. Eine schwache Luftzirkulation führt zu lokaler Erwärmung. PRTs reagieren sofort. Ein kurzer Spitzenwert wird erfasst und als Tageshöchstwert protokolliert. In mehr als der Hälfte der Fälle stimmen diese Spitzenwerte nicht mit der wärmsten Tageszeit überein.

Diese Werte gehen dann direkt in die Durchschnittswerte ein. Tageshöchstwerte werden für monatliche und jährliche Berechnungen herangezogen. Jede Verzerrung überträgt sich auf das gesamte System.

Ältere Glasthermometer mit Flüssigkeitsfüllung glichen kurzfristige Schwankungen aus. Moderne Sensoren tun dies nicht. Die Umstellung auf automatisierte Messungen erhöht die Wahrscheinlichkeit, vorübergehende Extremwerte zu erfassen.

Die Weltorganisation für Meteorologie empfiehlt die Bildung von Kurzzeitdurchschnitten, um vorübergehende Spitzenwerte zu unterdrücken. In der Praxis leitet das Met Office – ebenso wie der National Weather Service und das Bureau of Meteorology – Tageshöchstwerte aus hochfrequenten Daten ab, wodurch kurze Spitzenwerte als offizielle Höchstwerte erfasst werden können.

Gleichzeitig weisen große Teile des Netzwerks angegebene Unsicherheiten von 2 °C bis 5 °C auf – und dennoch werden die Temperaturen auf Zehntelgrad genau angegeben.

Offizielle WMO/CIMO-Richtlinien (siehe Tabelle oben):

• Klasse 1: ~0,1 °C Unsicherheit

• Klasse 2: ~0,3 °C

• Klasse 3: ~1 °C

• Klasse 4: ~2 °C

• Klasse 5: ~5 °C

[Hervorhebung im Original]

Link: https://electroverse.substack.com/p/late-march-arctic-cold-grips-canada?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Met Office beim Fälschen von Daten erwischt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die britische Regulierungsbehörde OFCOM will die Leugnung des Klimawandels in einer Fernsehsendung untersuchen

2. April 2026 - 8:00

Eric Worrall

Anscheinend sollten „gefährliche Klimalügen“ wie die Behauptung, es gebe keinen Klimanotstand, in Fernsehsendungen nicht unwidersprochen bleiben.

Ofcom untersucht erstmals seit 2017 Beschwerden wegen Leugnung des Klimawandels

Exklusiv: Britische Regulierungsbehörde macht Kehrtwende bei Beschwerden gegen TalkTV und TalkRadio, nachdem ihr vorgeworfen wurde, einigen Sendern erlaubt zu haben, „gefährliche Klimalügen zu verbreiten“

Damian Carrington

Beschwerden über Sendungen bei TalkTV und TalkRadio wurden von Ofcom geprüft, das daraufhin beschloss, keine Untersuchung einzuleiten – das gleiche Ergebnis wie bei mehr als 1.000 anderen Klimabeschwerden seit 2020. Nach einem Schreiben des Good Law Project (GLP) im Januar, in dem eine Begründung für die Ablehnungen gefordert wurde, teilte Ofcom jedoch mit, dass es seine ursprüngliche Entscheidung zurückgenommen habe und die Beschwerden „neu prüfen“ werde.

Eine Beschwerde bezog sich auf Äußerungen eines Talk-Gastes, der im November sagte, der Klimawandel sei „ein bewusster Versuch, künstliche Angst zu erzeugen … aus etwas, das falsch ist“. Im zweiten Fall, ebenfalls im November, bezeichnete ein anderer Gast die Energiepolitik der Labour-Regierung als „selbstmörderisch“, „in vielen Fällen von Pseudowissenschaft getrieben“ und „eine Art sektenähnliches Verhalten“.

„Rechtsextreme Sender dürfen schon viel zu lange ungehindert gefährliche Klimalügen verbreiten“, sagte ein Sprecher der GLP. „Wir sind froh, dass Ofcom endlich zuhört, und warten auf den Abschluss der Untersuchungen. Sollte Ofcom keine Maßnahmen gegen die Falschinformationen von Talk ergreifen, werden wir nicht zögern, den Sender zur Rechenschaft zu ziehen.“

Ein Sprecher von Ofcom sagte: „Bei der erneuten Prüfung der Sendungen sind wir zu dem Schluss gekommen, dass sie potenziell schwerwiegende Verstöße gegen den Rundfunkkodex darstellen, die eine Untersuchung rechtfertigen. Wir haben daher Untersuchungen eingeleitet, um zu prüfen, ob sie gegen unsere Vorschriften zur gebotenen Unparteilichkeit und zur wesentlichen Irreführung verstoßen haben.“ Ofcom teilte mit, dass es nach einer Zuschauerbeschwerde über eine andere Sendung von TalkTV eine weitere klimabezogene Untersuchung eingeleitet habe.

Mehr hier

Websites von Klimaskeptikern scheinen vorerst nicht Gegenstand der Ermittlungen zu sein. Die OFCOM ist befugt, gegen Websites vorzugehen, und es wird derzeit erwogen, diese Befugnisse auszuweiten, was auch auf Websites wie WUWT Anwendung finden könnte.

In einer Zeit, in der Briten wegen eines unfreundlichen Facebook-Posts verhaftet werden können, scheint die Androhung behördlicher Ermittlungen wegen Äußerungen wie der, der Klimawandel sei „ein bewusster Versuch, aus etwas Falschem falsche Ängste zu schüren …“, einen gefährlichen Schritt in Richtung einer Einschränkung der Freiheit zur Kritik an Klimabehauptungen darzustellen.

Der Klimawandel ist nicht falsch, in dem Sinne, dass sich die Welt seit Mitte des 19. Jahrhunderts erwärmt hat. Was falsch ist, ist die Behauptung, dass dies irgendeine Art von Notlage darstellt.

Dies ist ein trauriger Tag für Großbritannien. Großbritannien kann zu Recht behaupten, die Wiege der modernen parlamentarischen Demokratie zu sein. Die Geschichte der britischen Parlamente reicht bis ins Jahr 1236 n. Chr. zurück, als König Heinrich III. das „parliamentum generalissimum“ einberief. Der größte Teil dieser Geschichte steht für einen Fortschritt des Rechts der Menschen auf freie Meinungsäußerung, für eine schrittweise Ablösung der absoluten Tyrannei durch repräsentative Demokratie. Das Recht der Menschen zu bedrohen oder einzuschränken, sich öffentlich zu einem wissenschaftlichen Standpunkt zu äußern – ganz gleich, ob man diesen geäußerten Ansichten zustimmt oder nicht –, ist ein großer Rückschritt in dieser Tradition der Freiheit.

Schon zu Shakespeares Zeiten, Ende des 16. bis Anfang des 17. Jahrhunderts, genossen die Briten ein Maß an Freiheit, das in weiten Teilen der Welt unbekannt war. Shakespeare schrieb Theaterstücke, die weithin als Kritik an der Politik oder dem Verhalten des Königshauses angesehen wurden, ohne für seine Frechheit bestraft zu werden – obwohl gegen ihn mindestens einmal wegen angeblicher Anstiftung zum Aufstand ermittelt worden war. Doch selbst Shakespeare wurde wegen seiner wissenschaftlichen Ansichten nicht schikaniert.

Seit Jahrhunderten bestand die übliche Vorgehensweise darin, auf eine wissenschaftliche Behauptung, der man nicht zustimmte, mit der Veröffentlichung einer Gegenbehauptung zu reagieren. Es gibt keine Tradition, dass Regierungszensoren in Sendungen auftreten, um alles, womit die Regierung nicht einverstanden ist, sofort anzufechten oder als falsch zu brandmarken.

Doch nun stehen wir vor einem massiven Rückschritt, einem Versuch, die Meinungsfreiheit und das Recht, Ansichten über die Wissenschaft zu äußern, zu unterbinden – was mit der Redezensur der religiösen Tyranneien des Mittelalters vergleichbar ist, als das Aussprechen von Kritik an religiösen Interpretationen von Natur und Göttlichkeit streng bestraft wurde.

Ist das wirklich die Zukunft, die Großbritannien will, in der das Anzweifeln der Behauptung, wir befänden uns in einer Klimakrise, als Blasphemie behandelt wird? In der Rundfunkanstalten verpflichtet sind, bei jeder Diskussion über Wissenschaft einen Vertreter der von der Regierung genehmigten Ansichten einzubeziehen? Denn genau dorthin steuert Großbritannien derzeit.

[Hervorhebungen im Original]

Link: https://wattsupwiththat.com/2026/03/25/british-regulator-ofcom-to-investigate-broadcaster-climate-denial/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Die britische Regulierungsbehörde OFCOM will die Leugnung des Klimawandels in einer Fernsehsendung untersuchen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

China verarbeitet gewaltige 380 Millionen Tonnen Kohle zu Gas, Benzin, Kunststoffen und Düngemitteln.

1. April 2026 - 20:00

Von Jo Nova, 27.03.2026

Kohle erweist sich als unerschöpfliche chemische Quelle, aus der alles Mögliche hergestellt wird – von Plastik über Diesel, Kerosin und Gas bis hin zu Methanol und Düngemitteln. Es ist absolut ausgeschlossen, dass China diesen Reichtum ungenutzt im Boden lässt. Und warum tun wir das?

Die Idee, Kohle in flüssigen Treibstoff umzuwandeln, klingt nach einer teuren, exotischen chemischen Reaktion, die kaum Anwendung findet. Dass man überhaupt davon gehört hat, liegt hauptsächlich daran, dass die Nationalsozialisten in ihrer Not flüssigen Treibstoff für ihre Panzer und gepanzerten Fahrzeuge benötigten und deshalb in einer großen Anlage Kohle umwandelten, die im Zweiten Weltkrieg zum Kriegsziel wurde. Sie produzierte 92 % des deutschen Flugzeugtreibstoffs und 50 % des Erdöls. Wer hätte gedacht, dass die Messerschmitts mit Kohle betrieben wurden? Später, in den 1980er-Jahren, nutzte Südafrika diese Technologie als Reaktion auf ein Ölembargo, und tut dies bis heute.

China hat still und leise eine riesige Kohleverflüssigungsindustrie aufgebaut, um seine strategische Verwundbarkeit gegenüber einem Ölpreisschock oder einem Kriegsembargo zu verringern – und das Ausmaß ist erstaunlich. Genaue Zahlen sind schwer zu ermitteln, aber die IEA schätzt, dass China jährlich 380 Millionen Tonnen Kohle in Brennstoffe, Ammoniak und Düngemittel umwandelt.

Um das in Relation zu setzen: Australien ist mittlerweile der zweitgrößte Kohleexporteur der Welt, und China verarbeitet durch die Umwandlung von Kohle in Flüssigkohle und Chemikalien mehr Kohle, als wir exportieren. Das ist auch mehr, als die USA verbrauchen.

Chinas Kohleverarbeitung beträgt 4.800 Millionen Tonnen pro Jahr. Etwa 8 % davon werden zu anderen Produkten verarbeitet, wie Benzin, Gas, Plastikwasserflaschen, synthetischer Kleidung und Düngemittel für Nahrungspflanzen.

Und sie stellen auch Dieselkraftstoff her.

Chinas Kohleindustrie hat ein großes, schmutziges Geheimnis

Von Javier Blas, Bloomberg, 2. Juni 2025

Weitgehend unbemerkt hat dieser bisher wenig beachtete Zweig der chinesischen Kohleindustrie gigantische Ausmaße angenommen: Laut der Internationalen Energieagentur verbraucht er rund 380 Millionen Tonnen Kohle als Rohstoff für die Herstellung von Chemikalien und flüssigen Kraftstoffen. Um sein Ausmaß besser zu verstehen, hilft es, ihn wie ein Land zu betrachten. Als solches wäre er der drittgrößte Verbraucher weltweit, nach dem restlichen chinesischen Kohlesektor und Indien, aber vor den USA, Japan und anderen führenden Kohleverbrauchern wie Indonesien und der Türkei.

Manche mögen denken, dass die Umwandlung von Kohle in Flüssiggas nur bei hohen Ölpreisen sinnvoll ist, doch das ändert sich schlagartig, wenn einem die Energiesicherheit am Herzen liegt. Und China tut dies ganz offensichtlich.

Der moderne Teil dieser Verarbeitung war Anfang der 2000er-Jahre größtenteils experimentell. In den 2010er-Jahren schossen Projekte im kommerziellen Maßstab wie Pilze aus dem Boden, und nach einer kurzen Pause sind in den letzten Jahren weitere hinzugekommen, insbesondere im chinesischen Kernland, wo sich der Großteil der Kohlevorkommen des Landes weitab von den Küstenstädten befindet. Mittlerweile überrascht das Ausmaß – das die Kohle-zu-Chemikalien-Produktion aller anderen Länder in den Schatten stellt – und das Wachstum selbst langjährige Branchenbeobachter. Schaut man sich einige modernisierte Anlagen an , ist Kohle nirgends zu sehen: Sie wird unter Tage fast direkt unter den Chemieanlagen abgebaut, per Förderband in die Öfen transportiert, wo sie vergast und chemisch zerlegt wird. Danach wandelt sie sich schließlich in Ihre Plastikwasserflasche oder Ihre Kleidung aus synthetischen Stoffen um.

Und diese riesige, bisher weitgehend unentdeckte Branche wird sich voraussichtlich verdoppeln. Berichten zufolge ist die Nachfrage so groß, dass der Einsatz von Kohleverflüssigung in China rasant zunimmt.

Jegliche Aussagen: China verzichtet auf Kohle, sind reine Fantasie.

Chinesische Alchemie: Billiger Brennstoff treibt Kohle-Gas- und Chemieboom an

Von Sam Li und Colleen Howe , Reuters, 4. September 2025

Der am schnellsten wachsenden Sektor der Branche dürfte die Umwandlung von Kohle in Gas sein.

Laut einer Analyse von Reuters auf Basis von Zahlen von Agora Energy China, der China National Coal Association und Guosen Securities entspricht die derzeit im Bau befindliche Kapazität etwa dem Vierfachen der im letzten Jahrzehnt errichteten Kapazität.

Das würde die jährliche Kapazität auf 19,5 Milliarden Kubikmeter (Mrd. m³) mehr als verdoppeln, was etwa einem Fünftel der chinesischen LNG-Importe des letzten Jahres entspricht.

Obwohl China weniger Kohle zur Stromerzeugung verwendet, sinkt der Kohleverbrauch insgesamt nicht. Die überschüssige Kohle wird in anderen Energiebereichen, der Industrie und der Landwirtschaft eingesetzt:

Chinas Boom der erneuerbaren Energien verschleiert eine stille Expansion der Kohleverstromung.

Von Natalia KatonaOilPrice 02. März 2026

 China und Südafrika sind die einzigen Länder, die CTL und CTC im industriellen Maßstab betreiben.

Es ist wichtig zu beachten, dass der größte Teil dieser Nachfrage in die Kohle-zu-Chemikalien-Industrie (CTC) fließt. China hat Erdgas als Hauptrohstoff für die Ammoniak- und Methanolproduktion praktisch durch Rohkohle ersetzt, sodass mittlerweile rund 80 % der Produktion dieser Chemikalien auf Kohle basieren.

Chinas größte CTL-Anlage (Kohle-zu-Flüssigkeiten), das Werk Shenhua Ningxia, wurde 2016 in Betrieb genommen und produziert täglich rund 100.000 Barrel synthetische Kraftstoffe aus etwa 44.000 Tonnen Kohle. Zum Vergleich: Eine konventionelle Raffinerie bräuchte nur ein Drittel dieser Menge, also 14.000 Tonnen Rohöl pro Tag, um eine ähnliche Menge an Raffinerieprodukten herzustellen. Aktuell wird Kohle in Qinhuangdao für etwa 105–110 US-Dollar pro Tonne gehandelt, während Brent-Rohöl (bei 71 US-Dollar pro Barrel) etwa 525 US-Dollar pro Tonne kostet. Selbst unter Berücksichtigung der Umwandlungskosten können synthetische Kraftstoffe auf Kohlebasis wirtschaftliche Vorteile bieten, insbesondere in einem volatilen Ölmarkt.

Wenn uns Energiesicherheit wirklich wichtig wäre, hätten wir Kohle in kleinerem Maßstab zu Flüssigerde und Düngemitteln verarbeiten und die Produktion kurzfristig hochfahren können. Das wäre eine günstige Versicherung gegen Milliardenverluste, die ganze Erntezyklen, die Rohstoffgewinnung, Exporterlöse und sogar existenzielle Folgen wie die Nahrungsmittelversorgung und die Verteidigung bedrohen.

Am Steuer eingeschlafen im Land der Glücksblase.

https://joannenova.com.au/2026/03/china-is-converting-mass-coal-to-liquid-fuel-plastics-and-fertilizer/

Der Beitrag China verarbeitet gewaltige 380 Millionen Tonnen Kohle zu Gas, Benzin, Kunststoffen und Düngemitteln. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die erste Hitzewelle des Jahres … und immer wieder das Gleiche

1. April 2026 - 17:00
Klimadaten zur Hitzewelle im März – Wie langfristige Temperaturaufzeichnungen die gängige Klimadiskussion in Frage stellen

Matthew Wielicki

Die Schlagzeilen sagen das eine … die Daten sagen etwas ganz anderes

Denver und andere Städte haben gerade einen Hitzerekord für den Monat März gebrochen.

Die Medien stellten dies sofort als weiteren Beweis dafür dar, dass das Klimasystem durch menschliche Aktivitäten an seine Grenzen gestoßen ist.

https://www.cnn.com/2026/03/20/weather/us-heat-record-march-climate

Das Problem ist, dass dieser Rekord bereits 1971 aufgestellt worden war.

Die Höchsttemperatur vom Samstag brach zudem den Rekord für die höchste jemals im März gemessene Temperatur, der erst am Donnerstag und Freitag aufgestellt worden war, als in Denver 29,4 °C gemessen wurden. Der bisherige Allzeit-Temperaturrekord für den März lag bei 28,9 °C und wurde am 26. März 1971 gemessen.Quelle

Wenn die heutige Hitze ein Zeichen für etwas Beispielloses ist, was genau geschah dann im Jahr 1971?

Allein diese Frage sollte uns dazu veranlassen, inne zu halten, bevor wir voreilige Schlüsse ziehen. Wenn wir uns von den Schlagzeilen lösen und die Daten tatsächlich genauer betrachten, zeichnet sich nämlich ein ganz anderes Bild ab.

Was die Langfrist-Aufzeichnungen tatsächlich zeigen

Um zu verstehen, was wirklich vor sich geht, müssen wir einen Schritt zurücktreten und über ein einzelnes Ereignis hinausblicken. Die landesweiten Temperaturrekorde für den März in Colorado, Kalifornien, Arizona und Washington reichen bis ins späte 19. Jahrhundert zurück und vermitteln ein wesentlich umfassenderes Bild des Systems.

Was diese Aufzeichnungen zeigen, ist nicht Stabilität, gefolgt von plötzlichen Störungen. Sie zeigen ein System, das schon immer sehr variabel war.

In Colorado schwanken die Temperaturrekorde im März von Jahr zu Jahr dramatisch, wobei während der Warmperioden zu Beginn des 20. Jahrhunderts viele moderne Werte erreicht oder sogar übertroffen worden waren.

https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/statewide/time-series/5/tavg/1/3/1895-2026?base_prd=true&begbaseyear=1901&endbaseyear=2000

Gleiches zeigt sich in Kalifornien, wo es im März zu starken Temperaturanstiegen gekommen war, lange bevor die jüngsten erhöhten Kohlendioxidwerte in der Atmosphäre aufgetreten sind.

https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/statewide/time-series/4/tavg/1/3/1895-2026?base_prd=true&begbaseyear=1901&endbaseyear=2000

Arizona zeigt ein ähnliches Bild: Über den gesamten Zeitraum hinweg sind vereinzelte ausgeprägte Wärmeanomalien zu beobachten, darunter Phasen zu Beginn und in der Mitte des 20. Jahrhunderts, die mit denen der letzten Jahre vergleichbar sind.

https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/statewide/time-series/2/tavg/1/3/1895-2026?base_prd=true&begbaseyear=1901&endbaseyear=2000

Washington, das oft als klimatisch stabiler angesehen wird, weist die gleiche starke Variabilität auf, ohne dass sich ein klarer monotoner Verlauf abzeichnet, der auf einen einfachen linearen Zusammenhang mit den Konzentrationen von Treibhausgasen hindeuten würde.

https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/statewide/time-series/45/tavg/1/3/1895-2026?base_prd=true&begbaseyear=1901&endbaseyear=2000

Was in allen vier US-Bundesstaaten auffällt, ist nicht eine plötzliche Veränderung oder Beschleunigung, sondern eine anhaltende Variabilität. Warme Jahre treten gehäuft auf, kühle Jahre treten gehäuft auf, und Extreme sind in den gesamten Aufzeichnungen zu finden. Die moderne Zeit zeichnet sich nicht durch eine einzigartige Volatilität oder Beispiellosigkeit aus. Vielmehr fügt sie sich in ein seit langem bestehendes Muster von Fluktuationen ein.

Das ist genau das Bild der natürlichen Variabilität!

Das Klimasystem ist nicht statisch. Es ist dynamisch, nichtlinear und wird von einer Vielzahl miteinander in Wechselwirkung stehenden Prozesse beeinflusst. Wenn wir eine Messreihe auf mehr als ein Jahrhundert ausdehnen, steigt die Wahrscheinlichkeit, auf Extremwerte zu stoßen, naturgemäß an. Dies ist kein Beweis dafür, dass das System zusammenbricht. Es ist vielmehr ein Beweis dafür, dass das System lange genug beobachtet wurde, um sein gesamtes Spektrum offenzulegen.

Jedes Jahr wird irgendwo auf der Erde ein Rekord aufgestellt. Das ist kein Beweis für ein sich veränderndes System. Es ist das zu erwartende Ergebnis eines langen und immer größer werdenden Datensatzes. Je länger wir messen, desto mehr Extreme werden wir beobachten.

Das aktuelle Ereignis steht im Einklang mit einer gut verstandenen atmosphärischen Konfiguration. Über dem Westen der Vereinigten Staaten hat sich ein starker Höhenrücken gebildet, der mit einem Übergang von La Niña zu El Niño-Bedingungen und überdurchschnittlich warmen Küstengewässern im östlichen Pazifik zusammenfällt. Dies sind klassische Auslöser für regionale Hitzewellen. Sie haben in der Vergangenheit gewirkt und werden auch in Zukunft wirken.

Der historischen Zusammenhang darf nicht ignoriert werden!

Die stärksten Hitzewellen in der Geschichte der Vereinigten Staaten ereigneten sich nach wie vor zu Beginn des 20. Jahrhunderts, insbesondere in den 1930er Jahren. Wie in meiner früheren Arbeit dargelegt, zeigen Hitzewellen keinen Zusammenhang mit den Treibhausgaskonzentrationen oder -emissionen in der Atmosphäre; die „Dust Bowl“-Ära bleibt der Maßstab für extreme Hitze in den Beobachtungsdaten. Diese Ereignisse traten zu einer Zeit auf, als die Kohlendioxidkonzentrationen in der Atmosphäre weit unter den heutigen Werten lagen.

Dies ist kein nebensächliches Detail. Es ist von zentraler Bedeutung für die Diskussion. Jede Behauptung, dass moderne Hitzewellen sich grundlegend unterscheiden, muss mit der Tatsache in Einklang gebracht werden, dass extremere Ereignisse schon unter ganz anderen klimatischen Bedingungen auftraten.

Behauptungen über die Zuordnung sind übertrieben

Uns wird immer häufiger gesagt, dass Ereignisse wie diese ohne menschlichen Einfluss nicht möglich gewesen wären. Diese Behauptung wird mit einer Gewissheit vorgebracht, die aus den zugrunde liegenden wissenschaftlichen Erkenntnissen nicht hervorgeht.

Attributionsstudien beobachten die Realität nicht. Sie simulieren sie. Sie vergleichen modellierte Welten mit und ohne menschliche Emissionen und weisen den Ergebnissen dann Wahrscheinlichkeiten zu. Das ist keine direkte Messung. Es handelt sich um eine Schlussfolgerung, die auf zahlreichen Annahmen beruht.

Wenn frühere Beobachtungen eindeutig belegen, dass ähnliche Ereignisse bereits stattgefunden haben, lässt sich die Behauptung nur schwer aufrechterhalten, wonach sie nur in einer sich erwärmenden Welt möglich sind.

Messungen sind wichtiger als den meisten bewusst ist

Ein weiterer oft übersehener wichtiger Aspekt ist die Frage, wie und wo Temperaturen gemessen werden. Viele der Messstationen, die zu diesen Aufzeichnungen beitragen, befinden sich in Umgebungen, die sich im Laufe der Zeit erheblich verändert haben. Flughäfen, expandierende städtische Gebiete und der Ausbau der Infrastruktur führen zu lokalen Erwärmungseffekten, die sich auf die gemessenen Temperaturen auswirken können.

Ich gehe darauf ausführlich in „Can We Really Trust the Global Temperature Record“ ein, wo ich untersuche, wie die Platzierung der Messstationen, Anpassungen und die Datenverarbeitung die endgültigen Temperaturaufzeichnungen beeinflussen können. Wenn wir neue Aufzeichnungen interpretieren, müssen wir nicht nur die Zahlen selbst berücksichtigen, sondern auch den Kontext, in dem sie gemessen werden.

Der größere Zusammenhang

Selbst vor dem Hintergrund eines moderaten Erwärmungstrends muss man sich bewusst machen, dass nicht alle Veränderungen schädlich sind. Weltweit ist die kältebedingte Sterblichkeit nach wie vor deutlich höher als die hitzebedingte.

Die Grafik zeigt den prozentualen Anteil der Gesamtsterblichkeit in jedem Land, der derzeit auf nicht optimale Hitze und Kälte über den gesamten Untersuchungszeitraum zurückzuführen ist – d. h. auf Abweichungen in Richtung Hitze oder Kälte von der länderspezifischen Temperatur, bei der die Sterblichkeit am geringsten ist. Kälte ist derzeit für das 3- bis 10-fache der zuzuschreibenden Todesfälle verantwortlich. Quelle: https://www.nber.org/system/files/working_papers/w34313/w34313.pdf

Eine etwas wärmere Welt verringert die Exposition gegenüber extremer Kälte, die in der Vergangenheit für die menschliche Bevölkerung weitaus gefährlicher war.

In dem Artikel „The Temperature Illusion: Heat Hysteria Debunked“ erörtere ich, wie diese weiterreichenden Auswirkungen oft übersehen werden, während der Fokus einseitig auf Hitzeextremen liegt. Eine ausgewogene Bewertung muss jedoch beide Seiten der Medaille berücksichtigen.

[Hervorhebung vom Übersetzer]

Was diese Hitzewelle wirklich zeigt

Diese Hitzewelle zu Beginn der Saison ist real und bemerkenswert. Sie steht zudem voll und ganz im Einklang mit dem historischen Verhalten des Klimasystems. Betrachtet man sie im Kontext von mehrere Bundesstaaten umfassende Daten aus mehr als einem Jahrhundert sticht sie in keiner nennenswerten Weise als beispiellos oder anomal hervor.

Was es jedoch offenbart ist, wie schnell einzelne Ereignisse so dargestellt werden, dass sie in ein vorgefertigtes Narrativ passen. Anstatt als Teil eines komplexen und variablen Systems präsentiert zu werden, werden sie oft isoliert und als Beweis für eine einzelne Ursache hochgespielt.

Abschließende Überlegungen

Je länger und umfassender unsere Beobachtungsdaten werden, desto deutlicher erkennen wir, dass die Variabilität das bestimmende Merkmal des Klimas ist. Extreme sind nichts Neues. Sie sind zu erwarten. Mit dem Wachstum der Datensätze werden weiterhin Rekorde in beide Richtungen gebrochen werden.

Dies zu verstehen ist von entscheidender Bedeutung. Ohne diesen Kontext kann man viel zu leicht normale Variabilität mit etwas Außergewöhnlichem verwechseln.

Dr. Matthew Wielicki

Earth science professor-in-exile, climate and cultural realist, political orphan, pluralist, husband, father, friend, optimist, Irrational Fear Substack. Dr Matthew Wielicki also appears in the documentary Climate: The Movie on Clintel’s YouTube channel.

Link: https://clintel.org/the-first-heatwave-of-the-year-and-the-same-old-narrative/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Die erste Hitzewelle des Jahres … und immer wieder das Gleiche erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Betrug mit Solaranlagen auf Dächern: Der Schaden geht weiter (Teil I)

1. April 2026 - 14:00

WUWT, Gastautor Master Resource, Robert Bradley Jr., 26.03.2026

Hier ein Bericht aus USA. Ähnlichkeiten mit Verhältnissen in Deutschland sind rein zufällig? – der Übersetzer

„[Radiant Solar] konnte [Hausbesitzer betrügen], weil Solaranlagen für Privathaushalte kompliziert und teuer sind – sie kosten oft um die 50.000 Dollar – und typischerweise verschiedene Finanzierungs- und Steueranreizsysteme beinhalten, die viele Verbraucher verwirren.“

Die Branche der Solaranlagen auf Hausdächern mag sich im freien Fall befinden und dem Untergang geweiht sein, doch die Folgen mangelhafter Leistungen und langfristiger Verträge bleiben bestehen. Der   Artikel der New York Times mit dem Titel „ New York verklagt Solaranlagenfirma wegen Betrugs an Hunderten von Kunden  (29. Januar 2026)“ erläutert, wie das New Yorker Amt für Verbraucher- und Arbeitnehmerschutz fast 20 Millionen Dollar an Entschädigung und Strafen von dem als „Hausmodernisierungsunternehmen“ bezeichneten Anbieter Radiant Solar fordert.

„Insgesamt gibt es 300 Opfer desselben Unternehmens, Radiant Solar, das in der ganzen Stadt eine Spur der Verwüstung hinterlassen hat: beschädigte Häuser, hohe Schulden und gebrochene Versprechen“, berichtete der Artikel.

Dies war unter anderem deshalb möglich, weil Solaranlagen für Privathaushalte kompliziert und teuer sind – sie kosten oft um die 50.000 US-Dollar – und in der Regel verschiedene Finanzierungs- und Steuervergünstigungsverfahren beinhalten, die viele Verbraucher verwirren. Die Stadt wirft Radiant vor, Hausbesitzer nicht nur abgezockt, sondern auch die Bemühungen der Stadt und des Bundesstaates um den Umstieg auf sauberere Energie untergraben zu haben.

CEO William James Bushell reiht sich neben John Berger von Sunnova und anderen in die Hall of Shame der Geschäftswelt ein.

Laut der Klage, die beim Amt für Verwaltungsprozesse und Anhörungen der Stadt eingereicht wurde, brachten die Solaranlagen von Radiant oft nicht die beworbenen Energieeinsparungen und funktionierten manchmal gar nicht.

Laut der Klage soll das Unternehmen Kredite durch hohe und nicht offengelegte Schmiergelder an Kreditgeber aufgebläht, Projekte nicht bis zur städtischen Genehmigung begleitet und keine Unterlagen für Kunden eingereicht haben, um Steuervergünstigungen zu erhalten. Außerdem habe es ein betrügerisches Gewinnspiel für einen neuen Tesla veranstaltet.

Die Stadt wirft Radiant vor, wiederholt ohne Zustimmung der Betroffenen Kredite abgeschlossen und sie so jahrelang mit monatlichen Raten von Hunderten von Dollar belastet zu haben. „Eine eklatantere Form der Täuschung ist kaum vorstellbar“, heißt es in der Klage.

Ein weit verbreitetes Problem

Die von Subventionen durchsetzte Branche der Dachsolaranlagen basiert im Wesentlichen darauf, ein höchst unrentables Geschäft durch komplizierte Langzeitleasingverträge rentabel zu machen. Zahlreiche führende Anbieter von Dachsolaranlagen sind insolvent. Teil II morgen wird die durch den Zusammenbruch von Sunnova, dem größten Unternehmen in diesem Bereich, entstandene Misere beleuchten. Teil III am Freitag zeigt einen Social-Media-Austausch mit einem Befürworter von Dachsolaranlagen, in dem fälschlicherweise das schwächste Argument vorgebracht wird, anstatt zu schweigen.

https://wattsupwiththat.com/2026/02/26/rooftop-solar-fraud-the-damage-continues-part-i/

***********

Ergänzung durch einige Medienberichte aus Deutschland

Der Hype ist vorbei: Insolvenzwelle trifft Sachsens Solar-Handwerker

Nach dem Boom der vergangenen Jahre gerät der Ausbau von Solaranlagen auf Privatdächern ins Stocken. Viele Solarinstallateure melden daher Insolvenz an. Was hinter der Krise steckt.

  • Januar 27, 2026

https://www.wirtschaft-in-sachsen.de/de/der-hype-ist-vorbei-insolvenzwelle-trifft-sachsens-solar-handwerker/

 

Deutsche Solarbranche bricht plötzlich ein: „Unternehmen verschwinden ganz vom Markt“

Der Ausbau der Solarenergie in Deutschland kannte jahrelang nur den Weg nach oben. Derzeit rutschen immer mehr Betriebe in die Pleite. Ist der Solarhype vorbei?

Flynn Jacobs, 05.03.2025

https://www.berliner-zeitung.de/wirtschaft-verantwortung/riesige-insolvenzwelle-deutsche-solarindustrie-bricht-ploetzliche-ein-das-sind-die-gruende-li.2303768

 

Deutsche Solarbranche ächzt unter Insolvenzwelle: 2025 wird es „viel Unruhe“ geben

Stand:07.01.2025, Fabian Hartmann

https://www.fr.de/wirtschaft/deutsche-solarbranche-aechzt-unter-insolvenzwelle-2025-wird-es-viel-unruhe-geben-zr-93495881.html

 

Der Beitrag Betrug mit Solaranlagen auf Dächern: Der Schaden geht weiter (Teil I) erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Kaltes Winterwetter 2025/26 – nur Wahrnehmung, oder wie immer? Klimaschau 254

1. April 2026 - 11:00

Der Deutsche Wetterdienst DWD zeichnet die Temperatur- und Niederschlagsdaten seit Jahrzehnten auf. Zusammen genommen läßt sich damit kurzfristig auf das Wetter, langfristig auf die Klimaentwicklung schließen.
Der Winter 25/26 wird entgegen der alarmistischen Berichterstattung der ehemals seriösen Massenmedien als etwas zu kalt bewertet. Allerdings bezieht sich die Bewertung „zu kalt“ auf einen Mittelwert, der auf dem Gebiet der deutschsprachigen Länder kaum konkret erlebt werden kann. Grund dafür ist, daß der Norden der Bundesrepublik von einem Hoch über Skandinavien mit kalter Luft versorgt wird, während die westlichen Mittelgebirge zeitweise unter dem Einfluß warmer Atlantikluft stehen. Und die Alpenländer haben aufgrund ihrer Höhe wieder andere – meist tiefere – Temperaturen.

Der Beitrag Kaltes Winterwetter 2025/26 – nur Wahrnehmung, oder wie immer? Klimaschau 254 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Wie Europa seine Energie-Sicherheit selbst unterminiert

1. April 2026 - 8:00
Die aufschlussreiche Mathematik hinter Europas Kernkraft-Fehler

Roger Pielke Jr.

Am vergangenen Dienstag erklärte die Präsidentin der Europäischen Kommission Ursula von der Leyen auf dem Kernenergiegipfel 2026 in Paris:

„Es war ein strategischer Fehler, dass Europa einer zuverlässigen und erschwinglichen Quelle für emissionsarmen Strom den Rücken gekehrt hat.“

Sie bezog sich dabei auf die Kernenergie und wies darauf hin, dass 1990 ein Drittel des Stroms in Europa aus Kernenergie stammte, heute seien es etwa 15 Prozent: „Dieser Rückgang des Anteils der Kernenergie war eine bewusste Entscheidung.“ 1

Diese Entscheidung wirft eine Frage auf: Was wäre geschehen, wenn man sich anders entschieden hätte? Genauer gesagt: Wie hätte der Energiemix der EU heute ausgesehen, wenn sich die Union stattdessen für eine auf Kernenergie basierende Zukunft entschieden hätte?

Heute werde ich diese Frage aus quantitativer Sicht beleuchten. Ich stelle zwei kontrafaktische Szenarien aus den frühen 2000er Jahren vor, als der Kernkraft-Stromverbrauch in der EU-27 seinen Höhepunkt erreichte. Im ersten kontrafaktischen Szenario gehe ich davon aus, dass Europa, anstatt seinen Kernkraftwerkspark zu verkleinern, einen Kurs des moderaten Wachstums eingeschlagen hat. Das zweite kontrafaktische Szenario geht davon aus, dass Europa zu der Rate des Kernkraftwerksausbaus (vor allem in Frankreich) von etwa 1970 bis etwa 1990 zurückgekehrt ist und jedes Jahr etwa sieben neue Reaktoren in Betrieb genommen hat.

Der Aufbau der Kernkraftwerksflotte der EU-27 begann in den 1960er Jahren. Bis Mitte der 1990er Jahre gab es 136 Reaktoren in mehr als 50 verschiedenen Kraftwerken, deren Bau überwiegend durch das staatlich gelenkte Bauprogramm Frankreichs vorangetrieben worden war. Zwischen 1975 und 1990 wurden 52 neue Reaktoren an das französische Stromnetz angeschlossen – einer der erfolgreichsten Ausbauprozesse im Bereich der Kernenergie in der Geschichte.

Dann wurde aus Rückenwind Gegenwind.

Bulgarien und Litauen legten Kraftwerke als Voraussetzung für den EU-Beitritt still. Deutschland schaltete unmittelbar nach Fukushima im März 2011 acht Reaktoren ab und schloss seinen letzten in Betrieb befindlichen Reaktor im April 2023. Schweden schloss vier seiner zwölf kommerziellen Reaktoren. Frankreich begann, von seinem Engagement für die Kernenergie abzurücken. Bis 2024 umfasste der Reaktorbestand der EU-27 100 Reaktoren. Der Verbrauch an Kernenergie war von einem Höchststand von 10,1 Exajoule (EJ) im Jahr 2004 auf 7,1 EJ gesunken.

Der Gasverbrauch blieb unterdessen hoch, und der Kohleverbrauch lag – obwohl rückläufig – im Jahr 2024 immer noch knapp unter 5 EJ. Die folgende Abbildung zeigt die Verbrauchsentwicklung aller drei Energieträger in der EU-27 für dieses Jahrhundert:

Um zu untersuchen, wie sich die Energieentwicklung in Europa anders hätte gestalten können, betrachte ich zwei Szenarien.

Szenario 1 – Den Rückgang umkehren. Der Kernenergieverbrauch der EU-27 ging von 2000 bis 2024 um 0,096 EJ pro Jahr zurück. Was wäre, wenn er stattdessen um den gleichen Betrag gestiegen wäre? Ausgehend von 9,4 EJ im Jahr 2000 und einer jährlichen Zunahme von 0,096 EJ hätte der Kernenergieverbrauch bis 2024 11,7 EJ erreicht – was etwa 155 in Betrieb befindlichen Reaktoren entspricht. Dieses Szenario führt zu einem Anstieg des Kernenergieverbrauchs in der EU-27 um 4,6 EJ im Vergleich zur tatsächlichen Entwicklung.

Szenario 2 – Wiederholung des Ausbaus. Zwischen 1970 und 1990 stieg der Kernenergieverbrauch in der EU von 0,18 EJ auf 7,95 EJ – ein Anstieg von 0,39 EJ pro Jahr. Was wäre, wenn sich diese Wachstumsrate ab dem Höchststand von 2004 fortgesetzt hätte? Bis 2024 hätte die EU dann rund 238 Reaktoren gehabt, die 17,9 EJ erzeugt hätten. Das hätte zu einem Anstieg von 10,8 EJ gegenüber dem tatsächlichen Verlauf geführt – also zu einer etwa doppelten Steigerung des Kernenergieverbrauchs gegenüber dem Höchststand von 2004. Dieses Szenario hätte ein politisches Engagement erfordert, das dem Frankreichs in den 1970er Jahren entsprochen hätte, mit etwa sieben neuen Reaktoren, die pro Jahr ans Netz gegangen wären.

Die folgende Abbildung zeigt die gesamte Entwicklung des Reaktorparks der EU-27 neben den beiden kontrafaktischen Entwicklungspfaden:

Als Nächstes stellt sich die Frage, was die kontrafaktische Stromerzeugung aus Kernenergie hätte ersetzen können.

Ich ordne die zusätzliche Kernenergie-Erzeugung der kontrafaktischen Szenarien folgenden Quellen zu: (1) russischem Pipelinegas, (2) LNG aus Katar und (3) EU-Kohle. Die nachstehende Tabelle zeigt, woher die EU-Gasimporte im Jahr 2024 stammten. Meine Analyse betrachtet das Jahr 2024 lediglich als Momentaufnahme und geht vereinfachend von einer Substitution im Verhältnis 1:1 aus. 2

Die Ergebnisse der Substitution sind in der folgenden Tabelle dargestellt. In beiden Szenarien werden sowohl russisches Pipelinegas als auch LNG aus Katar vollständig ersetzt. Im konservativeren Szenario werden zudem 66 % des Kohleverbrauchs ersetzt, während im Ausbauszenario die gesamte Kohle ersetzt wird.

Die kontrafaktische Kernenergielücke im Szenario „Den Rückgang umkehren“ beträgt 4,6 EJ – mehr als das Dreifache der gesamten Importe aus Russland und Katar, die sich auf 1,5 EJ belaufen. Gemessen an der Energiemenge hätte die EU-27 diese Importe einsparen können.

Den Rückgang umkehren“ verdrängt dann weitere zwei Drittel der EU-Kohle, sodass sich etwa 1,6 EJ auf Deutschland und Polen konzentrieren. „Wiederholung des Ausbaus“ eliminiert die gesamte EU-Kohle und verfügt dennoch über 4,6 EJ an Überkapazität.

Die nachstehende Tabelle zeigt die Auswirkungen der kontrafaktischen Szenarien auf die Kohlendioxidemissionen der EU-27 – diese würden im Jahr 2024 um etwa 15 % bis 21 % unter den tatsächlichen Werten liegen. Abgesehen von einem strategischen Fehler hat der Ausstieg aus der Kernenergie die EU-27 auch im Hinblick auf eine weitere Priorität der Union – die Emissionsminderung – erheblich geschwächt.

Die folgenden Abbildungen zeigen den Energieverbrauch der EU-27 in den einzelnen kontrafaktischen Szenarien. Dargestellt sind die tatsächlichen Werte für Kernenergie, Gas und Kohle bis 2024; die gestrichelten kontrafaktischen Linien weichen ab dem Höchststand von 2004 ab, was mit der oben beschriebenen Verdrängungssequenz übereinstimmt.

Beide kontrafaktischen Szenarien zeigen, dass die Kernenergie an Bedeutung gewinnt, während Gas und Kohle an Bedeutung verlieren.

Ursula von der Leyen hat absolut Recht, dass die Entscheidung Europas, die Abhängigkeit von der Kernenergie zu verringern, ein strategischer Fehler war. Diese Entscheidung hat zudem Europas Engagement für eine tiefgreifende Dekarbonisierung erheblich gebremst. Die oben betrachteten kontrafaktischen Szenarien machen dies deutlich.

Die europäische Energiepolitik der letzten vier Jahre war von zwei Krisen geprägt: dem Druck Russlands durch seine Gaslieferungen nach der Invasion der Ukraine im Jahr 2022 und den Versorgungsengpässen im Nahen Osten im Jahr 2026 mit ihren Folgewirkungen auf die Gaspreise. Diese Krisen hätten vermieden oder zumindest erheblich abgemildert werden können.

In ganz Europa wächst die Erkenntnis, dass die Entscheidungen in Bezug auf die Kernenergie falsch waren. Von der Leyens Garantie in Höhe von 200 Millionen Euro zur Förderung kleiner modularer Reaktoren ist ein erster Schritt, um wieder auf Kurs zu kommen, und die EU fängt nicht bei Null an. Die Erholung wird jedoch eine Weile dauern.

Link: https://rogerpielkejr.substack.com/p/how-europe-undermined-its-own-energy?publication_id=119454&post_id=191032572&isFreemail=false&r=2iv8gn&triedRedirect=true

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Wie Europa seine Energie-Sicherheit selbst unterminiert erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Zuordnungs-Studien sind ein Schandfleck für die Wissenschaft

31. März 2026 - 20:00

GWPF

London, 24. März. Laut einem neuen Informationspapier der Global Warming Policy Foundation (GWPF) beruhen Studien zur Zuordnung extremer Wetterereignisse auf einer fehlerhaften Logik und führen zu irreführenden Schlagzeilen.

In der Studie mit dem Titel „Contorted Science: The Flawed Logic of Extreme Event Attribution“ argumentiert Dr. Ralph B. Alexander, dass Studien, die versuchen, bestimmte Hitzewellen, Hurrikane und Überschwemmungen mit dem vom Menschen verursachten Klimawandel in Verbindung zu bringen, grundlegend irreführend sind und eher aus rechtlichen und politischen als aus wissenschaftlichen Gründen erstellt worden sind.

Der Artikel unterzieht aktuelle, viel beachtete Studien von World Weather Attribution und dem Grantham Institute einer genauen Prüfung. Allein für das Jahr 2025 behauptete World Weather Attribution, dass 24 von 29 untersuchten Extremereignissen durch den Klimawandel verschärft oder wahrscheinlicher geworden seien.

Alexander zeigt, wie sehr solche Schlussfolgerungen von Klimamodellen abhängen, die Schwierigkeiten haben, schon historische Klimamuster nachzubilden, und davon ausgehen, dass Wissenschaftler ein „natürliches“ Klima ohne menschliche Emissionen genau simulieren können.

In Attributionsstudien lassen sich einige zentrale, immer wiederkehrende Schwachstellen feststellen:

• Fehlerhafte Logik: Bei Zuschreibungsbehauptungen liegt ein Zirkelschluss vor, d. h., man geht einfach von der Schlussfolgerung aus, die man eigentlich untersuchen will.

• Statistische Verfahren, die die Wahrscheinlichkeitsangaben in den Schlagzeilen überhöhen, während Unsicherheiten heruntergespielt werden.

• Die Vernachlässigung historischer Aufzeichnungen, die vergleichbare Extremereignisse lange vor den heutigen Emissionswerten belegen.

Der Bericht führt das zunehmende Aufkommen der schnellen Ereigniszuordnung auf die politische Unzufriedenheit mit den zurückhaltenden Schlussfolgerungen des IPCC zurück, der für die meisten Arten von Extremwetter nur ein geringes Maß an Zuversicht hinsichtlich langfristiger globaler Trends zum Ausdruck gebracht hat. Er erwähnt auch die Rolle einer von der „Union of Concerned Scientists“ im Jahr 2012 einberufenen Tagung. Ziel dieser Tagung war es, den wahrgenommenen Zusammenhang zwischen Extremwetter und Klimawandel zu untermauern, um Rechtsstreitigkeiten gegen Unternehmen der fossilen Brennstoffindustrie anzustrengen.

Der Autor des Berichts Ralph Alexander sagte:

„Studien zur Zuordnung von Extremereignissen sind ein Schandfleck für die Wissenschaft, deren Kennzeichen empirische Beweise und Logik sind. Keines dieser Merkmale spielt bei Zuordnungsstudien eine zentrale Rolle, die aus rechtlichen und politischen, nicht aber aus wissenschaftlichen Gründen ins Leben gerufen worden waren.“

Harry Wilkinson, Leiter der Abteilung für Politik bei der Global Warming Policy Foundation, sagte:

„Es ist beunruhigend, dass Studien zur Zuordnung von Ereignissen in den internationalen Medien so viel Beachtung finden, obwohl sie grundlegende Mängel aufweisen. Dies ist ein großer wissenschaftlicher Skandal.“

Der ganze Report steht hier: Contorted Science: The Flawed Logic of Extreme Event Attribution (pdf)

Link: https://mailchi.mp/3387aa50af57/event-attribution-studies-are-a-blot-on-science-says-ralph-alexander-13367015?e=08ba9a1dfb

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Zuordnungs-Studien sind ein Schandfleck für die Wissenschaft erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Mythos: Erneuerbare Energien sind billig

31. März 2026 - 17:00

WUWT, Gastautor, Roger Caiazza

Ich wollte schon lange mit dem Mythos aufräumen, dass erneuerbare Energien den billigsten Strom liefern. Dieser Mythos ist mittlerweile allgemein bekannt, weshalb eine Widerlegung stichhaltige Argumente erfordert. Eine Artikelserie von Steve Carson auf dem Blog „Science of Doom “ erklärt, warum dieser Mythos falsch ist. Er fasst es so zusammen: „Wir haben viel billige, aber fluktuierende Energie erzeugt, und jetzt ist es teuer, das System am Laufen zu halten, wenn diese Energie nicht verfügbar ist.“

In einem Leseleitfaden zu seinen jüngsten Beiträgen zum Thema erneuerbare Energien erklärt Carson, warum günstige erneuerbare Energien nicht automatisch zu günstigem Strom führen. Mein Kollege Francis Menton und ich argumentieren schon lange, dass, bevor New Yorks unkontrollierter Ausbau erneuerbarer Energien weiter vorangetrieben wird, ein Pilotgebiet die Übergangsvorgaben umsetzen sollte, um die Folgen zu beobachten. Carson verfasste 14 Beiträge, die zunächst einen breiteren Überblick boten (einschließlich China und Europa) und sich dann auf Südaustralien als das geeignetste Praxisbeispiel für den Ausbau erneuerbarer Energien konzentrierten, um die Realität anderer Regionen zu untersuchen.

Ich empfehle die gesamte Serie. Carson schlägt vor, die Beiträge chronologisch zu lesen, besonders wenn man die Serie noch nicht kennt. Jeder Beitrag ist in sich abgeschlossen, aber „zusammen ergeben sie ein klares Bild davon, warum „billige erneuerbare Energien“ nicht automatisch billigen Strom erzeugen und warum das System letztendlich für Flexibilität, Reservekapazitäten und die Verkabelung bezahlen muss.“

Falls Sie keine Zeit haben, alle zu lesen, schlug Carson Folgendes vor:

Im Folgenden werden die Beiträge in chronologischer Reihenfolge aufgelistet, jeweils mit einer kurzen Zusammenfassung.

1)  Chinas erneuerbare Energien und PR

Steve Carson erklärt, wie leicht man mit denselben Daten ganz unterschiedliche Geschichten erzählen kann. Chinas Wachstum im Bereich der erneuerbaren Energien ist enorm – aber das gilt auch für die Kohle. Dieser Beitrag zeigt, welche Daten (z. B. Energiemenge in TWh, prozentuales Wachstum eines ausgewählten Jahres) Ihnen die gewünschte Antwort liefern.

2)  Deutschland und die erneuerbaren Energien

Dieser Beitrag beschreibt eine ähnliche Situation in Deutschland. Der deutsche Strommix hat sich seit 2015 verändert. Die Nachfrage ist deutlich gesunken (aufgrund der Stilllegung von Schwerindustrie), und die Energiequellen haben sich gewandelt: „Kohle stark zurückgegangen, Kernenergie praktisch nicht mehr vorhanden, Wind- und Solarenergie massiv ausgebaut“. In diesem Fall spielt die Datenauswahl keine Rolle – das Ergebnis bleibt dasselbe. Carson weist darauf hin, dass Importe die durch die schwankende Verfügbarkeit erneuerbarer Energien entstehenden Lücken schließen. Dieser Beitrag bietet einen Überblick, bevor in späteren Beiträgen die grenzüberschreitende Energieversorgung genauer betrachtet wird.

Einschub: Wer beliefert Deutschland?

Innerhalb von fünf Jahren haben sich die Gesamtimporte um fast das Zweieinhalbfache erhöht. Das ist genau das, was man erwarten würde, wenn man gleichzeitig Folgendes berücksichtigt:

  • Erneuerbare Energien stark fördern
  • Schalten Sie Ihre Atomflotte ab, und
  • Sie setzen Kohle und Gas seltener ein als früher.

Die Aufschlüsselung nach Ländern ist interessant:

  • Frankreich, Norwegen/Schweden und die Schweiz dominieren.
  • Dänemark scheint überraschend wichtig zu sein.
  • Die Niederlande, Polen, Tschechien und Belgien spielen zwar eine Rolle, sind aber eher Nebendarsteller als Hauptdarsteller.

Link von obiger Empfehlung:  Deutschland hält die Lichter am Laufen1.500-km-Staffellauf

3)  Deutschland, Erneuerbare Energien & Die Stromversorgung

Befürworter grüner Energie verweisen oft auf den Erfolg des deutschen Energiewandels hin, um zu beweisen, dass es möglich ist. Dieser Artikel erklärt, wie dies gelang und warum es nicht übertragbar ist. Kurz gesagt: Der deutsche Energiewandel nutzt Interkonnektoren häufig als „erweiterten Netzspeicher“. Der Artikel beschreibt Deutschlands Energieimporte, die Lieferanten und warum grenzüberschreitende Leitungen im Stillen drei Funktionen gleichzeitig erfüllen – die Verteilung günstiger Stromerzeugung, die Bereitstellung von Reservekapazitäten und die Nutzung von Wettervorteilen.

4)  Das 1.500-km-Staffelrennen: Warum der spanische Wind Mühe hat, Deutschland zu erreichen

Die Annahme, die akademischen Studien zugrunde liegt, die belegen wollen, dass Wind-, Wasser- und Solarenergie ohne neue Technologien das Stromnetz effektiv versorgen können, ist, dass der Wind irgendwo weht, wenn er im eigenen Land nicht weht. Dieser Beitrag beleuchtet eingehend den oft übersehenen physikalischen Engpass: die Stromübertragung. Carson erklärt, dass Spanien meteorologisch gesehen „anti-deutschland“ sein kann, aber „der grenzüberschreitende Stromtransport ist ein jahrzehntelanger, milliardenschwerer Wettlauf um Milliarden Euro“.

5)  Großbritannien und erneuerbare Energien

In diesem Beitrag analysiert Carson die Situation im Vereinigten Königreich. Er beschreibt die britische Stromerzeugung von 2015 bis 2024: „Kohle bricht zusammen, Windkraft boomt, Kernenergie geht zurück, Gas bleibt zentral.“ Sein Ansatz basiert auf einer einfachen, datenorientierten Betrachtungsweise, die die Folgefrage aufwirft: Was bedeutet „Erfolg der erneuerbaren Energien“ im Systemkontext?

6)  Großbritannien und erneuerbare Energien: Wie die Magie funktioniert

Der nächste Beitrag analysiert die Daten genauer. Er zeigt, dass Großbritannien stark auf Importe, Gas, Biomassebilanzierung usw. setzt. Ich bin überzeugt, dass Marketing ein wesentlicher Bestandteil der Botschaft von Befürwortern grüner Energie ist, und Carson erklärt, wie sich die Argumentation für einen hohen Anteil erneuerbarer Energien verändert, sobald man die vollständigen Systembeschränkungen berücksichtigt. Das wären all die Einschränkungen, die diese Befürworter ignorieren.

7)  Deutschland, Großbritannien und Frankreich: Der Preis der Energiewende

Carson fasst in diesem Artikel die vorherigen Aussagen zusammen:

Deutschland baute Wind- und Solarenergie massiv aus – erlebte aber gleichzeitig eine Deindustrialisierung (Industrieabwanderung) und eine deutliche Veränderung im Stromhandel mit den Nachbarländern. Großbritannien stellte die Kohleverstromung ein, setzte verstärkt auf Offshore-Windkraft und erhöhte die Verbrennung von Holzhackschnitzeln. Beide Länder waren zudem stärker auf Importe angewiesen – insbesondere Frankreich auf Atomkraft und Norwegen auf Wasserkraft.

Carson erklärt: „Die Verfechter der Energiewende versprechen oft, dass die Strompreise zwangsläufig sinken werden, weil Wind- und Solarenergie keine Brennstoffkosten verursachen.“ Ich musste erst nachschlagen, was „Verfechter“ bedeutet – es ist ein australischer Slangausdruck für einen Marktschreier. Carson untersucht, was Verbraucher tatsächlich erleben: „Die Kostenstruktur, die Abwägungen und warum ‚mehr erneuerbare Energien‘ ohne Flexibilität und entsprechende Verkabelung nicht automatisch zu ‚niedrigeren Rechnungen‘ führt.“ Ich empfehle diese Reihe, weil er die Bestandteile der Stromkosten hervorragend aufschlüsselt. In diesem Beispiel analysiert er den Großhandelspreis, die Netzentgelte und zusätzliche Kosten wie Steuern, die zusammen die Stromrechnung ausmachen, und zeigt, wie diese Faktoren die Preise in Deutschland und England im Vergleich zu Frankreich beeinflusst haben, das erneuerbare Energien nicht so konsequent verfolgt hat.

In den verbleibenden sieben Artikeln dieser Reihe nutzt Carson die Erfahrungen aus Südaustralien, um tief in die „tägliche Preis-Achterbahnfahrt und ihre wahre Bedeutung“ einzutauchen.

8)  Das 100%-Experiment: Wie ein kleiner Staat zum weltweiten Labor für erneuerbare Energien wurde

Er argumentiert, dass Südaustralien das geeignetste Praxislabor für einen hohen Anteil erneuerbarer Energien sei, da es „über riesige Dachsolaranlagen, viel Windkraft und ein engmaschiges Netznetz verfügt“. Dieser Beitrag legt den Grundstein: Was hat sich zwischen 2015 und 2025 verändert, und warum verhält sich das Stromnetz anders als in der Ära der fossilen Brennstoffe üblich?

9)  Das Preisparadoxon: Warum „kostenlose“ Solarenergie zu Energie-Achterbahnfahrten von 15.000 Dollar führt

Es ist in New York State geltende Doktrin, dass ein System mit erneuerbaren Energien dem derzeitigen System überlegen ist, da die Preise für fossile Brennstoffe stark schwanken und ein Wind- und Solarsystem externe Ursachen dieser Schwankungen eliminiert. Carson erklärt, warum auch ein System mit erneuerbaren Energien mit Preisschwankungen zu kämpfen hat: „Mittags fallen die Preise ins Negative und abends schnellen sie auf extreme Höhen.“ Dieser Beitrag erläutert die „Canyon-Kurve“ und warum die Preisschwankungen im Großhandel nicht zu niedrigeren Haushaltsrechnungen führen. Der Autor empfiehlt diesen Beitrag als besten Einstiegspunkt, falls Sie nur einen Artikel über Südaustralien lesen möchten.

10)  Batterien in Südafrika: Der Markt in Betrieb

Seit ich 2017 meinen Blog gestartet habe, ist mir aufgefallen, dass sich jeder Aspekt der Energiewende bei genauerer Betrachtung als komplexes Thema entpuppt. Dies ist ein gutes Beispiel dafür. Befürworter des New Yorker Klimagesetzes sehen Batteriespeicher als vielseitige Lösung: Sie sollen überschüssigen Wind- und Solarstrom in Spitzenzeiten verlagern, Kapazität und Systemdienstleistungen bereitstellen, wenn fossile Kraftwerke stillgelegt werden, und die Gesamtsystemkosten senken. Im Beispiel von San Antonio heißt es: „Batterien werden nicht gebaut, um Strom für einen Tag zu speichern – sie werden gebaut, weil der Markt schnelle Reaktionszeiten in den Randzeiten honoriert.“ Dieser Beitrag zeigt, welchen Beitrag Batterien tatsächlich im Tagesverlauf zum Stromnetz leisten.

11)  Batterien und die Marktmechanismen – Wie die „unsichtbare Hand“ des Stromnetzes Geschwindigkeit belohnt

Um meine These zu untermauern, dass sich jeder Aspekt bei genauerer Betrachtung als komplexer erweist, geht Carson detailliert auf die Regeln des NEM-Marktes ein. Der National Electricity Market (NEM) ist der vernetzte Großhandelsmarkt, der Queensland, New South Wales, Victoria, South Australia und Tasmanien verbindet. Carson erklärt, wie der NEM Geschwindigkeit belohnt: 5-Minuten-Abrechnung, „Twitch“-Märkte für Frequenzregelungs- und Systemdienstleistungen (FCAS), negatives Preisverhalten und die Bedeutung netzbildender Wechselrichter. Dies ist ein weiteres gutes Beispiel dafür, warum diese Reihe so nützlich ist. Carson analysiert alles verständlich und beschreibt die Vorgänge, um eine sehr komplexe Situation zu erklären.

12)  Das Negativpreis-Rätsel – Warum Stromerzeuger für die Stromproduktion bezahlen

In der alternativen Realität erneuerbarer Energien sind negative Strompreise ein Merkmal eines Systems mit hoher Wind- und Solarkapazität. Carson erklärt: „Negative Preise sind kein Fehler – sie sind die Art und Weise, wie der Markt Überschüsse abbaut, wenn einige Erzeuger nicht abschalten können oder wollen.“ Er geht detailliert auf die Wirtschaftlichkeit des Kohle- und Gaskreislaufs, Förderprogramme für Wind- und Solarenergie und die Gründe ein, warum negative Gebote dennoch rational sein können.

13)  Der unsichtbare Markt für erneuerbare Energien: Von lokalen Energiegenossenschaften über kommunale Infrastrukturen bis hin zu regionalen Energiegenossenschaften

Dieser Beitrag erklärt die Funktionsweise von Subventionen für erneuerbare Energien in Südafrika. Daher kann die Fachsprache in anderen Ländern abweichen. Er beschreibt:

Der „zweite Markt“, der zur Finanzierung erneuerbarer Energien beitrug: Zertifikate für die Erzeugung großer Mengen (LGCs). Wer zahlt, wie sich die Kosten auf den Stromrechnungen auswirken, warum die LGC-Werte einbrachen (weil das System funktionierte) und was neuere Mechanismen stattdessen versuchen.

Es gibt zwei neuere Mechanismen. Das Capacity Investment Scheme ist ein Bundesprogramm, das neue, erneuerbare und saubere, bedarfsgerechte Kapazitäten fördert und diese über wettbewerbliche Ausschreibungen in den NEM-Regionen vergibt.  Herkunftsnachweise für erneuerbare Energien (REGO) sind handelbare Zertifikate, die bestätigen, dass eine bestimmte Strommenge aus erneuerbaren Quellen erzeugt wurde. Ich vermute, kann es aber nicht beweisen, dass die meisten Märkte ähnliche Mechanismen verwenden.

14)  Die solare Mittagspause, die die Kohleindustrie nicht bieten kann (und die Gasindustrie nur bedingt)

Dies ist ein weiteres Beispiel für die verborgenen Komplexitäten des Stromsystems, die Insider verstehen, die aber von Befürwortern erneuerbarer Energien ignoriert werden. Der eher technische Beitrag erklärt, warum thermische Kraftwerke nicht einfach um 8 Uhr morgens abgeschaltet und um 16 Uhr wieder angefahren werden können, ohne Kosten und Risiken zu verursachen. Er beleuchtet die physikalischen Aspekte der Negativpreisentwicklung – Anfahrvorgänge, Lastspitzen, Lastzyklen und warum Batterien eine sinnvolle Überbrückung darstellen.

Diskussion

Während ich diese Zusammenfassung vorbereitete, fielen mir einige Zitate aus den Artikeln ins Auge.

Die Ergebnisse aus Deutschland, England und Frankreich zeigen Folgendes:

  • Systemkosten überwiegen Rohstoffeinsparungen: Während die „Großhandelspreise“ eines windigen Tages niedrig sein mögen, treiben die Kosten für die Bewältigung dieser Variabilität (die blaue Schicht) und die „alten“ Subventionen der Vergangenheit (die rote Schicht) den Gesamtpreis in die Höhe.
  • Dekarbonisierung durch Importe: Sowohl Großbritannien als auch Deutschland haben ihre „Dekarbonisierung“ teilweise durch den Import französischer Kernenergie und norwegischer Wasserkraft vorangetrieben. Sie haben die Stabilität ihrer Stromnetze an Nachbarländer mit solideren Grundlagen ausgelagert.
  • Der nukleare Vorteil: Frankreich kann trotz seiner technischen Krise im Jahr 2022 ein stabileres und preisgünstigeres Einzelhandelsumfeld aufrechterhalten, indem es die massiven Kosten für „Redispatch“ und „Kapazitätserweiterung“ vermeidet, die seine Nachbarn plagen.

Die eingehende Analyse des Testfalls in Südaustralien ergab folgende Punkte:

Daten aus Südafrika veranschaulichen das „Preisparadoxon“: Wie „kostenloser“ Brennstoff aus Sonne und Wind einen Markt mit extremen Hoch- und Tiefpreisen geschaffen hat, der selten zu einer „günstigen“ Rechnung für den Durchschnittshaushalt führt.

Ein wichtiger Punkt: Batterien mögen negative Preise, weil das Laden dadurch billig (oder sogar kostenlos) wird. Allerdings sind Batterien durch ihre Energiekapazität und ihren Ladezustand begrenzt – sie können keinen unendlichen Überschuss aufnehmen.

Das ist die Kernaussage der vorangegangenen Artikel:

  • Mittags sinken die Preise ins Negative, weil die Nachfrage nach Solarstrom die Nachfrage übersteigt.
  • Die Preise steigen abends stark an, weil die Solarenergie ausfällt und der Wind die Lücke oft nicht vollständig schließen kann.
  • Das Knappheitssignal hat den Einsatz von Batterien erforderlich gemacht – nicht um „den Staat über Nacht am Laufen zu halten“, sondern um als schnelle Brücke zu dienen, während die Produktion in kleineren Werken und die Importe langsamer anlaufen.

Der eigentliche Wandel besteht also nicht darin, dass „erneuerbare Energien billig sind“. Der eigentliche Wandel besteht vielmehr darin:

Wir haben viel billige, intermittierende Energie erzeugt, und jetzt besteht der teure Teil darin, das System zum Laufen zu bringen, wenn diese Energie nicht verfügbar ist – oder gar zuviel davon ins Netz gedrückt wird.

Abschluss

Ich kann diese Artikelreihe wärmstens empfehlen, da sie eine hervorragende Informationsquelle zum Mythos der billigen erneuerbaren Energien darstellt.

Steve Carsons ursprüngliche Website „Science of Doom“ befasste sich mit Klimawissenschaften. Jetzt veröffentlicht er seine Artikel auf einem gleichnamigen Substack .

Roger Caiazza bloggt auf Pragmatic Environmentalist of New York über Energie- und Umweltthemen in New York . Dies spiegelt seine persönliche Meinung wider und nicht die seiner früheren Arbeitgeber oder anderer Unternehmen, mit denen er in Verbindung stand.

https://wattsupwiththat.com/2026/03/27/renewables-are-cheap-myth/

 

Der Beitrag Mythos: Erneuerbare Energien sind billig erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Realismus in der Energiepolitik der USA zahlt sich in der Iran-Krise aus

31. März 2026 - 14:00

Vijay Jayaraj

Der Iran-Krieg hat die Anfälligkeit eines Großteils des weltweiten Energiesystems offenbart. Jahrelanges politisches Theater, getarnt als Klimapolitik – bei dem fossile Brennstoffe verteufelt und unzuverlässige Wind- und Solarenergie verherrlicht wurden –, hat eine verlässliche Energieinfrastruktur zerstört.

Europa ist ein warnendes Beispiel für die „grüne“ Illusion. EU-Politiker ignorierten die physikalische Realität, dass ein Stahlwerk an einem bewölkten, windstillen Tag nicht laufen kann, und veröffentlichten stattdessen eine Pressemitteilung über „Netto-Null“. Sie unterschätzten das Risiko, die Wirtschaft an eine kleine Anzahl externer Lieferanten zu binden, und verschärften es noch, indem sie ihre eigenen Kohleminen, Gasfelder und Kernkraftwerke stilllegten.

Deutschland schaltete Kernreaktoren ab und beschleunigte die Stilllegung von Kohlekraftwerken, während es seine Abhängigkeit von importiertem russischem Gas und intermittierender Wind- und Solarenergie verstärkte. In UK legte man Kohlekraftwerke still und baute die regelbare Gaskapazität ab, wobei es auf importiertes Flüssigerdgas (LNG) und Windkraftanlagen setzte, die zwar auf das Wetter reagieren, aber nicht auf den menschlichen Bedarf.

Die europäischen Gasspeicher gingen mit einem Füllstand deutlich unter dem saisonalen Zehnjahresdurchschnitt ins Jahr 2026: Im Januar lagen die EU-Vorräte bei weniger als 50 % der Kapazität und sinken nun zum Ende des Winters auf 30 %, was kaum noch Spielraum für eine anhaltende Unterbrechung der LNG-Lieferungen lässt. Die europäischen Erdgaspreise haben sich im Vergleich zu Ende Februar etwa verdoppelt. Die Folge: Die Strompreise schießen in die Höhe, industrielle Abnehmer drosseln ihre Produktion und die Haushalte müssen höhere Heiz- und Stromrechnungen verkraften – und das alles in Volkswirtschaften, die ohnehin schon unter der Inflation leiden.

Die Ironie dabei ist, dass die Europäische Kommission nun selbst zugibt, was Kritiker seit Jahren sagen. In Paris bezeichnete Kommissionspräsidentin Ursula von der Leyen die Entscheidung, die Kernenergie an den Rand zu drängen, als „strategischen Fehler“.

Asien kämpft mit ähnlichen Fallstricken, wo Netto-Null-Ziele mit einer steigenden Nachfrage kollidieren. Indien und China, Giganten in Bezug auf Bevölkerung und Ambitionen, haben ein Vermögen für Solarmodule und Windkraftanlagen verschwendet, die ohne Sonne oder Wind ungenutzt herumstehen. Man stelle sich vor, diese Mittel wären stattdessen in den Aufbau von Vorräten an fossilen Brennstoffen oder den Ausbau der Kernkraftwerke geflossen.

Thailand, die Philippinen und Vietnam haben sich die Netto-Null-Rhetorik zu eigen gemacht. Ihre Staats- und Regierungschefs haben die eklatanten Energielücken übersehen, die durch die anhaltende Krise offenbart wurden. Viele südostasiatische Länder haben nun Maßnahmen zur Eindämmung des Öl- und Gasverbrauchs ergriffen, darunter ein Stopp des Exports von Erdölprodukten und Homeoffice-Maßnahmen für die Bürger.

Berichten zufolge bemüht sich Thailands staatliches Öl- und Gasunternehmen verzweifelt um die Sicherung der Versorgung, während Bangladesch gezwungen ist, Notlieferungen zu Preisen zu kaufen, die mehr als doppelt so hoch sind wie im Januar. Indische und vietnamesische Käufer haben Ausschreibungen für sofortige Lieferungen veröffentlicht, die jedoch nicht vergeben wurden.

In ganz Indien kommt es zu Engpässen bei Flüssiggasflaschen (LPG). Hotels und Restaurants haben Schwierigkeiten, ihren Betrieb aufrechtzuerhalten, legt doch der Mangel an Gasflaschen den Gastgewerbesektor lahm. Selten wird anerkannt, dass Energieknappheit für Milliarden Menschen in Asien, Afrika und Lateinamerika schon seit langem katastrophale Folgen hat.

Wenn Flüssiggasflaschen knapp und teuer werden, greifen arme Haushalte wieder auf Holz und Dung zum Heizen und Kochen zurück, was zu rauchiger Raumluft führt. Wenn Fabriken keine zuverlässige Stromversorgung sichern können, gehen Arbeitsplätze verloren und die Armut verschärft sich.

Ausnahme USA: Standhaft im Chaos

Die einzige große Volkswirtschaft, die mit einem Puffer in diese Krise geht, sind die Vereinigten Staaten. Die USA verfügen über eine massive Basis an heimischer Öl- und Gasförderung, ein direktes Erbe eines zehnjährigen Rekordwachstums bei der heimischen Förderung, das sich während der ersten Amtszeit von Trump dramatisch beschleunigte.

Der jüngste „Short-Term Energy Outlook“ der US-Energieinformationsbehörde (EIA) prognostiziert für 2026 eine durchschnittliche Rohölproduktion in den USA von rund 13,5 Millionen Barrel pro Tag, was nach mehreren Jahren des Wachstums bis hin zu Rekordfördermengen nur geringfügig unter dem Niveau von 2025 liegt. Bei Erdgas erwartet die EIA einen Anstieg der Produktion von etwa 107–108 Milliarden Kubikfuß pro Tag (bcfd) im Jahr 2025 auf 109–110 bcfd im Jahr 2026, was ein neuen Rekord wäre.

Durch die Befürwortung von Fracking, Horizontalbohrungen und einer vernünftigen Regulierung haben die USA das Potenzial des Permbeckens und anderer Schiefervorkommen freigesetzt. Sie haben einer vernünftigen Energieökonomie Vorrang vor apokalyptischen Klimabehauptungen eingeräumt.

Dieser krasse Gegensatz zwischen amerikanischer Widerstandsfähigkeit und europäischem Zusammenbruch ist eine bleibende Lektion für die Entwicklungsländer. Nationale Sicherheit sollte nicht den Launen des Wetters oder der Zustimmung von Klimaaktivisten in europäischen Hauptstädten unterworfen sein.

Was die aktuelle Krise beweist, ist einfach: Energiesicherheit beruht auf der Fähigkeit, physische Moleküle – Öl, Gas, Kohle und Uran – zu sichern, wenn geopolitische Stürme toben. Europa und weite Teile Asiens haben sich stattdessen dafür entschieden, ihre Zukunft an Slogans zu knüpfen.

This commentary was first published at The Daily Signal March 15.

Autor: Vijay Jayaraj is a Research Associate at the CO2 Coalition, Arlington, VA and writes frequently for the Cornwall Alliance. He holds a master’s degree in environmental sciences from the University of East Anglia, UK, and resides in India.

Link: https://cornwallalliance.org/us-energy-realism-pays-off-in-iran-crisis/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Realismus in der Energiepolitik der USA zahlt sich in der Iran-Krise aus erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die teuerste naturwissenschaftliche Unterrichtsstunde in der europäischen Geschichte

31. März 2026 - 11:00

Schiff Sovereign, James Hickman, 13. März 2026 – Meinungskommentar

[Die Macher dieser Webseite haben ihren Standort in Puerto Rico –und beschäftigen sich hier mit den aktuellen Vorgängen in Deutschland]

Am 11. März 2011 erschütterte ein Erdbeben der Stärke 9,0 die japanische Küste und löste einen gewaltigen Tsunami aus, der 20.000 Menschen das Leben kostete. Das Kernkraftwerk Fukushima Daiichi wurde überschwemmt, bei drei der sechs Reaktoren des Kraftwerks fiel die Notkühlung aus, sie erlitten eine Kernschmelze. Obwohl kein Mensch durch radioaktive Strahlung verletzt oder gar gestorben ist, bezeichnen deutsche Medien und Politiker den Unfall gerne als schwerste Katastrophe seit Tschernobyl.  [Beschreibung ergänzt, Demmig]

Auf der anderen Seite der Welt geriet die deutsche Bundeskanzlerin Angela Merkel in Panik.

Ihre Regierung hatte erst fünf Monate zuvor die Betriebsdauer der 17 deutschen Atomreaktoren verlängert. Doch aufgrund des Erdbebens in Japan ruderte Merkel über Nacht zurück und legte acht deutsche Reaktoren still.

Merkels Entscheidung hatte jedoch nicht wirklich mit Naturkatastrophen zu tun. Sie war politisch motiviert.

Merkel fürchtete die deutschen Grünen, die 1980 buchstäblich auf der Grundlage des Anti-Atomkraft-Aktivismus gegründet worden waren und immer mehr an Einfluss gewannen. In nur zwei Wochen stand eine wichtige Landtagswahl an, und Merkel hoffte, einen Sieg erringen zu können, wenn sie die Atomkraftwerke stilllegen würde.

Ihr Schachzug ging nicht auf, und die Grünen gewannen trotzdem.

Doch zu diesem Zeitpunkt war das Schicksal der Kernenergie bereits besiegelt. Innerhalb von drei Monaten beschloss die deutsche Regierung, ALLE Kernreaktoren im Land schrittweise abzuschalten.

Man sollte bedenken, dass Deutschlands 17 Reaktoren über ein Drittel des nationalen Strombedarfs deckten – und das völlig emissionsfrei. Das ist ein beachtlicher Erfolg für ein Land, das sich so intensiv mit dem Klimawandel auseinandersetzt.

Doch die deutschen Grünen hatten unerklärlicherweise jahrzehntelang dafür gekämpft, diese Kraftwerke zu schließen, also die sauberste und kohlenstoffärmste Quelle für Grundlastenergie, die der Menschheit bekannt ist, stillzulegen.

Deutschland verpflichtete sich, seine Atomkraftwerke durch Solaranlagen zu ersetzen. Dies führte natürlich dazu, dass Deutschland in einem Land, in dem die Sonne kaum scheint, zunehmend von Erdgas abhängig wurde – das größtenteils aus Russland importiert wird.

Das wahre Ausmaß dieser Idiotie zeigte sich erst im Februar 2022, als Russland in die Ukraine einmarschierte: Deutschland schloss sich den westlichen Sanktionen gegen Russland an. Russland reagierte mit der Drosselung der Gaslieferungen. Und Deutschland hatte keine Alternative.

Deutschland – das Land, das der ganzen Welt in Sachen CO₂-Emissionen Ratschläge erteilt hatte – nahm also in aller Eile über 20 Kohlekraftwerke wieder in Betrieb. Anschließend importierte es 42 Millionen Tonnen Kohle, darunter eine große Menge aus dem südlichen Afrika – was ja gleich „um die Ecke“ entfernt ist. Sogar das Dorf Lützerath wurde dem Erdboden gleichgemacht, um ein Braunkohletagebauwerk zu erweitern, und Protestierende wurden gewaltsam vertrieben.

Auch Deutschland wurde zum Netto-Stromimporteur und bezog Strom aus dem französischen Atomstromnetz.

Und welch eine Überraschung: Die deutschen Strompreise sind nun die höchsten in der Europäischen Union. Eine offensichtliche Folge ist, dass Deutschland aufgrund der Energiekosten industriell nicht mehr wettbewerbsfähig ist.

Und damit sind wir beim 6. März 2026 angelangt.

Manuel Hagel, ein 37-jähriger politischer Kandidat der Partei von Ex-Kanzlerin Merkel, besuchte eine Grundschule. Die Kameras des nationalen Fernsehens liefen, als Hagel versuchte, den Kindern den Treibhauseffekt zu erklären:

„Zwischen Erde und Sonne befindet sich die Atmosphäre. Und je dünner diese wird, desto heißer wird die Sonne. Der Grund dafür sind die CO2-Emissionen und so weiter. Das ist der Treibhauseffekt.“

Seine Erklärung ist leider völlig falsch. Der Treibhauseffekt entsteht dadurch, dass CO2 und andere Gase Wärme in der Atmosphäre speichern; er hat nichts mit einer Verdünnung der Atmosphäre oder einer Erwärmung der Sonne zu tun.

Dieser Typ verbietet Gasherde und benzinbetriebene Fahrzeuge im Namen der Reduzierung von CO₂-Emissionen. Dabei versteht er nicht einmal die Grundlagen seiner eigenen „Wissenschaft“.

Die deutsche Führung blamierte sich noch mehr, als EU-Kommissionspräsidentin Ursula von der Leyen am 10. März auf dem Atomenergiegipfel in Paris erklärte, Europas Rückzug aus der Atomkraft sei „ein strategischer Fehler“ gewesen.

„1990 stammte ein Drittel des europäischen Stroms aus Kernenergie, heute sind es nur noch knapp 15 %. Diese Reduzierung des Kernenergieanteils war eine bewusste Entscheidung. Ich glaube, es war ein strategischer Fehler von Europa, einer zuverlässigen und bezahlbaren Quelle emissionsarmer Energie den Rücken zu kehren.“

Sie hat natürlich Recht. Es war ein Fehler. Ein außerordentlich kostspieliger.

Das ist urkomisch ironisch, da von der Leyen Deutsche ist. Sie war Mitglied von Merkels Kabinett. Sie stimmte persönlich für den Atomausstieg, und ihre eigene Politik in der Kommission zielte auf einen stillen Ausstieg aus der Kernenergie ab.

Auch der deutsche Bundeskanzler (Friedrich Merz) äußerte sich diese Woche zu diesem nuklearen Fehler, indem er den Reaktorausstieg als „Fehler“ bezeichnete und sagte: „Ich bedauere das.“

Großartig. Dann repariere es!

Aber das werden sie nicht tun. Leider für Deutschland, so die damalige Bundeskanzlerin, „ist es nun mal so, und wir konzentrieren uns jetzt auf unsere bestehende Energiepolitik.“

Unglaublich. Zusammenfassend also:

  • Deutschland (zunächst unter Angela Merkel, später unter den nachfolgenden Regierungen) zerstörte seine sauberen, billigen Atomkraftwerke.
  • Sie taten dies aus idiotischen politischen Gründen.
  • Dies führte zu einer schweren Energiekrise, die wiederum eine Wirtschaftskrise auslöste.
  • Nahezu alle Machthaber räumen inzwischen ein, dass dies ein großer Fehler war.
  • Aber sie werden sich nicht einmal die Mühe machen, es zu reparieren.

Wie wir bereits geschrieben haben, ist reichlich vorhandene, günstige Energie eine der wenigen Kräfte, die die Inflation zuverlässig im Zaum halten können. Sie fördert stärkeres Wachstum, senkt die Preise und verbessert das Leben für alle.

Die USA sind zumindest vorerst auf dem richtigen Weg, dank jüngster Erlasse zur Reform der nuklearen Genehmigungsverfahren, zur Beschleunigung der Entwicklung kleiner modularer Reaktoren und zur Schaffung der ersten echten Dynamik, die die US-Atomindustrie seit Jahrzehnten erlebt hat.

Doch das Risiko ist offensichtlich: Eine einzige Wahl, ein Regierungswechsel, und schon könnte eine neue Generation von Politikern all diese Fortschritte über Nacht zunichtemachen – genau wie Merkel es 2011 getan hat.

Deutschland ist ein fünfzehnjähriges Fallbeispiel dafür, wie verheerende politische Entscheidungen ein Land schwächen können.

Und genau deshalb ist es sinnvoll, einen Plan B zu haben.

https://www.schiffsovereign.com/trends/the-most-expensive-science-lesson-in-european-history-154527/

 

diese Woche veröffentlichte  Stop These Things obigen Beitrag

2026 Schiff Sovereign LLC
151 Calle San Francisco Ste 200 San Juan
00901 Puerto Rico,

https://www.schiffsovereign.com/

Sie bieten Aufsätze rund um die Themen Wirtschaft und Finanzen an.

Puerto Rico liegt in der Karibik und ist seit März 1917 ein Außengebiet der USA. Die Landschaft des Inselstaats besteht aus Bergen, Wasserfällen und dem tropischen Regenwald El Yunque. Die Hauptstadt ist San Juan, die auch größte Stadt des Landes ist (Google)

Der Beitrag Die teuerste naturwissenschaftliche Unterrichtsstunde in der europäischen Geschichte erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

„Diese Leute sind verrückt“ – Klimawissenschaft und der Kult der Selbstverachtung

31. März 2026 - 8:00

Terry L. Headley

Es gab einmal eine Zeit, in der Umweltschutz für einen Naturschutz stand, der eher auf Dankbarkeit als auf Verurteilung beruhte. Er reflektierte die Überzeugung, dass eine wohlhabende und selbstbewusste Gesellschaft ihr natürliches Erbe schützen könne, ohne jenen Fortschritt zu verleugnen, der diesen Schutz erst möglich gemacht hatte. Die amerikanische Tradition des Naturschutzes wuchs aus Stärke, nicht aus Scham. In den letzten Jahrzehnten hat sich jedoch vieles von dem, was als gesicherte „Klimawissenschaft“ präsentiert wird, von praktischem Umweltmanagement hin zu einer pauschalen moralischen Erzählung verschoben, welche die industrielle Zivilisation selbst anklagt. Die Debatte beschränkt sich nicht mehr auf Atmosphärenchemie oder Vorhersagemodelle; sie hat sich zu einer umfassenderen philosophischen Behauptung entwickelt, dass der Fortschritt der Menschheit von Natur aus verdächtig sei.

Wissenschaft, wenn sie richtig betrieben wird, ist iterativ und selbstkorrigierend. Sie schreitet durch Hinterfragen, Überprüfen und Verfeinern voran. Doch der öffentliche Klimadiskurs weist zunehmend die Merkmale ideologischer Orthodoxie auf. Skepsis gegenüber Modellannahmen oder politischen Empfehlungen wird oft nicht mit Gegenargumenten, sondern mit moralischer Verurteilung beantwortet. Die Sprache der Häresie – „Leugnung“, „Wissenschaftsfeindlichkeit“, „existenzielle Bedrohung“ – wird eingesetzt, um den Raum für akzeptable Meinungen einzuschränken. Wenn sich eine Disziplin als unumstritten darstellt und politische Meinungsverschiedenheiten als ethisches Versagen darstellt, hat sie nichts mehr mit offener Forschung zu tun, sondern gleicht zunehmend einer Doktrin. Diese Wandlung verdient kritische Betrachtung, nicht weil Umweltbelange unberechtigt wären, sondern weil intellektuelle Bescheidenheit für glaubwürdige Wissenschaft unerlässlich ist.

Die philosophische Grundhaltung des zeitgenössischen Klimaaktivismus‘ offenbart ein tieferes Unbehagen gegenüber dem menschlichen Fortschritt. An ihren radikaleren Rändern stellt die Bewegung die Menschheit nicht in erster Linie als Verwalterin, sondern als Verursacherin von Umweltverschmutzung dar. Menschliches Wirken wird als invasiv, Konsum als pathologisch und Wachstum als von Natur aus zerstörerisch beschrieben. Befürworter des „Degrowth“ argumentieren offen, dass eine geringere Wirtschaftsleistung und ein niedrigerer Lebensstandard eine moralische Verbesserung darstellen. Diskussionen über die Begrenzung der Geburtenrate im Namen der Reduzierung des CO₂-Fußabdrucks haben sich vom Randbereich in den akademischen Mainstream verlagert. Solche Argumente beruhen auf einer pessimistischen Anthropologie, die menschliches Gedeihen als mit der Umwelt unvereinbar ansieht.

Diese Sichtweise steht im Widerspruch zu den historischen Fakten. Die Verbreitung zuverlässiger, erschwinglicher Energie – aus Kohle, Öl und Erdgas – ermöglichte sanitäre Einrichtungen, die Krankheiten drastisch reduzierten, eine landwirtschaftliche Produktivität, die Hungersnöte lindern konnte, sowie eine Elektrifizierung, die Medizin und Bildung revolutionierte. Die Lebenserwartung stieg, die Säuglingssterblichkeit sank und die extreme Armut ging weltweit zurück. Diese Fortschritte waren kein Nebeneffekt der Industrialisierung; sie waren direkte Folgen des Energieüberflusses und technologischer Innovationen. Die Energiesysteme, die diese Verbesserungen ermöglichten, als moralisches Versagen zu bezeichnen bedeutet, die harten Realitäten des vorindustriellen Lebens zu übersehen, in dem Knappheit, Verletzlichkeit und verkürzte Lebenserwartung die Norm waren.

Die Klimarhetorik nimmt häufig theologische Züge an. Kohlenstoff fungiert als Symbol kollektiver Schuld. Die Industrialisierung wird als Sündenfall der Zivilisation dargestellt. Erlösung wird als Opfer dargestellt – weniger Annehmlichkeiten, eingeschränkte Mobilität, geringere Erwartungen. Atmosphärische Ziele werden zu moralischen Absolutheiten erhoben, und extreme Wetterereignisse werden als Strafe für die moderne Lebensweise interpretiert. Die verwendete Sprache geht oft über empirische Beschreibungen hinaus und dringt in den Bereich moralischer Dramatik vor. Diese Darstellung verlagert die Diskussion vom Risikomanagement zur Sühne und von der Abwägung von Kompromissen zur Forderung nach Reue.

Auffällig ist die Konvergenz zwischen radikalem Klimaaktivismus und langjähriger Kritik an Marktwirtschaften. Der industrielle Kapitalismus wird von seinen Kritikern seit langem als ausbeuterisch und moralisch zersetzend angesehen. Die Klimapolitik bietet ein wirkungsvolles Mittel, um diese Kritik unter dem Banner des Überlebens des Planeten voranzutreiben. Vorschläge zum Abbau der Infrastruktur für fossile Brennstoffe innerhalb knapper Zeitrahmen gehen einher mit Forderungen nach einer Neugestaltung von Verkehrssystemen, Wohnformen, Ernährungsgewohnheiten und Finanzstrukturen. Der Umfang reicht weit über das Emissionsmanagement hinaus bis hin zu einer umfassenden gesellschaftlichen Transformation. Zentralisierte Autorität dehnt sich unweigerlich aus, wenn ganze Bereiche des Wirtschaftslebens für eine rasche Umstrukturierung ins Visier genommen werden.

Auch im öffentlichen Diskurs wird die Sicherheit von Vorhersagen überbewertet. Klimamodelle sind komplexe Simulationen, die auf Annahmen hinsichtlich technologischer Entwicklung, Wirtschaftswachstum und Verhaltensänderungen beruhen. Sie liefern Szenarien und keine Garantien. Im Laufe der Zeit wurden die Prognosen revidiert, sobald neue Daten vorlagen und sich die Methoden verbesserten. Schwankungen des arktischen Eises, landwirtschaftliche Erträge und Messungen des Meeresspiegels veranschaulichen den sich wandelnden Charakter der Wissenschaft. Das Eingestehen von Unsicherheit hebt die Besorgnis über Umwelttrends nicht auf, rät jedoch davon ab, politische Entscheidungen als Reaktionen auf unfehlbare Prophezeiungen zu formulieren. Verantwortungsvolle Regierungsführung erfordert Abwägung statt Panik.

[Hervorhebung vom Übersetzer]

Die asymmetrische moralische Einordnung der weltweiten Emissionen verkompliziert die Diskussion zusätzlich. Die westlichen Industrienationen werden dazu gedrängt, den Verbrauch fossiler Brennstoffe rasch einzuschränken, während die Entwicklungsländer ihren Energieverbrauch weiter steigern, um ihren Lebensstandard zu erhöhen. Emissionen aus ressourcenabhängigen Regionen werden als rückschrittlich verurteilt, während im Ausland die energieintensive Fertigung floriert, um die weltweite Nachfrage zu decken. Die Atmosphäre macht keinen Unterschied zwischen den Quellen, die politische Rhetorik tut dies jedoch oft. Diese Inkonsistenz deutet darauf hin, dass kulturelle Narrative über die westliche Industrie und den Wohlstand mit Umweltargumenten verflochten sind.

Die Energiepolitik hat konkrete Auswirkungen auf die Menschen. Hohe Stromkosten belasten berufstätige Familien und Rentner, die von einem festen Einkommen leben. Die Produktion verlagert sich in Gebiete mit niedrigeren Energiepreisen, was die lokale Beschäftigungsbasis untergräbt. Die Netzsicherheit wird auf die Probe gestellt, wenn regelbare Erzeugungskapazitäten vorzeitig stillgelegt werden. Befürworter, die fordern, „es in der Erde zu lassen“, denken selten an die Existenzgrundlagen, die von der Ressourcenerschließung abhängen, oder an die Gemeinden, deren Struktur auf der Energieerzeugung basiert. Umweltziele müssen gegen wirtschaftliche Stabilität und sozialen Zusammenhalt abgewogen werden. Politische Maßnahmen, die dieses Gleichgewicht außer Acht lassen, laufen Gefahr, genau jene Bevölkerungsgruppen zu schädigen, die sie angeblich schützen wollen.

Am besorgniserregendsten ist vielleicht das Schüren von Hoffnungslosigkeit. Den jüngeren Generationen wird suggeriert, dass eine Katastrophe unmittelbar bevorstehe und ihre Zukunft vom ökologischen Niedergang geprägt sei. Angst wird als moralisches Erwachen dargestellt. Pessimismus wird zur intellektuellen Währung. Diese Erzählung steht in scharfem Kontrast zur amerikanischen Tradition, Herausforderungen durch Innovation und Entschlossenheit zu begegnen. Frühere Generationen sahen sich Weltkriegen, wirtschaftlichen Umbrüchen und schwerwiegender Umweltzerstörung gegenüber, reagierten jedoch mit technologischen Durchbrüchen, regulatorischen Reformen und Investitionen in die Infrastruktur, anstatt die Zivilisation abzulehnen. Das Vertrauen in den menschlichen Erfindungsreichtum erwies sich immer wieder als gerechtfertigt.

Eine umsichtige Umweltethik erkennt an, dass Verantwortung und Wohlstand sich nicht gegenseitig ausschließen. Technologische Fortschritte können Emissionen senken, ohne dass dies einen wirtschaftlichen Rückgang erfordern würde. Effizienzsteigerungen, sauberere Verbrennungstechnologien und marktorientierte Innovationen haben bereits erhebliche Fortschritte im Umweltschutz bewirkt. Eine konstruktive Debatte über Zeitpläne, Kosten und Kompromisse ist keine Behinderung, sondern verantwortungsvolle Politikgestaltung. Die tiefer gehende Frage bleibt anthropologischer Natur: Betrachten wir die Menschheit in erster Linie als ein Problem, das es einzudämmen gilt, oder als eine kreative Kraft, die zu Anpassung und Verbesserung fähig ist?

Wenn Umweltschutz zu Narrativen verkommt, welche die Existenz des Menschen als von Natur aus zerstörerisch darstellen, überschreitet er die Grenze zum malthusianischen Wahnsinn. Eine Zivilisation, die Selbstverachtung verinnerlicht, läuft Gefahr, das für die Lösung komplexer Probleme notwendige Selbstvertrauen zu verlieren. Verantwortung sollte aus Dankbarkeit für die menschlichen Fähigkeiten erwachsen, nicht aus Feindseligkeit ihnen gegenüber. Die Herausforderung, die Auswirkungen auf die Umwelt in einer Welt mit Milliarden von Menschen zu bewältigen, erfordert Realismus, Innovation und Ausgewogenheit. Sie erfordert nicht die Übernahme einer Philosophie, die Fortschritt als Sünde betrachtet. Eine gesunde Gesellschaft kann sauberere Technologien anstreben und gleichzeitig die Würde, Kreativität und Widerstandsfähigkeit des Menschen bekräftigen.

This article originally appeared at RealClear Energy

Link: https://www.cfact.org/2026/03/20/these-people-are-crazy-climate-science-and-the-cult-of-self-loathing/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag „Diese Leute sind verrückt“ – Klimawissenschaft und der Kult der Selbstverachtung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

„Die wahren Ursachen der Klimaerwärmung“ – eine Buchbesprechung

30. März 2026 - 20:00

 

„Dieses Buch leugnet den Klimawandel nicht. Es leugnet auch nicht, daß CO2 die Temperatur beeinflußt. Aber es belegt, daß Kohlendioxid weder der wichtigste noch der einzige Treiber der Erdtemperatur ist.“

So schreibt der Autor, Chemietechniker Günther Vogl, im Schlußwort seines neuesten Buches über den Inhalt. Es ist aber trotzdem alles ganz anders, als Medien, Klimaprofs und Aktivisten es uns weismachen wollen.

Auf Seite 7 seines Buchs nennt der Autor ganz trocken die tatsächlichen Gründe für eine gestiegene Temperatur: Ende der Kleinen Eiszeit, Luftreinheit, Albedo, Wolken, Sonne & geomagnetisches Feld und – Kohlendioxid.

Was Institute wie das PIK also als (fast) alleinigen Grund für eine behauptete „Erderhitzung“ benennen, taucht in Vogls Liste nur als EIN Faktor auf.

Ohne größere Kapitel-Einteilung geht das kompakte Buch auf die Details der genannten Gründe für Klimawandel ein und verweist dabei häufig auf offizielle beziehungsweise offiziöse Forschungsquellen. Vogl bezieht in seine Betrachtungen auch populäre Behauptungen wie „alle Gletscher weltweit schmelzen“ – und widerlegt sie anhand von öffentlich zugänglichen Quellen.

Günther Vogl, Chemietechniker, befaßt sich seit 40 Jahren mit dem Thema Klima. Über Jahrzehnte erworbene tiefgreifende Kenntnisse hierzu und profundes Wissen auf naturwissenschaftlicher Basis. Stadtrat und Kreisrat, Veranstalter des großen Halbmarathons Altötting, zudem Sportmanager.

Günther Vogl: Die wahren Ursachen der Klimaerwärmung. Klimawandel: Es ist alles ganz anders

Shaker-Verlag Düren, im November 2025

19,80 €

ISBN 978-3-8191-0352-0

Paperback, 116 Seiten, 56 Abbildungen. 21 x 14,8 cm

Auch als eBook erhältlich

 

Weitere Bücher zum Thema Klima & Corona von Vogl:

Die erfundene Katastrophe: Ohne CO2 in die Öko-Diktatur

Covid-1984: Mit dem Virus in den Orwell-Staat?
Die große Transformation: Corona und Klima – der Weg in die globale Neuordnung

Klimadiktatur: Fakten – Prognosen – Meinungen

Der Beitrag „Die wahren Ursachen der Klimaerwärmung“ – eine Buchbesprechung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Kurzmeldungen aus Klima und Energie – Ausgabe 10 /2026

30. März 2026 - 17:00

Meldung vom 17. März 2026:

El Niño-Vorhersagen erhärten sich

Aktuelle Prognosen deuten darauf hin, dass sich im Laufe dieses Jahres ein El Niño entwickeln wird.

Die Modelle zeigen einen Trend zu höheren Temperaturen im zentralen und östlichen Pazifik, was darauf hindeutet, dass das Phänomen moderate Stärke erreichen könnte, sollten sich die aktuellen Prognosen bestätigen. Einige Ausreißer-Modelle – auf die sich die optimistischsten Kommentatoren stürzen – simulieren ein starkes El-Niño-Ereignis.

Das Klimasystem enthält nach dem Ausbruch des Hunga Tonga im Jahr 2022, durch den Rekordmengen an Feuchtigkeit in die Stratosphäre gelangten, immer noch einen Überschuss an Wasserdampf. Auch der El Niño von 2023 hinterließ im Pazifikbecken beträchtliche Restwärme aus dem Ozean.

Sollten sich die Vorhersagen bestätigen, würde der sich entwickelnde El Niño dazu beitragen, die erhöhten globalen Temperaturen bis weit ins Jahr 2026 hinein aufrechtzuerhalten, und damit wahrscheinlich die kühlenden Einflüsse durch das fortschreitende Abklingen des Sonnenzyklus 25 und das allmähliche Nachlassen der Nachwirkungen von Hunga Tonga ausgleichen.

Wie immer bei ENSO-Prognosen bleibt die Unsicherheit über einen Zeitraum von mehr als einigen Monaten hinweg hoch.

Mal sehen, was passiert.

Link: https://electroverse.substack.com/p/rare-march-cold-hits-the-philippines?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Meldung vom 18. März 2026:

Die Erde befindet sich heute in einem Eiszeitklima

Die Erde befindet sich derzeit in einem Eiszeit-Klima!

Die aktuelle quartäre Vereisung begann vor etwa 2,58 Millionen Jahren und hat bis heute nicht aufgehört.

Auf Grönland und in der Antarktis gibt es nach wie vor riesige Eisschilde, in den hohen Gebirgszügen bestehen Gletscher fort, und in hohen Breitengraden dominieren weiterhin saisonaler Schnee und Meereis.

Geologisch gesehen macht das unseren heutigen Planeten ungewöhnlich kalt.

Während des größten Teils der letzten 500 Millionen Jahre war es auf der Erde in der Regel um 10 °C oder mehr wärmer als heute. In diesen langen Treibhausphasen gab es keine permanenten Polkappen. Wälder und komplexe Ökosysteme reichten weit bis zu den Polen, und die Artenvielfalt blühte.

Vor diesem Hintergrund stützen sich die heutigen Behauptungen von „den heißesten Jahren aller Zeiten“ auf einen extrem engen Datenrahmen – etwa 175 Jahre instrumenteller Messungen.

Selbst innerhalb des späten Känozoikums, der letzten 34 Millionen Jahre, in denen globale Abkühlung zur Bildung großer Eisschilde führte, ist die Erwärmung um etwa 1,4 °C seit dem späten 19. Jahrhundert eine winzige Schwankung.

Aus der Perspektive der geologischen Zeit betrachtet, gleicht das heutige Klima nicht dem eines Planeten in der Krise.

Es sieht viel eher aus wie ein kurzer Wärmeimpuls in einem lang andauernden Eishaus.

Link: https://electroverse.substack.com/p/great-lakes-blizzard-rare-southern?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Meldungen vom 20. März 2026:

Meereis in der Bering-See nimmt rasant zu

Die im Norden eingeschlossene Kälte bleibt nicht untätig. Sie speist sich aktiv in das System ein. Ein deutliches Anzeichen dafür ist derzeit im Beringmeer zu beobachten.

Die Eisausdehnung im östlichen Beringmeer befindet sich auf einem 15-Jahres-Hoch, wobei das Packeis unter anhaltendem Nordwind weiter nach Süden vordringt. Dies geschieht nur, wenn sich über Alaska und Westkanada eine starke, nachhaltige Kältequelle befindet.

Kaltluft strömt weiterhin aus der Arktis nach Süden, wodurch sich das Meereis ausdehnen kann. Winde treiben einen Teil dieses Eises in wärmere Gewässer, wo es schmilzt. Doch der stetige Zustrom kalter Luft ist nach wie vor stark genug, um diese Verluste auszugleichen.

An Land, im gesamten Kuskokwim-Delta, sorgen böige Nordwinde für gefühlte Temperaturen bis etwa -43 °C. Treibender Schnee verringert die Sichtweite in exponierten Gebieten auf eine halbe Meile oder weniger, wobei die schlechtesten Bedingungen in der Nähe von Platinum und zwischen Kipnuk und Toksook Bay herrschen. Selbst wenn der Wind nachlässt, wird erwartet, dass die gefühlte Temperatur von -29 °C bis -34 °C bis ins Wochenende hinein anhält.

Ein intensives Kaltluftgebiet beherrscht nach wie vor die Arktis und die Subarktis – das gleiche Reservoir, das mit dem noch intakten Polarwirbel verbunden ist.

——————————

Eiskernbohrungen widerlegen das CO₂-Dogma

Neue Eisbohrkern-Analysen aus Allan Hills in der Antarktis erweitern die Aufzeichnungen über Treibhausgase in der Atmosphäre bis auf etwa 3 Millionen Jahre zurück.

Während dieses Zeitraums blieb der CO₂-Gehalt nahe 250 ppm (±10 ppm), wobei Methan keinen nennenswerten langfristigen Trend aufwies. Im gleichen Zeitraum durchlief das Klimasystem jedoch einen tiefgreifenden Wandel: Die globalen Temperaturen sanken, es bildeten sich große Eisschilde auf der Nordhalbkugel, und der Meeresspiegel sank, während die Erde in eine vollständige Eiszeit überging.

Eine separate Rekonstruktion der Meerestemperaturen unter Verwendung von gelöstem Xenon und Krypton zeigt, dass die Abkühlung vor etwa 2,7 Millionen Jahren begann und mit dem Einsetzen einer großflächigen Vereisung zusammenfiel. Dies deutet darauf hin, dass die Abkühlung der Ozeane und das Wachstum der Eismassen ohne vergleichbare Veränderungen des atmosphärischen CO₂-Gehalts stattfanden.

Das gleiche Muster zeigt sich während des Übergangs zum mittleren Pleistozän (vor 1,2–0,8 Millionen Jahren), als sich die Glazialzyklen verstärkten und die Eisschilde weiter wuchsen, die CO₂-Werte jedoch erneut weitgehend stabil blieben.

Der häufig zitierte Zusammenhang zwischen CO₂ und Temperatur stammt aus dem späten Pleistozän, wo sich beide Größen während der Glazialzyklen parallel entwickeln. Eiskernaufzeichnungen zeigen jedoch, dass sich die Temperatur in der Regel zuerst ändert, während der CO₂-Gehalt später als Rückkopplungseffekt folgt.

Insgesamt zeigen die Aufzeichnungen, dass großräumige Klimaveränderungen, einschließlich des Einsetzens und der Verschärfung der Eiszeitbedingungen, ohne nennenswerte Schwankungen des CO₂-Gehalts stattfanden. Daraus ergeben sich zwei Möglichkeiten: Entweder reagiert das Klimasystem äußerst empfindlich auf sehr geringe CO₂-Veränderungen (im Bereich von wenigen ppm), oder andere Prozesse – wie Ozeanzirkulation, Wärmeumverteilung und Sonnenaktivität – spielen eine dominierende Rolle.

Die Erde kühlte sich zu einer Eiszeit ab, während sich der CO₂-Gehalt kaum veränderte.

Link: https://electroverse.substack.com/p/winter-returns-to-the-carpathians?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Eine Meldung vom 28. März 2026:

Klimawandel und Feuchtgebiete in Afrika

Welche Auswirkungen der Klimawandel gegebenenfalls auf die Feuchtgebiete weltweit haben wird – Nettozuwachs, Nettoverlust oder keine Veränderung – ist unklar. Soweit sich ein moderater Anstieg der globalen Durchschnittstemperaturen auf Feuchtgebiete auswirkt, dürfte dies je nach Region, Standort und anderen damit verbundenen Einflussfaktoren wie menschlicher Entwicklung oder der Entwicklung von Ökosystemen unterschiedlich ausfallen.

Eine aktuelle Studie in der Fachzeitschrift Nature Communications untersucht die Veränderungen in Feuchtgebieten in ganz Afrika – einem bislang wenig erforschten Bereich – im Zuge des fortschreitenden Klimawandels. Die Forscher kartierten Feuchtgebiete auf dem gesamten afrikanischen Kontinent umfassend, um Trends zu bewerten, und nutzten dabei „270.000 Messpunkte, 810.000 Landsat-Bilder und Bodenfeuchtedaten aus 14 CMIP6-Modellen“.

Die Wissenschaftler kommen zu dem Schluss, dass es „von 1984 bis 2021 keinen großflächigen Verlust an Feuchtgebieten in Afrika gab“. Trotz des umfangreichen Datensatzes bleibt eine gewisse Unsicherheit darüber bestehen, wie sich der fortschreitende Klimawandel in Zukunft auf Afrikas Feuchtgebiete auswirken könnte.

Insgesamt gab es einen moderaten Nettoverlust an Feuchtgebieten von etwa einem halben Prozent, der fast ausschließlich auf einen Rückgang der Küstenfeuchtgebiete zurückzuführen ist. Diese Verluste sind jedoch das Ergebnis wirtschaftlicher Entwicklung und nicht des Klimawandels. In ganz Afrika gab es eine Zunahme der Binnenfeuchtgebiete um etwa 0,50 Prozent.

„Ein Vergleich der Zeitreihen zur Fläche der Feuchtgebiete und der damit verbundenen Einflussfaktoren zeigte, dass die Veränderung der Fläche der Binnenfeuchtgebiete in engem Zusammenhang mit dem Klimawandel steht und dass menschliche Aktivitäten den Verlust von Küstenfeuchtgebieten verschärft haben“, heißt es in der Zusammenfassung.

Sollte diese Forschungsergebnis zutreffen, hat der Klimawandel kaum oder gar keine negativen Auswirkungen auf Feuchtgebiete in ganz Afrika gehabt und könnte ihnen sogar zugutekommen, weil die moderate Ausdehnung der Binnenfeuchtgebiete aufgrund erhöhter CO₂-Konzentrationen und besserer Feuchtigkeitsbedingungen den Verlust von Küstenfeuchtgebieten durch Bebauung ausgleicht.

Quelle: Nature Communications

Link: https://heartland.org/opinion/climate-change-weekly-575-attribution-studies-are-built-on-flawed-logic-poor-assumptions/, dritte Meldung

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Der Beitrag Kurzmeldungen aus Klima und Energie – Ausgabe 10 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Woher kommt der Strom? zwei Tage Windflaute

30. März 2026 - 14:00
11. Analysewoche 2026 von Rüdiger Stobbe

Die aktuelle Analysewoche beginnt an den ersten beiden Tagen mit einer Windflaute. Mit einer zweitägigen Windflaute wird die Woche auch beendet. An den drei Tagen dazwischen baut sich ein Windbuckel auf- und ab. Zusammen mit dem PV-Strom und den restlichen Erneuerbaren plus der aus Gründen der Netzstabilisierung immer notwendigen fossilen Stromerzeugung wird der Bedarf erheblich übertroffen. Das führt zum Strom-Preisverfall teilweise mit Negativpreisen. Am Mittwoch kommt es trotz des ausgewiesen fehlenden Stroms zum Vorabend bemerkenswerterweise NICHT zu Stromimporten. Der Strompreis steigt allerdings wie fast immer zu dieser nachfragestarken Zeit. Am Donnerstag ist dagegen wieder alles „normal“. Der fehlende Strom am Vormittag und Vorabend wird aus dem Ausland importiert. Der Strompreis steigt. Am Freitag fehlt am Morgen kein Strom. Am Vorabend aber sind Stromimporte notwendig, was denn auch zu Wochenhöchstpreisen führt.

Montag und Dienstag sind sehr windschwach. Die PV-Stromerzeugung ist dagegen stark. Der Frühling lässt grüßen. Abgesehen von den Mittagsspitzen muss Strom importiert werden, um die Strom-Versorgung Deutschlands sicherzustellen. Samstag und Sonntag herrscht wieder Windflaute. Diesmal aber ist die PV-Stromerzeugung bei weitem nicht so stark wie zum Wochenbeginn. Praktisch die gesamte Zeit sind Stromimporte notwendig. Das Strompreisniveau bleibt hoch. Die 0€/MWh-Linie wird – wie an den ersten beiden Tagen der Woche – nicht erreicht.

Einen Überblick über die wichtigsten Aspekte der 11. Analysewoche 2026 gibt Agora-Energiewende. 

Agora Energiewende erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. leider lagen die Daten noch nicht vor, als dieser Bericht erstellt wurde.

Nachdem Bundeskanzler Merz und auch EU-Kommissionspräsidentin den Ausstieg aus der Stromerzeugung mittels Kernenergie als strategischen Fehler bezeichnet hatten, kam es im Bundestag am 19.3.2026 zu einer Debatte über den Kernkraftausstieg und Aktuellen Stunde über den EU-Kernenergiegipfel in Paris. Beides sind Dokumentationen der Zeitgeschichte im Ringen um Mittel und Wege hin zu einer sicheren Energieversorgung. 

Mein wiederkehrender Appell an die Verantwortlichen von „Unsererdemokratie“ und die „Freunde der Energiewende“: Stoppen Sie die Energiewende. Streichen Sie die CO2-Steuern und bauen Sie wieder eine kostengünstige, verlässliche Energieversorgung mit Kernenergie auf, bevor es zu spät ist. Ein guter, weil wichtiger Schritt in die richtige Richtung ist die geplante Änderung des alten Habeck-Heizungsgesetzes in das Gebäudemodernisierungsgesetz. Ein weiterer guter Ansatz ist das sogenannte Netzpaket. Weiter so: Hören Sie auf, einer Schimäre nachzujagen. Die Energiewende ist zum Scheitern verurteilt.

Was ist Kraftwerks-Leistung? Was ist Energie?

Gigawatt (GW) ist eine Einheit für Leistung, also für die maximale Fähigkeit eines Kraftwerks, Strom zu erzeugen. Gigawattstunden (GWh, TWh) sind eine Einheit für Energie, also für die tatsächlich produzierte Strommenge über eine bestimmte Zeit. Die Beziehung ist einfach: Energie = Leistung × Zeit. Ein Kraftwerk mit 1 GW Leistung erzeugt bei Volllast theoretisch maximal: 1 GW × 8.760 h = 8,76 TWh pro Jahr. Wie viel elektrische Energie tatsächlich entsteht, bestimmt beim Kohle-, Gas- oder Kernkraftwerk im weitesten Sinn der Mensch über die Brennstoffzufuhr und Zufuhrdauer. Die Energie für eine Stunde wird üblicher- und für den Normalbetrachter irreführenderweise mit GW bezeichnet. Die manchmal verwendete Schreibweise „GWh pro Stunde“ ist nur eine umständliche Form von GW – mathematisch kürzt sich die Stunde („h“ und „pro Stunde“) weg.

Sonderfall Wind- und Solarkraft

Bei Wind- und Solarkraft bestimmt nicht der Betreiber, sondern das Wetter die Strom-Produktion. Eine 5-MW-Windkraftanlage könnte theoretisch 43,8 GWh/Jahr erzeugen, liefert an Land aber realistisch in Deutschland nur etwa 20 Prozent davon (auf See 40 bis 50 Prozent), also rund 8,8 GWh/Jahr – im Mittel 1 MW-Dauerenergie. Bei Solarpaneelen mit ebenfalls 5 MW installierter Leistung halbieren sich die Werte nochmals wegen verschiedener Kapazitätsfaktoren: Nacht, Winter, flacher Sonnenstand, Bewölkung und Temperaturverluste.

Tageswerte

Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potenzial.

Kaum Windstrom .  Die PV-Stromerzeugung ist stark. Die Strompreise.

Wind-Stromerzeugung schwach plus frühlingshafter PV-Stromerzeugung. Die Strompreise. 

Wind-Stromerzeugung zieht an. Aufbau eines Windbuckels. Strompreise.

Windbuckel  Höhepunkt. Die Strompreise.

Windbuckel wird abgebaut. Die Strompreise.

Jetzt wieder fast komplette Windflaute. Und weniger starke PV-Stromerzeugung als zu Wochenbeginn. Die Strompreise 

Windstrom weiter gering. Aber: Zum Abend starker Anstieg! PV-Strom nicht sonderlich stark. Die Strompreise.

Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Ab Ausgabe 1/2026 bilden die öffentlichen Analyseseiten smard.deAgora Energiewende und Energy-Charts die Datengrundlage dieser Kolumne. Stromdaten.info läuft aus. 

Der Beitrag Woher kommt der Strom? zwei Tage Windflaute erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Klima – Realität und Medien-Berichtersattung

30. März 2026 - 11:00

Cap Allon

Vorbemerkung des Übersetzers: In diesem Doppel-Beitrag geht es zunächst darum, wie ein aktueller Vorgang in Australien Medien und Propaganda Lügen straft. Danach wird der Effekt dieses beispielhaften Ereignisses auf ebendiese Berichterstattung beleuchtet. – Ende Vorbemerkung.

Australiens Rekordernte als „Klimaschock“ bezeichnet

Westaustralien hat gerade eine Rekord-Getreideernte von rund 27 Millionen Tonnen eingefahren und damit die 2022 aufgestellte Marke von 25,4 Millionen Tonnen übertroffen. Die landesweite Ernte nähert sich 62,8 Millionen Tonnen, wobei im Norden von New South Wales und in Queensland besonders hohe Erträge erzielt worden sind.

Anhaltende Feuchtigkeit und starke Sonneneinstrahlung führten dazu, dass die Böden Wasser speicherten und die Pflanzen gleichmäßig mit Licht versorgt wurden.

Landwirte im Norden von New South Wales melden Weizenerträge bis 7 Tonnen pro Hektar.

Doch nun werden genau jene Bedingungen, die zu den Rekorderträgen führten, als „Klimaschock“ bezeichnet, wobei Schwankungen zwischen Wärme und Starkregen als Beweis dafür angeführt werden, dass vom Menschen verursachte Störungen die traditionellen Wettermuster außer Kraft setzen.

Unterdessen wächst der Druck aus anderen Bereichen. Kraftstoffkosten, Düngemittelpreise und Energieengpässe schmälern die Gewinnspannen und werden die künftige Ernteerträge wahrscheinlich stärker beeinflussen als das Klima.

Solche realitätsfernen Schreckensszenarien kursieren schon seit Jahrzehnten.

Im Jahr 1972 warnten hochrangige UN-Vertreter, die Welt habe noch etwa zehn Jahre Zeit, um eine Katastrophe abzuwenden – einen Zusammenbruch, der durch Überbevölkerung, Ressourcenknappheit und Umweltzerstörung ausgelöst werden würde.

Mehr als fünfzig Jahre später ist das Gegenteil eingetreten.

Die Weltbevölkerung hat sich mehr als verdoppelt. Die Nahrungsmittelproduktion hat sich fast verdreifacht. Die extreme Armut ist von fast der Hälfte der Weltbevölkerung unter 10 % gesunken. Und die Menschen leben Jahrzehnte länger.

Die Erträge sind in den letzten Jahren weiter gestiegen, unterstützt durch genau den Faktor, der als existenzielle Bedrohung dargestellt wurde – nämlich einen höheren CO2-Gehalt in der Atmosphäre, der unter vielen Bedingungen das Pflanzenwachstum verbessert.

Die Institutionen und Medien, die diese Warnungen verbreitet haben, lagen völlig falsch.

Nun ändert sich die Botschaft…

——————————-

Klima-Berichterstattung auf dem Rückzug

Die Berichterstattung über den „Klimawandel“ in US-Zeitungen hat ihren Höhepunkt überschritten und ist jetzt rückläufig.

Nach einem langen Anstieg in den 2010er Jahren stieg die Anzahl der Artikel bis in die frühen 2020er Jahre sprunghaft, bevor sich der Trend umkehrte. Der 12-Monats-Durchschnitt sinkt. In Zeitungen wie der New York Times, der Washington Post und der Los Angeles Times werden weniger Artikel zu diesem Thema veröffentlicht.

Seit Jahren wird die Öffentlichkeit von einem „Kipppunkt“ zum nächsten und durch unzählige „Punkte ohne Wiederkehr“ gezerrt. Sie kommen. Sie vergehen. Nichts endet. Die Zeitachse verschiebt sich nach vorne, und immer wieder werden die gleichen Behauptungen mit neuen Daten recycelt.

Gleichzeitig steigen die Kosten. Energie wird teurer. Die Politik greift immer stärker ein. Der Lebensstandard hat einen schweren Schlag erlitten – alles gerechtfertigt durch einen Notstand, der niemals eintritt.

Diese Diskrepanz wächst.

Nun hat das Publikum genug davon.

Die „Klimakrise“ wurde bis zur Sättigung propagiert. Ständige Wiederholung. Ständige Präsenz. Nur so konnte man daran glauben. Niemand hätte eine Veränderung des Klimas bemerkt, geschweige denn eine katastrophale, wenn sie nicht endlos eingehämmert worden wäre.

[Hervorhebung vom Übersetzer]

Jetzt sind die einzigen, die noch die Trommel rühren, die eingefleischten Aktivisten. Deshalb sind die Lehren der CAGW in den Schulen nach wie vor vorherrschend – dem zuverlässigsten Echoraum für „aktuelle Themen“. Lehrer predigen das Wort der Lehrbücher und des Lehrplans, die beide hinterherhinken.

Ein typisches Beispiel: In britischen Prüfungen wird von den Schülern nach wie vor erwartet, dass sie CO₂ als Schadstoff bezeichnen, und sie erhalten Punktabzüge, wenn sie dies nicht tun.

Link: https://electroverse.substack.com/p/fairbanks-near-record-for-latest?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klima – Realität und Medien-Berichtersattung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Liegt die Gleichgültigkeit gegenüber dem Klimawandel an der Dummheit der Öffentlichkeit?

30. März 2026 - 8:00

Robert Bradley Jr., MasterResource

„Menschen sind nicht rational … Wie können wir also Fehlinformationen bekämpfen, wenn es nicht mehr ausreicht, einfach nur die Fakten zu präsentieren – und dies sogar nach hinten losgehen kann?“ – Nate Hagens (unten)

Die Klimakommunikation befindet sich im Umbruch. „Vielleicht ist das Problem nicht die Leugnung des Klimawandels“, bemerkte Gilad Regev:

Vielleicht ist es die Klimakommunikation. Wir haben versucht, den Menschen Angst einzujagen oder ihnen ein schlechtes Gewissen einzureden, damit sie sich dafür interessieren, und das ist nicht wirksam. Ist es an der Zeit, die Art und Weise, wie wir über Klima und Nachhaltigkeit sprechen, komplett zu überdenken? Wir haben Jahre damit verbracht, Menschen durch Angst, Daten und moralische Dringlichkeit zu beeinflussen. Die Ergebnisse? Gemischt.

Joe Romm wies Regev in einem Kommentar zurück und beklagte eine riesige, gut finanzierte öffentliche Desinformationskampagne der großen Ölkonzerne. (Wenn nur ein Teil dieses riesigen Geldes wirklich an Thinktanks wie IER, CEI oder Heartland [oder auch an das EIKE; A. d. Übers.] fließen würde ….)

Eine andere Sichtweise

Hier kommt Nate Hagens, Direktor des Instituts für Energieforschung und Zukunftsstudien (ISEOF). Es folgt sein Artikel [Titel übersetzt] „Warum Wissenschaftskommunikation scheitert: Wie man irreführende Argumente entlarvt und sich gegen Fehlinformationen wappnet“ aus „The Great Simplification“ (27. Februar 2026).

Menschen sind nicht rational. Wir bewerten Fakten nicht objektiv, sondern interpretieren sie durch unsere Vorurteile, Erfahrungen und unseren Hintergrund. Darüber hinaus sind wir psychologisch dazu geneigt, Informationen abzulehnen oder zu verzerren, die unsere Identität oder Weltanschauung bedrohen – selbst wenn sie wissenschaftlich fundiert sind. Hinzu kommt unsere moderne Medienlandschaft, in der jeder eine andere Quelle der „Wahrheit“ für weltpolitische Ereignisse hat, so dass unsere Fähigkeit zu verstehen, was tatsächlich wahr ist, schwächer ist als je zuvor. Wie können wir also Fehlinformationen bekämpfen, wenn die bloße Darstellung der Fakten nicht mehr ausreicht – und sogar nach hinten losgehen kann?

In dieser Folge ist John Cook zu Gast bei Nate, ein Forscher, der sich seit fast zwei Jahrzehnten mit Wissenschaftskommunikation und der Psychologie von Falschinformationen beschäftigt. John berichtet von seinem Werdegang, angefangen bei der Gründung der Bildungswebsite „Skeptical Science“ im Jahr 2007 bis hin zu seiner schockierenden Erkenntnis, dass seine gut gemeinten Bemühungen, Falschinformationen zu entlarven, möglicherweise kontraproduktiv waren. Er erörtert außerdem das „FLICC“-Modell – eine Reihe von fünf Strategien (falsche Experten, logische Fehlschlüsse, unrealistische Erwartungen, selektive Auswahl und Verschwörungstheorien), die sich durch alle Formen von Fehlinformationen ziehen, von der Leugnung der globalen Erwärmung bis hin zur Impfskepsis und darüber hinaus. Darüber hinaus enthüllt Johns Forschung eine kontraintuitive Wahrheit: Unsere Stammesidentitäten spielen bei der Entscheidung, welche wissenschaftlichen Erkenntnisse wir akzeptieren, eine größere Rolle als unsere politischen Überzeugungen – doch unsere Abneigung, getäuscht zu werden, ist über Parteigrenzen hinweg gleich.

Und weiter:

Wenn es darum geht, ein gemeinsames Verständnis der Welt zu erreichen, warum ist dann jedes Gespräch von Bedeutung – ganz gleich, ob es zu einer Einigung führt oder nicht? Wenn sich Angriffe auf die Wissenschaft von der Leugnung von Erkenntnissen hin zu Angriffen auf Lösungen und Wissenschaftler selbst verlagert haben, kämpfen wir dann mit veralteten Kommunikationsstrategien den Kampf von gestern? Und obwohl wir motiviertes Denken (für das wir alle anfällig sind) nicht beseitigen können, wie können wir es umgehen, indem wir den Menschen beibringen zu erkennen, wie sie in die Irre geführt werden, anstatt ihnen einfach zu sagen, was sie glauben sollen?

Tut mir leid, aber es geht um den Nullpunkt: die nachgewiesenen Vorteile von CO₂ gegenüber den Spekulationen nicht überprüfbarer, kausalitätsarmer Klimamodelle. Und die Tatsache der positiven Erwärmung in bestimmten Monaten des Jahres im Vergleich zum Sommerhoch. Und so weiter. Lasst die Debatte und die Kommunikation weitergehen.

Link: https://wattsupwiththat.com/2026/03/23/is-public-stupidity-behind-climate-change-apathy/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Liegt die Gleichgültigkeit gegenüber dem Klimawandel an der Dummheit der Öffentlichkeit? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die Krise in der Straße von Hormus zeigt, dass die Welt immer noch auf fossilen Brennstoffen basiert.

29. März 2026 - 20:00

WUWT, Gastautor, Aus Tilaks Substack,

Die Straße von Hormus ist an ihrer schmalsten Stelle kaum 34 Kilometer breit. Doch dieser schmale Seeweg birgt eines der größten wirtschaftlichen Risiken der Welt. Wenn die Spannungen im Persischen Golf eskalieren, sind die Auswirkungen weit über den Nahen Osten hinaus spürbar. Sie sind in Mumbai, Tokio, Seoul, Bangkok und Manila zu spüren – und letztendlich in der gesamten Weltwirtschaft.

Der Grund ist einfach. Rund ein Fünftel des weltweiten Ölverbrauchs und ein ähnlicher Anteil des globalen LNG-Handels passieren die Straße von Hormuz, was sie zum kritischsten maritimen Energie-Engpass der Erde macht.

Marine traffic in the Straight of Hormuz since the Iran war began
byu/Gjore inwoahdude

Quelle dieses größer gezeigten Videos:  https://www.reddit.com/r/woahdude/comments/1rmkrj1/marine_traffic_in_the_straight_of_hormuz_since/?tl=de

Erklärung zum aktiven Video auf https://www.instagram.com/reel/DVgD59KiL7L/

Dieses aktuelle Satellitenvideo zeigt den intensiven Schiffsverkehr in der Straße von Hormus, einer der wichtigsten Handelsrouten der Erde.

Die farbigen Punkte im Bild stellen reale Schiffe dar, die über globale maritime Tracking-Systeme und Satelliten erfasst werden. Sie zeigen Tanker, Frachtschiffe und andere Schiffe, die sich durch diese extrem wichtige Wasserstraße bewegen.

Die Straße von Hormus verbindet den Persischer Golf mit dem Golf von Oman und ist ein zentraler Korridor für den weltweiten Energiehandel.

Jeden Tag passieren hier etwa 20 Millionen Barrel Öl diese relativ schmale Passage. Dadurch wird ein großer Teil der globalen Energieversorgung durch

[Dieses Video wird auf unzähligen Medien verbreitet.  Einzelnes copyright habe ich nicht gefunden. Bitte melden, wer etwas weiß. – danke, Demmig]

Die Folgen dieser Verwundbarkeit zeigen sich nun in Echtzeit. Da Konflikte und Störungen den Schiffsverkehr durch den Golf bedrohen, bemühen sich asiatische Regierungen fieberhaft darum, Treibstoff zu sparen, strategische Reserven freizugeben und alternative Lieferungen zu sichern.

Das Spektakel ist eine eindringliche Erinnerung an eine unbequeme Wahrheit. Trotz jahrzehntelanger politischer Rhetorik über eine bevorstehende Energiewende hin zu „Netto-Null bis 2050“ ist die moderne Weltwirtschaft weiterhin stark von Öl und Gas abhängig. Ein Großteil dieser Lieferungen fließt nach wie vor durch eine einzige schmale Meerenge zwischen Iran und Oman.

Täglich passieren rund 20 Millionen Barrel Öl die Straße von Hormus, was etwa einem Fünftel des weltweiten Verbrauchs an flüssigen Erdölprodukten entspricht. Etwa ein Drittel des globalen Seehandels mit Öl verläuft ebenfalls über diese Meerenge, was sie zum wichtigsten Öltransportknotenpunkt der Welt macht. Auch Flüssigerdgas (LNG) wird hier transportiert, wobei Katar nach den USA der zweitgrößte LNG-Exporteur der Welt ist. Rund 20 % des weltweiten LNG-Handels , hauptsächlich aus Katar, müssen Hormus passieren, bevor sie die energiehungrigen Märkte in Asien erreichen.

Der Schock vom 28. Februar

Nur wenige Stunden nach den koordinierten Angriffen der USA und Israels auf iranische Ziele am 28. Februar waren die Auswirkungen im gesamten Energiesystem spürbar. Der Tankerverkehr durch die Straße von Hormus brach dramatisch ein und ging unmittelbar danach um mehr als 90 % zurück. Die Schließung wurde zunächst nicht durch die Bedrohung iranischer Minen oder Raketenbatterien ausgelöst. Der unmittelbare Grund war vielmehr profaner: Große Versicherer wie Lloyd’s entzogen den Tankern den Versicherungsschutz für den Verkehr durch die Straße von Hormus . Ohne Versicherungsschutz konnten die Tanker schlichtweg nicht auslaufen.

Kurz darauf folgten iranische Drohungen, in denen erklärt wurde, Schiffe mit Verbindungen zu amerikanischen oder israelischen Interessen könnten nach Belieben angegriffen werden. Die drohende Eskalation verschärfte die ohnehin angespannte geopolitische Lage und führte zu einer ausgewachsenen Energiekrise. Der iranische Militärsprecher Ebrahim Zolfaqari erklärte :

Wir werden nicht einen einzigen Liter Öl in die USA, zu den Zionisten und ihren Partnern gelangen lassen. Jedes Schiff oder jeder Tanker, der an sie adressiert ist, wird ein legitimes Ziel sein. … Macht euch darauf gefasst, dass der Ölpreis bei 200 Dollar pro Barrel liegen wird, denn er hängt von der regionalen Sicherheit ab, die ihr destabilisiert habt.

  • Laut ersten Einschätzungen der Internationalen Energieagentur stellt die Unterbrechung „eine der größten plötzlichen Unterbrechungen der Öl- und Gaslieferungen in der modernen Geschichte“ dar.
  • Der Economist  titelte seinen Hauptartikel in der Ausgabe vom 14. März: „Was auch immer in der Straße von Hormus geschieht, die Energiemärkte haben sich für immer verändert.“

Die Ölmärkte reagierten umgehend. Der Preis für Brent-Rohöl stieg innerhalb weniger Tage nach den Angriffen auf über 100 US-Dollar pro Barrel. Analysten warnten,  dass  die Preise 150 US-Dollar pro Barrel oder sogar mehr erreichen könnten, sollte die Straße auch nur einige Wochen lang geschlossen bleiben – ein Niveau, das historisch mit globalen Rezessionen in Verbindung gebracht wird.

Gordon Hughes, ehemaliger Professor für Politische Ökonomie an der Universität Edinburgh,  bedauert  die in den Mainstream-Medien ausgebrochene Ölpreishysterie. Journalisten mit wenig historischem Bezug reagieren übertrieben, sobald der Spotpreis für Brent-Rohöl 100 US-Dollar pro Barrel erreicht oder überschritten hat. In seiner profunden Analyse der historischen Brent-Rohölpreise stellt Dr. Hughes fest, dass der monatliche Durchschnittspreis (in konstanten US-Dollar von 2025) in den Jahren 2005 bis 2014 sowie 2018 und 2022 mindestens einmal jährlich die Marke von 100 US-Dollar (in Preisen von 2025) überschritten hat. Tatsächlich lag der durchschnittliche Monatspreis über den gesamten Zeitraum von 2005 bis 2025 bei 101 US-Dollar (in Preisen von 2025).

Um das Ausmaß der Krise zu verstehen, muss man die Geografie des Energiehandels betrachten. Der Persische Golf beherbergt einige der weltweit größten und günstigsten Öl- und Gasreserven. Gleichzeitig liegen die am schnellsten wachsenden Energieverbraucher östlich von Suez, vom Arabischen Meer über den Indischen Ozean bis ins Südchinesische Meer und den Pazifik. Dadurch entsteht eine riesige Kohlenwasserstoffader, die den Golf mit den Industriezentren Asiens verbindet.

https://www.instagram.com/reel/DVgD59KiL7L/?utm_source=ig_web_copy_link

Die nachstehenden Tabellen zeigen das Ausmaß der starken Abhängigkeit Asiens von Öl- und Gasimporten über die Straße von Hormuz.

 

 

 

 

 

 

 

 

 

Anteil der Ölimporte (links) und der Anteil der Erdgasimporte (LNG) (rechts) die die Straße von Hormuz passieren (geschätzt). Quelle: verschiedene nationale und internationale Energiedatenquellen, zusammengetragen von ChatGPT.

Die Internationale Energieagentur schätzt  , dass rund 90 % des durch die Straße von Hormus exportierten Öls für asiatische Märkte bestimmt sind. Japan, Südkorea, Taiwan, China und Indien sind stark von Energielieferungen aus der Golfregion abhängig.  Allein Japan  bezieht etwa 90 % seiner Rohölimporte aus dem Nahen Osten und ist damit besonders anfällig für Versorgungsengpässe in der Region.  Südkoreas Abhängigkeit von 70 %  ist beinahe ebenso auffällig. Auch China und Indien, die größten Energieverbraucher Asiens, sind – obwohl sie etwas diversifizierter sind als andere wichtige asiatische Volkswirtschaften – stark von Öl- und Gasimporten aus der Golfregion abhängig. Kurz gesagt: Der Wohlstand der asiatischen Industrienationen bleibt eng mit den Energieflüssen durch die Straße von Hormus verknüpft.

Die faktische Schließung der Straße von Hormus hat  zwei alternative Rohölpipelines  – eine in Saudi-Arabien und eine in den Vereinigten Arabischen Emiraten – abrupt in den Fokus der Weltöffentlichkeit gerückt. Die erste ist Saudi-Arabiens Ost-West-Pipeline-Netzwerk mit einer geplanten Kapazität von sieben Millionen Barrel pro Tag, das Abqaiq an der östlichen Golfküste des Königreichs mit dem Hafen von Yanbu am Roten Meer verbindet. Die zweite, kleinere Pipeline ist die Abu Dhabi Crude Oil Pipeline der VAE nach Fujairah mit einer  geschätzten  Kapazität von 1,5 Millionen Barrel pro Tag. Energieanalysten zufolge könnten die beiden Pipelines zusammen dazu beitragen, die fast 20 Millionen Barrel pro Tag, die normalerweise durch die Straße von Hormus transportiert werden, teilweise zu kompensieren. Die Gefahr von Infrastrukturangriffen durch den Iran inmitten der sich ausweitenden Nahostkrise bleibt jedoch eine anhaltende Herausforderung.

Energiekrisen legen Prioritäten schonungslos offen. Bei Preissprüngen oder Versorgungsengpässen greifen Regierungen nicht auf Windkraftanlagen oder Solaranlagen zurück, sondern auf eingelagerte Kohlenwasserstoffe. In ganz Asien haben Regierungen bereits begonnen,  Energiesparmaßnahmen  zur Senkung des Energiebedarfs umzusetzen.

Thailand hat beispielsweise kürzlich seine Beamten angewiesen, nach Möglichkeit von zu Hause aus zu arbeiten, Reisen einzuschränken und die Klimaanlagentemperaturen in Regierungsgebäuden im Rahmen einer Notfall-Energiesparkampagne auf mindestens 26–27°C einzustellen.

Indonesien  hat versucht, seine Rohölkäufe aus den USA zu erhöhen, um mögliche Lieferengpässe aus dem Nahen Osten auszugleichen.  Bangladesch , das stark von LNG-Importen aus Katar abhängig ist, bemüht sich angesichts steigender Preise um zusätzliche Lieferungen. Sri Lanka führte am Sonntag eine Treibstoffrationierung ein, um seine Vorräte zu schonen. Das Land führte außerdem eine Vier-Tage-Woche und eine Homeoffice-Pflicht ein, um die schwindenden Öl- und Gasreserven angesichts der durch den US-israelischen Krieg gegen den Iran verursachten Lieferengpässe zu schonen.

Solche Reaktionen unterstreichen eine einfache, aber politisch unbequeme Wahrheit: Kohlenwasserstoffe bleiben das Rückgrat moderner Energiesysteme. In Krisenzeiten verlassen sich Regierungen nicht auf fluktuierende erneuerbare Energien, sondern auf Öl und Gas.

Die Krise in der Düngemittel- und Kunststoffversorgung

Die Bedeutung der Straße von Hormus reicht weit über Öl und Gas hinaus. Das  Fertiliser Institute  schätzt, dass Exporteure, die direkt oder indirekt vom Konflikt betroffen sind, für 49 % der weltweiten Harnstoffexporte, 30 % der weltweiten Ammoniakexporte und die Hälfte des weltweiten Schwefelhandels verantwortlich sind. Ein scharfsinniger Analyst  bemerkt dazu : „Diese Kombination macht Hormus nicht nur zu einem Energieengpass, sondern zu einem der größten Nährstoffengpässe im globalen Ernährungssystem.“

Der Persische Golf ist ein bedeutender Exporteur von stickstoffhaltigen Düngemitteln und chemischen Rohstoffen, die für die globale Landwirtschaft und Pharmaindustrie unerlässlich sind. Harnstoff, Ammoniak und Schwefelprodukte aus der Golfregion bilden die Grundlage der Nahrungsmittelproduktion in Asien und darüber hinaus. Schätzungen der UNCTAD zufolge wird rund  ein Drittel des weltweiten Seehandels mit Düngemitteln  durch die Meerenge abgewickelt. Der Grund dafür ist einfach: Die Düngemittelproduktion ist stark von Erdgas abhängig, und der Golf verfügt über reichhaltige Gasvorkommen.

Der Nahe Osten produziert rund  24 % des weltweiten Schwefels . Schwefel ist der Ausgangsstoff für Schwefelsäure, die in den Lieferketten von Nickel, Kupfer und Düngemitteln verwendet wird. Schwefelsäure ist ein wichtiger Bestandteil bei der Herstellung von Phosphatdüngemitteln, die weltweit eingesetzt werden. China, das mit Engpässen in der eigenen Phosphatproduktion konfrontiert ist, hat Exportverbote bis August verhängt und  die Ausfuhr von Phosphatdüngemitteln bis mindestens August 2026 ausgesetzt  , um die inländische Versorgung zu priorisieren und die Ernährungssicherheit zu gewährleisten. Dieses Verbot dürfte das weltweite Angebot verknappen und die Düngemittelpreise weltweit erhöhen.

Als Reaktion auf die Blockade von Hormuz erklärten Asiens wichtigste petrochemische Anlagen   Anfang März höhere Gewalt. Betroffen waren unter anderem Chandra Asri (Indonesien), Yeochun NCC (China) und PCS (Singapur). Aufgrund von Unterbrechungen der Rohstoffversorgung in Asien plant CNOOC-Shell Huizhou  die Stilllegung seiner Großanlage mit einer Kapazität von 1,2 Millionen Tonnen. Die Auswirkungen dieser  Erklärungen höherer Gewalt  und der geplanten Stilllegungen werden sich auf die Kunststoffindustrie und darüber hinaus erstrecken. Sie wirken sich auch auf die Pharmaindustrie aus, da die Rohstoffe identisch sind.

Energiesicherheit, Kunststoffe, Pharmazeutika und die Widerstandsfähigkeit der Landwirtschaft sind also untrennbar miteinander verbunden. Eine anhaltende Unterbrechung des Schiffsverkehrs im Golf wird daher weitreichende Folgen für die Energiemärkte, das globale Ernährungssystem, Lebensmittelverpackungen und die Pharmaindustrie haben.  Analyst Shanaka Anslem Perera  beschreibt die einzelnen „Dominoeffekte“ der Blockade von Hormuz auf die Verbraucher: „Jeder Dominostein trifft den Verbraucher aus einer anderen Richtung. Energiekosten erhöhen die Transportkosten. Düngemittelkosten erhöhen die Kosten für die Landwirtschaft. Verpackungskosten erhöhen die Kosten für den Transport der Lebensmittel vom Erzeuger in den Supermarkt.“

Als Reaktion auf die Krise hat die Internationale Energieagentur (IEA) die Freigabe strategischer Ölreserven koordiniert. Die 32 IEA-Mitgliedstaaten einigten sich gemeinsam auf die Freigabe von  400 Millionen Barrel Öl  zur Stabilisierung der Märkte. Dies entspricht einem Drittel der gesamten staatlichen Reserven der IEA in Höhe von 1,2 Milliarden Barrel.

Bisher haben IEA-Mitgliedstaaten fünfmal Öl aus ihren Notfallreserven freigegeben: während des Golfkriegs 1990/91, nach Hurrikan Katrina 2005, während des libyschen Bürgerkriegs 2011 und zweimal nach dem Einmarsch Russlands in die Ukraine. Die praktischen Auswirkungen solcher Freigaben dürften sich jedoch als begrenzt erweisen.

Strategische Reserven können einen Angebotsschock in der Größenordnung von Hormuz, der auf 20 Millionen Barrel pro Tag geschätzt wird, darunter über vier Millionen Barrel raffinierte Produkte, nicht sofort ausgleichen. Die IEA hat noch keinen genauen Zeitplan für die Freigabe des Öls vorgelegt. Selbst unter günstigen Bedingungen ist die Freigaberate durch logistische Faktoren wie Pipelinekapazität und Raffineriekapazität begrenzt. Koordinierte IEA-Freigaben erstrecken sich üblicherweise über Wochen oder Monate, sodass kurzfristig nur ein Teil der geplanten 400 Millionen Barrel freigegeben wird.

Trumps strategisches Dilemma

Präsident Donald Trump erklärte am Sonntag, seine Regierung führe Gespräche mit sieben Ländern über die Sicherung der Straße von Hormus im Kontext des Iran-Krieges. Er rief sie auf, Schiffe in der wichtigen Wasserstraße zu schützen, die Teheran weitgehend für Öltanker blockiert hat. Trump argumentierte, Nationen, die stark vom Öl aus dem Golf abhängig seien, trügen die Verantwortung, die Straße zu schützen. In einem Beitrag in den sozialen Medien äußerte er die Hoffnung, dass Frankreich, Japan, Südkorea, Großbritannien und weitere Länder sich beteiligen würden. Kurioserweise schloss Präsident Trump auch China in seinen Aufruf zur Unterstützung bei der Überwachung der Straße von Hormus ein. China hat auf diese „Einladung“ bisher nicht reagiert.

Die Krise bringt die Vereinigten Staaten nun in ein strategisches Dilemma, da diese Länder Präsident Trumps Einladung zu einer Intervention in der Straße von Hormus abgelehnt haben. Großbritannien, Australien und Japan verhielten sich zurückhaltend und  stellten klar  , dass sie keine Kriegsschiffe in die Region entsenden würden.

Präsident Trump hatte sich einst vehement gegen die von ihm so genannten „endlosen Kriege“ im Nahen Osten ausgesprochen. Doch die Entscheidung, sich an Israels Seite an den Angriffen gegen den Iran zu beteiligen, hat Washington wohl genau in jene regionale Konfrontation hineingezogen, die er einst zu vermeiden geschworen hatte. Die innenpolitischen Risiken sind beträchtlich. Innerhalb von Trumps eigener MAGA-Basis zeichnen sich bereits Spannungen  zwischen Fraktionen ab, die eine isolationistische „America First“-Außenpolitik verfolgen, und solchen, die eine kompromisslose Entschlossenheit zur Eindämmung der iranischen Bedrohung befürworten.

Unterdessen fällen die globalen Märkte ihr eigenes Urteil. Steigende Ölpreise drohen, die Benzinkosten in den Vereinigten Staaten drastisch in die Höhe zu treiben – ein Szenario, das sich im Vorfeld der Zwischenwahlen als politisch verheerend erweisen könnte. Washington steht daher vor einer heiklen Frage: Wie lässt sich die maritime Sicherheit im Golf wiederherstellen, ohne in einen langwierigen Streit um die Meerenge verwickelt zu werden?

Könnte Washington seine Ziele für erreicht erklären und von einer weiteren Eskalation absehen? Würde der Iran seine Bedrohung der Schifffahrt in der Straße von Hormus im Gegenzug für eine Lockerung der Sanktionen und Sicherheitsgarantien mäßigen? Die Straße von Hormus verdeutlicht ein Prinzip, das politische Entscheidungsträger häufig ignorieren: Energiesysteme werden nicht von politischen Ambitionen, sondern von Geografie, Physik und Ökonomie bestimmt. Seit Jahren prognostizieren engagierte Befürworter der Energiewende, wie beispielsweise die  IEA  , einen baldigen Einbruch der Ölnachfrage mit der zunehmenden Verbreitung von Elektrofahrzeugen und dem Ausbau erneuerbarer Energien.

Die strategische Bedeutung von Hormuz lässt jedoch etwas anderes vermuten. Öl dominiert weiterhin die Luftfahrt, die Schifffahrt, die Petrochemie und die Düngemittelproduktion. Erdgas bleibt unverzichtbar für die Stromerzeugung und industrielle Prozesse in der Pharma- und Petrochemiebranche. Windkraftanlagen und Solaranlagen, die nur intermittierend Strom erzeugen, können Kohlenwasserstoffe nicht ohne Weiteres in allen Wirtschaftsbereichen ersetzen.

Die Welt ist nach wie vor von fossilen Brennstoffen abhängig. Trotz der Milliarden von Dollar, die in Subventionen für erneuerbare Energien investiert wurden, erinnert uns Björn Lomborg  daran, dass fossile Brennstoffe heute (Stand 2023) 81,1 % des globalen Energiebedarfs decken – ein nur geringfügiger Rückgang gegenüber 81,4 % im Jahr 2000. Ein Ende der fossilen Brennstoffe ist nicht bis 2050 zu erwarten, sondern eher zwischen vier und zehn Jahrhunderten, wenn man die jüngsten Trends fortschreibt.

Das Ergebnis ist eine anhaltende Realität: Die moderne Weltwirtschaft ist nach wie vor von der Stabilität eines schmalen Seewegs im Persischen Golf abhängig.

Die Krise in der Straße von Hormus ist eine ernüchternde Lektion für Energiepolitiker. Energiewenden vollziehen sich langsam. Sie erfordern enorme Investitionen in die Infrastruktur und technologische Durchbrüche, die nicht über Nacht realisiert werden können. Das globale Energiesystem wurde über mehr als ein Jahrhundert aufgebaut. Ein vollständiger Ersatz für Kohlenwasserstoffe würde Transformationen in einem Ausmaß erfordern, das in der politischen Debatte selten Beachtung findet.

Die Welt wird weiterhin anfällig für Unterbrechungen der Öl- und Gasversorgung bleiben. Und kaum ein Ort verdeutlicht diese Anfälligkeit so sehr wie die Straße von Hormus. Ein schmaler Wasserstreifen im Persischen Golf hat noch immer die Macht, die Weltwirtschaft zu erschüttern. Trotz aller optimistischen Rhetorik über eine Zukunft nach dem fossilen Zeitalter erinnern uns die dortigen Ereignisse an eine hartnäckige Wahrheit: Das Zeitalter der Kohlenwasserstoffe ist noch lange nicht vorbei.

Dieser Artikel wurde zuerst im Daily Sceptic veröffentlicht (https://dailysceptic.org/2026/03/20/the-strait-of-hormuz-crisis-shows-the-world-still-runs-on-fossil-fuels/).

Dr. Tilak K. Doshi ist  Energieredakteur des Daily Sceptic . Er ist Wirtschaftswissenschaftler, Mitglied der CO₂- Koalition  und ehemaliger Autor für  Forbes . Folgen Sie ihm auf  Substack  und  X.

https://wattsupwiththat.com/2026/03/24/the-strait-of-hormuz-crisis-shows-the-world-still-runs-on-fossil-fuels/

 

Der Beitrag Die Krise in der Straße von Hormus zeigt, dass die Welt immer noch auf fossilen Brennstoffen basiert. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker