EIKE - Europäisches Institut für Klima und Energie e.V.

EIKE - Europäisches Institut für Klima und Energie e.V. Feed abonnieren EIKE - Europäisches Institut für Klima und Energie e.V.
Nicht das Klima ist bedroht, sondern unsere Freiheit!
Aktualisiert: vor 23 Minuten 27 Sekunden

Steigende Strompreise: Das fehlende Glied

6. Dezember 2025 - 12:00

Real Clear Energy, Von Jonathan Lesser, 20. November 2025

In letzter Zeit gab es zahlreiche Debatten über die Ursachen steigender Strompreise. Unter anderem wurden Rechenzentren , die den Strombedarf erhöhen, und die traditionelle Tarifregulierung, die den Energieversorgern angeblich zu hohe Gewinnmargen garantiert, als Gründe genannt. Andere Studien behaupteten wiederum, dass die steigenden Endkundenpreise durch subventionierte Wind- und Solarenergieerzeugung verursacht würden – eine Behauptung, die vehement zurückgewiesen wird von Befürwortern von Wind- und Solarenergie. Eine kürzlich von Forschern des Lawrence Berkeley National Laboratory durchgeführte Studie entlastete ebenfalls die Wind- und Solarenergie und behauptete, dass subventionierte, von Kunden installierte Solaranlagen die Strompreise in die Höhe trieben.

Tatsächlich tragen viele Faktoren zu den steigenden Strompreisen bei, insbesondere die rasanten Preisanstiege, die Haushalte und Unternehmen in den letzten fünf Jahren erlebt haben. Doch die verschiedenen Studien haben einen Schlüsselfaktor außer Acht gelassen: den veränderten Energiemix, da traditionelle fossile Kraftwerke und Kernkraftwerke durch Wind- und Solaranlagen ersetzt wurden.

Zwischen 2010 und 2024 stieg die US-amerikanische Stromerzeugungskapazität um rund 200.000 Megawatt (MW) bzw. gut 16 % von etwa 1,14 Millionen MW auf 1,33 Millionen MW. Im gleichen Zeitraum erhöhten sich die Stromverkäufe lediglich um etwa 5 %. Grundlegende ökonomische Prinzipien legen nahe, dass ein stärkeres Angebotswachstum als Nachfragewachstum tendenziell zu sinkenden Preisen führt. Doch das Gegenteil trat ein.

Hier ist der Grund: Fossile Kraftwerke und Kernkraftwerke sind „steuerbare“ Stromerzeugungsanlagen; sie arbeiten nach festgelegten Zeitplänen und können in manchen Fällen von Netzbetreibern so gesteuert werden, dass die Stromversorgung stets exakt dem Bedarf entspricht. Während Kernkraftwerke und die meisten Kohlekraftwerke typischerweise rund um die Uhr laufen, lassen sich viele Gaskraftwerke hingegen schnell ein- und ausschalten.

Wind- und Solarenergie lassen sich jedoch nicht bedarfsgerecht abrufen; sie liefern nur intermittierend Strom, nämlich dann, wenn die Sonne scheint und der Wind weht. Das ist problematisch, da Netzbetreiber nicht darauf zählen können, dass Wind- und Solarenergie bei Bedarf verfügbar ist, und daher zusätzliche Reservekapazitäten – in der Regel Gaskraftwerke – bereitstehen müssen [- und deren Betreiber für diesen stand-by Betrieb ebenfalls Vergütungen verlangen und bekommen müssen, denn sonst lohnt sich deren Betrieb gar nicht mehr].

Zwischen 2010 und 2024 wurden über 80.000 MW regelbare Kraftwerkskapazität stillgelegt. Im gleichen Zeitraum stieg die Erzeugungskapazität aus Wind- und Solarenergie um rund 240.000 MW. In den nächsten zwei Jahren werden weitere 20.000 MW regelbare Kraftwerkskapazität stillgelegt und durch mehr Windkraft, Solarenergie und Batteriespeicher ersetzt.

Der Verlust an steuerbarer Erzeugungskapazität ist auf mindestens drei Faktoren zurückzuführen. Erstens haben einige Bundesstaaten steuerbare Kraftwerke zur vorzeitigen Stilllegung gezwungen, wie beispielsweise das Kernkraftwerk Oyster Creek in New Jersey (2019) und das Kernkraftwerk Indian Point in New York (2021). Zweitens haben viele Bundesstaaten „Null-Emissions“-Vorgaben erlassen, die ihre Energieversorger zur Stilllegung ihrer Kohle- und Gaskraftwerke zwingen. Drittens haben großzügige staatliche Subventionen für Wind- und Solaranlagen die Strommärkte verzerrt. Oftmals steht so viel Wind- und Solarenergie zur Verfügung, dass die Großhandelspreise für Strom unter null fallen. Dies zwingt nicht subventionierte Kraftwerke, die ihre Produktion nicht abstellen können, dazu, für die Einspeisung ihres Stroms in den Markt zu bezahlen. Da die Häufigkeit dieser Strompreisspitzen zugenommen hat, wurden viele Kraftwerke stillgelegt, weil ihr Betrieb nicht mehr rentabel ist.

Die Stilllegung von bedarfsgesteuerten Kraftwerken bedeutet jedoch, dass Netzbetreibern weniger Ressourcen zur Verfügung stehen, wenn Bedarf besteht. Die Strompreise auf den Kapazitätsmärkten – die Erzeuger für ihre Verfügbarkeit vergüten und sie bei Nichtverfügbarkeit bestrafen – sind sprunghaft angestiegen. Beispielsweise schnellten die Marktpreise in der Juli-202X-Auktion des von PJM Interconnection verwalteten Kapazitätsmarktes – dem Netzbetreiber, der 13 Bundesstaaten im Mittelatlantikgebiet sowie den District of Columbia betreut und über 65 Millionen Menschen versorgt – um fast das Zehnfache in die Höhe, von 29 $/MW-Tag auf 270 $/MW-Tag. In der Juli-2025-Auktion stiegen die Preise weiter auf 329 $/MW-Tag und in der Region Washington D.C.-Maryland sogar auf über 400 $/MW-Tag. Diese höheren Kapazitätsmarktpreise bedeuten für Endkunden Milliarden von Dollar mehr Geld. Obwohl es bequem war, PJM zum Sündenbock zu machen , ist das Unternehmen nicht für die Politik zuständig; seine Aufgabe ist es, die Stromversorgung sicherzustellen.

Die von Befürwortern von Wind- und Solarenergie angestrebte Klimaneutralität wird nicht erreicht werden, wenn sie zu unerschwinglichem und unzuverlässigem Strom führt. Deshalb setzen Rechenzentrumsbetreiber auf Kernkraft, Erdgas und sogar Kohlekraftwerke, um ihren steigenden Strombedarf zu decken. Wären Wind-Solar-Batteriespeichersysteme eine kostengünstigere Alternative, würden sie diese zweifellos nutzen.

Da die Stromkosten die Verbraucher immer stärker belasten, sollten sich politische Entscheidungsträger mit den physikalischen und wirtschaftlichen Grenzen eines „grünen“ Stromnetzes auseinandersetzen. Und zwar bald.

Jonathan Lesser ist Senior Fellow am National Center for Energy Analytics . Sein neuer Bericht mit dem Titel „ Was treibt die höheren Strompreise im Einzelhandel an? “ wurde soeben veröffentlicht.

https://www.realclearenergy.org/articles/2025/11/20/rising_electricity_prices_the_missing_link_1148513.html

 

Der Beitrag Steigende Strompreise: Das fehlende Glied erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

BP gibt Wasserstoffanlage in Teesside auf

6. Dezember 2025 - 9:00

NOT A LOT OF PEOPLE KNOW THAT, Paul Homewood, Mit Dank an Ian Magness

Das war schon länger absehbar:

BP bereitet sich darauf vor, die Pläne zum Bau eines großen Wasserstoffprojekts in Teesside auf Eis zu legen – ein weiterer Rückschlag für Ed Milibands Klimaneutralitätspläne.

Laut Informationen des Telegraph wird BP seinen Antrag an die Regierung zum Bau des national bedeutsamen Projekts zurückziehen, da dieser mit separaten, von Sir Keir Starmer unterstützten Plänen zum Bau des größten Rechenzentrums Europas kollidierte.

Der Energieminister hat bereits zweimal eine Entscheidung darüber verzögert, ob die sogenannte Entwicklungsgenehmigung (Development Consent Order, DCO) erteilt werden soll, um mit der Produktion von „blauem“ Wasserstoff aus Erdgas zu beginnen und anschließend die Kohlenstoffemissionen abzuscheiden und zu speichern.

Eine Entscheidung war für Donnerstag, den 4. Dezember, erwartet worden, doch es heißt, BP habe seinen Antrag auf die DCO vor einer Bekanntgabe zurückgezogen.

Das H2Teesside-Projekt wurde 2021 von BP angekündigt und sollte bis 2030 mehr als 10 % eines Plans für ein sauberes Stromsystem realisieren.

Die ganze Geschichte  gibt es hier.

Wasserstoff aus Gas zu gewinnen und ihn dann zu verbrennen, um Strom zu erzeugen, anstatt dasselbe Gas gleich zu verwenden, ist an sich schon verrückt.

Noch mehr Geld auszugeben und noch mehr von diesem Gas zu verschwenden, um in großen Anlagen  Kohlenstoff abzuscheiden und dann in die Erde zu pressen , ist umso schlimmer.

Ohne massive Subventionen ist das unmöglich, und ich vermute, BP hat die Zeichen der Zeit erkannt. Da das Interesse an Netto-Null schwindet und die Öffentlichkeit allmählich die Realität erkennt, befürchtet BP, am Ende auf einem unbrauchbaren Produkt sitzen zu bleiben.

https://wattsupwiththat.com/2025/12/04/bp-abandon-teesside-hydrogen-plant/

 

Der Beitrag BP gibt Wasserstoffanlage in Teesside auf erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die Kosten für Netto-Null wurden um „Hunderte von Milliarden“ unterschätzt.

5. Dezember 2025 - 19:00

Net-Zero-watch, Pressemitteilung, 29. Oktober 2025, verfasst vom NZW-Team

Milibands Plan für saubere Energie steckt in der Krise, da die Prognosen für die Windkraftproduktion drastisch gekürzt wurden.

Die Kampagnengruppe Net Zero Watch sieht sich in ihrer langjährigen Kampagne, das Ministerium für Energiesicherheit und Netto-Null (DESNZ) und den Klimawandelausschuss dazu zu bringen, glaubwürdige Schätzungen der Kosten und der Leistung erneuerbarer Energien in ihrer Arbeit zu verwenden, bestätigt.

Gestern Abend wurde bekannt, dass das Ministerium seine Schätzungen zur Leistung von Offshore- und Onshore-Windparks stillschweigend um mehr als ein Viertel reduziert hat, und behauptete, dies sei durch „neue Modellrechnungen“ veranlasst worden.

Dieses jüngste Eingeständnis von DESNZ kommt für Energieminister Ed Miliband zum denkbar ungünstigsten Zeitpunkt, da er bereits wegen der Glaubwürdigkeit seiner „Clean Power 2030“-Initiative zur Dekarbonisierung des Stromnetzes in den nächsten fünf Jahren zunehmend unter politischem, industriellem und öffentlichem Druck steht:

  • Analysten der Windenergiebranche warnen, dass sein Budget von 1,08 Milliarden Pfund für die bevorstehende Subventionsauktion bei weitem nicht ausreicht, um die erforderliche Windkraftkapazität zu sichern;
  • Das Tony Blair Institute hat die Labour-Partei dringend aufgefordert , das Ziel ganz aufzugeben, da man befürchtet, es werde die Systemkosten in die Höhe treiben, die Zuverlässigkeit schwächen und das Wirtschaftswachstum bremsen.
  • Der Ökonom von Ember, der hinter dem Wahlversprechen der Labour-Partei stand, die Stromrechnung um 300 Pfund zu senken, hat nun Zweifel daran geäußert, ob überhaupt Einsparungen erzielt werden können.
  • Die größten Energieversorger Großbritanniens haben dem Parlament mitgeteilt , dass selbst bei kostenlosem Gas bis 2030 die stark steigenden Netz- und Ausgleichskosten die Stromrechnungen weiterhin schmerzhaft hoch halten würden; und
  • Eine Umfrage von More in Common ergab , dass drei Viertel (75 %) der britischen Wähler der Meinung sind, die Regierung sei am meisten für die hohen Energiekosten der Haushalte verantwortlich.

Andrew Montford, Direktor von Net Zero Watch, sagte:

„Das verspätete Eingeständnis von DESNZ, fiktive Produktionszahlen für Windparks verwendet zu haben, ist zwar zu begrüßen, aber es bleibt noch ein langer Weg. Selbst die revidierten Zahlen sind viel zu hoch, und die unplausiblen Kostenangaben wurden längst durch harte Fakten widerlegt.“

Herr Montford weist darauf hin, dass alle offiziellen Kostenschätzungen für die Erreichung von Netto-Null daher grob untertrieben sind.

„Wenn DESNZ, NESO, das OBR und der Klimawandelausschuss glaubwürdige Zahlen zu Kosten und Leistung von Windparks verwenden würden, wären die Kosten für die Erreichung von Netto-Null im Jahr 2050 um Hunderte von Milliarden Pfund höher. Das Netto-Null-Konzept wurde auf einem Fundament aus Unwahrheiten errichtet.“

https://www.netzerowatch.com/all-news/w1jj0vm1zdobaj5tydr9mr9lc7qesd

Der Beitrag Die Kosten für Netto-Null wurden um „Hunderte von Milliarden“ unterschätzt. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Trump will die Öl- und Gas Ressourcen vor den Küsten heben, um die Brennstoffkosten zu senken – die Demokraten sind dagegen

5. Dezember 2025 - 17:00

Audrey Streb, DCNF-Energiereporterin, 21. November 2025

Das US-Innenministerium (Department of the Interior, DOI) hat am Donnerstag seinen Vorschlag zur Öffnung großer Küstengewässer für Öl- und Gasbohrungen vorgestellt. DOI wies das Bureau of Ocean Energy Management (BOEM) am Donnerstag an, die notwendigen Schritte einzuleiten, um das von Ex-Präsident Joe Biden für den Zeitraum 2024–2029 geplante Öl- und Gasleasingprogramm zu stoppen. Der von Trump genehmigte, umfassende Ersatzplan sieht die Erschließung von 1,27 Milliarden Acres (ca. 514 Millionen Hektar) an geeigneten Fördergebieten vor.

Die Biden-Regierung hatte ein umfassendes Verbot von Offshore-Bohrungen verhängt und einen rekordniedrigen „Nicht-zu-verpachten-Plan“ festgelegt hatte, drängt die Trump-Regierung nun auf die Wiederaufnahme der Erschließung von Bundesgebieten und -gewässern. Der neue Vorschlag sieht Bohrungen vor den Küsten Alaskas, Kaliforniens und Floridas vor.

Der demokratische Gouverneur von Kalifornien, Gavin Newsom, hat sich vehement gegen die Idee von Ölbohrungen in den Gewässern des Golden State ausgesprochen. In Florida haben sich laut E&E News sogar einige Republikaner aus Florida gegen den Vorschlag ausgesprochen .

„Die Offshore-Öl- und -Gasförderung geschieht nicht über Nacht. Es braucht jahrelange Planung, Investitionen und harte Arbeit, bis die ersten Barrel auf den Markt kommen“, sagte Innenminister Doug Burgum am Donnerstag. „Die Biden-Regierung hat die Vergabe von Offshore-Öl- und -Gaslizenzen abrupt gestoppt und die langfristige Planung der amerikanischen Offshore-Produktion lahmgelegt. Indem wir die Entwicklung eines soliden, zukunftsorientierten Lizenzplans vorantreiben, stellen wir sicher, dass die amerikanische Offshore-Industrie stark bleibt, unsere Arbeitnehmer ihre Arbeitsplätze behalten und unser Land auch in den kommenden Jahrzehnten energiepolitisch führend bleibt.“

(Siehe auch: Exklusiv: Trumps Regierung torpediert Bidens Öl- und Gasreform)

  • Gouverneur Gavin Newsom (@CAgovernor) November 2025
  • Donald Trumps idiotischer Vorschlag, die Küsten Kaliforniens an seine Geldgeber aus der Ölindustrie zu verkaufen, ist gescheitert.
  • Wir werden nicht tatenlos zusehen, wie unsere Küstenwirtschaft und unsere Gemeinden gefährdet werden. https://t.co/ZMZql40nIS

Kalifornien könnte bald mit einer Gaskrise konfrontiert sein , da mehrere große Raffinerien ihre Schließung vorbereiten weil strengere  Vorschriften für die Öl- und Gasindustrie in Kraft treten .

Floridas Republikaner, darunter Senator Rick Scott, Senatorin Ashley Moody, Abgeordneter Gus Bilirakis und Abgeordneter Vern Buchanan, erklärten gegenüber E&E News, dass sie den Bundesstaat weiterhin von der Ausweitung der Offshore-Öl- und Gasförderlizenzen ausschließen wollen. Scott und Bilirakis vermied es, den Vorschlag des Innenministeriums (DOI) zu verurteilen, während Buchanan und Moody weiterhin entschieden gegen jegliche Bohrungen vor Floridas Küsten sind.

„ Die heute von @SecretaryBurgum und dem @Interior veröffentlichten neuen Karten, die potenzielle neue Offshore-Ölbohrstellen im Golf von Amerika aufzeigen, sind SEHR besorgniserregend – und wir werden uns in dieser Angelegenheit direkt mit dem Ministerium auseinandersetzen“, schrieb Moody am Donnerstag auf X.

Präsident Donald Trump unterzeichnete am ersten Tag seiner Amtszeit eine Exekutivanordnung zur „Freisetzung amerikanischer Energieressourcen“ und rief den nationalen Energienotstand aus. Der „One Big Beautiful Bill Act“ (OBBBA) ging noch weiter und wies das Innenministerium (DOI) und das Bureau of Land Management (BLM) an, mehr Möglichkeiten zur inländischen Energieexploration zu schaffen und „die vierteljährlichen Pachtvergaben an Land in bestimmten Bundesstaaten unverzüglich wieder aufzunehmen“.

Trump hat die Förderung konventioneller Energiequellen betont, im Gegensatz zu Bidens restriktiver Politik gegenüber der Öl- und Gasindustrie. Biden fror am ersten Tag seiner Präsidentschaft die Exporte von Flüssigerdgas (LNG) ein, blockierte die Keystone-XL-Pipeline und stoppte die Genehmigung von Pachtverträgen durch das Bureau of Land Management (BLM). Stattdessen setzte er sich für eine grüne Energieagenda ein, die mit Milliarden an Subventionen , Krediten  und  Zuschüssen gefördert wird .

Branchenkenner des Energiesektors wie Mike Sommers, Präsident und CEO des American Petroleum Institute (API), begrüßten den Plan und erklärten : „Nach jahrelanger Verzögerung bei der Vergabe von Pachtverträgen durch die Bundesregierung ist dies ein historischer Schritt zur Erschließung der riesigen Offshore-Ressourcen unseres Landes.“

Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Medienunternehmen mit großer Reichweite kostenlos zur Verfügung. Alle wiederveröffentlichten Artikel müssen unser Logo, den Namen des/der jeweiligen Reporters/Reporterin und dessen/deren Zugehörigkeit zur DCNF enthalten. Bei Fragen zu unseren Richtlinien oder einer möglichen Partnerschaft kontaktieren Sie uns bitte unter licensing@dailycallernewsfoundation.org.

https://dailycaller.com/2025/11/21/trump-admin-states-beef-it-out-over-massive-offshore-drilling-unveiling/

 

Der Beitrag Trump will die Öl- und Gas Ressourcen vor den Küsten heben, um die Brennstoffkosten zu senken – die Demokraten sind dagegen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Gedankenexperiment: Könnte der Klimasupercomputer „Derecho“ des NCAR als Bitcoin-Miner seinen Lebensunterhalt verdienen?

5. Dezember 2025 - 14:00

WUWT, Anthony Watts

Da uns die Klimamodellierung nichts einbringt und es Anzeichen dafür gibt, dass das Unternehmen aufgrund veränderter Prioritäten verkleinert oder sogar eingestellt werden könnte, habe ich mich gefragt, ob die Anlage etwas Geld einbringen könnte, wenn sie auf Bitcoin-Mining umgestellt würde.

Vorbemerkung des Übersetzers
In dieser launigen und umfangreichen Ausarbeitung, geht Anthony Watts der Frage nach: Welchen Nutzen bringen die teuren Computer, die „Das Klima“ berechnen, aber meilenweit von der Realität entfernt sind? Könnte man diese Supercomputer nicht wirtschaftlicher für etwas anderes laufen lassen?

Bevor jetzt irgendwelche Klima-Fanatiker in Panik geraten: Nein, das NCAR* wird weder seine Wetter- und Klimamodelle über Bord werfen noch Derecho** in eine Krypto-Farm verwandeln. Sie werden die Einrichtung in Wyoming nicht mit blinkenden ASICs*** vollstopfen und einen Typen namens „Blade“ einstellen, der die Kühlkreisläufe überprüft. Aber die Frage ist gerade deshalb so interessant, weil sie etwas offenbart, was den meisten Menschen – selbst vielen, die sich mit Klimamodellierung beschäftigen – einfach nicht bewusst ist:

[* Das NCAR – National Center for Atmospheric Research ist ein US-amerikanisches Forschungsinstitut aus dem Bereich der Atmosphärenwissenschaften. Wikipedia.

** Dieser Supercomputer ist nach Derecho benannt. Der Name Derecho bezeichnet eine langgezogene, langlebige Gewitterlinie, die starke, geradlinige Winde verursacht und sich über mindestens 450 km erstreckt. Der Name stammt vom spanischen Wort für „gerade“ und beschreibt die Art der Zerstörung, die in einem breiten, geraden Pfad auftritt. Im Gegensatz zu Tornados, bei denen Trümmer in alle Richtungen wirbeln, fallen Bäume und Schutt bei einem Derecho in eine Richtung

*** ASIC ist ein für spezielle Anwendungen gebauter Chip, der seine Aufgaben wesentlich schneller und günstiger erledigen kann, als eine CPU {Computer Chip}, die für universellen Einsatz gebaut ist]

  • Supercomputer sind beim Bitcoin-Mining völlig ungeeignet.
    • besser: Monumental ungeeignet.
    • noch besser: Spektakulär ungeeignet.

Die Gründe, warum sie so schlecht sind, sind jedoch interessanter als die Schlussfolgerung selbst, und sie sagen etwas darüber aus, wie wir Geld für Klimamodellierung im Vergleich zu realem Nutzen aufwenden.

Dann legen wir mal los.

Derecho: 19,87 Petaflops Kohlekraft – Klimaprognose

Das 2023 installierte NCAR-System „Derecho“ ist ein mit Strom von einem Kohlekraftwerk  betriebener HPE Cray EX-Supercomputer mit einer Rechenleistung von 19,87 Petaflops, der in Cheyenne, Wyoming, steht – weil Kohlestrom dort günstiger ist. Seine Hauptaufgabe:

„Zur Unterstützung von Klima- und Wettermodellierung, Atmosphärenforschung und Erdsystemsimulation, um das Verständnis zukünftiger Klimaszenarien zu verbessern.“
– Systembeschreibung des NCAR
https://www.cisl.ucar.edu/ncar-wyoming-supercomputing-center

Dieser edle Zweck hat auch seinen Preis: Allein die Hardware kostet rund 35 Millionen Dollar, hinzu kommen laufende jährliche Betriebs- und Stromkosten in Millionenhöhe.

Derecho besteht aus:

  • 2.488 Rechenknoten
  • Zwei 64-Kern-AMD-EPYC-Milan-CPUs pro Knoten
  • Insgesamt 323.712 CPU-Kerne
  • Hinzu kommt eine GPU-Partition, obwohl NCAR seine Spezifikationen selten in den Vordergrund stellt, da GPUs für sehr spezifische Arbeitslasten verwendet werden.

Klimamodellierer lieben Derecho. Sie sprechen in gedämpften Tönen davon, als wäre er ein Orakel, das 100 Jahre in die Zukunft sehen kann – ungeachtet der Tatsache, dass er immer noch nicht zuverlässig vorhersagen kann, ob Ihr Grillfest am Wochenende ins Wasser fällt.

Aber was bringt es trotz all der Superrechenleistung und der hohen Betriebskosten ein?

  • Nun ja, finanziell gesehen nichts.

Und genau das machte die Frage unwiderstehlich.

Das Kernproblem: FLOPS ≠ Hashes

Klimamodelle werden in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen. Dagegen wird Bitcoin-Mining in Hashes pro Sekunde (genauer gesagt, SHA-256-Hashes) gemessen.

[Launiger Einschub des Übersetzers: Aha, Klimavorhersagen FLOP’en, und Bitcoins wollen erHASHt werden – gut, ich nehme es zurück]

Diese beiden Computerwelten könnten genauso gut verschiedene Planeten sein.

Klimamodelle benötigen:

  • 64-Bit-Gleitkommaarithmetik
  • Hochpräzise Differentialgleichungslöser
  • Gigantische Speicherbandbreite
  • Kommunikation zwischen den Knoten

Anforderungen für das Bitcoin-Mining:

  • Einfache 32-Bit-Ganzzahloperationen
  • SHA-256-Hashing wird millionenfach pro Sekunde durchgeführt.
  • Vorhersehbare, repetitive, strohdumme Berechnungen
  • Hardware, die bei einer gegebenen Hash-Rate so wenig Strom wie möglich verbraucht.

Wie ein Ingenieur es einmal treffend formulierte:

„Supercomputer sind zum Denken gebaut. ASIC-Miner sind dafür gebaut, 10 Billionen Mal pro Sekunde mit dem Kopf gegen dieselbe Wand zu rennen.“

Derecho ist ein Denker, kein Draufgänger.
Genau darum geht es.

Wie schlimm kann es schon sein? Lassen Sie uns die Nutzlosigkeit quantifizieren.

Ein grober Vergleich ist aufschlussreich.

Moderner Bitcoin-ASIC-Miner (z. B. Antminer S21):

  • ~200 TH/s
  • ~3500 W
  • Wirkungsgrad ~60 J/TH

Derecho CPU-Knoten (sehr grobe Schätzung):

  • Vielleicht 5–10 MH/s pro CPU, falls man überhaupt Mining-Software installieren könnte.
  • Das sind 0,000005 TH/s
  • Bei 3.500 W pro Knoten, ähnlich wie ein ASIC
  • Wirkungsgrad: etwa 600 Milliarden J/TH, plus/minus einige Größenordnungen

Wenn diese Zahl absurd erscheint, dann liegt das daran, dass sie es auch ist.
Im Vergleich dazu ist ein moderner ASIC beim Hashing etwa 10 bis 12 Größenordnungen effizienter als eine CPU.

Gesamtfördermenge des Derecho-Bergbaus (spekulativ, aber nicht unrealistisch)

Nehmen wir großzügig an:

  • 5 MH/s pro CPU
  • Zwei CPUs pro Knoten → 10 MH/s
  • 488 Knoten → 24,8 GH/s insgesamt

Anders ausgedrückt:

Derecho würde ungefähr 0,024 TH/s erreichen.

Das ist kein Tippfehler.

Ein einzelner USB-Bitcoin-Miner für 20 Dollar aus dem Jahr 2013 schnitt besser ab.

Unterdessen dümpelt das Bitcoin-Netzwerk vor sich hin: ≈ 600 EH/s (600.000.000 TH/s)

Derechos Beitrag:

0,000000004 % der Hashrate des Netzwerks

Das sind acht Dezimalstellen Irrelevanz.

Wenn Bitcoin-Mining ein Kuchen wäre, wäre Derecho nicht einmal ein Krümel.
Es wäre die Erinnerung an einen Krümel. Ein winziger Nano-Krümel.

Wie viel Bitcoin würde Derecho also verdienen?

Seien wir absurd optimistisch.

Die Bitcoin-Blockbelohnung beträgt aktuell 3,125 BTC (nach der Halbierung im Jahr 2024).

Bei einer Ausbeute von 0,024 TH/s würde das Solo-Mining Folgendes einbringen…

Das entspricht etwa 0 BTC in der Lebensdauer des Universums.
(Und das ist kein Scherz.)

Aktienpools, sagen Sie? Okay – anhand der üblichen Berechnungsmethoden für Aktienbeiträge:

Derecho würde voraussichtlich zwischen 0,01 und 0,50 US-Dollar pro Jahr verdienen, vor Abzug der Stromkosten.

  • Ja, 50 Cent.

Und nun zu den Stromkosten?

Derecho verbraucht etwa Folgendes:

6 MW × 24 Stunden × 365 Tage × 0,07 $/kWh (Industriestromtarif Wyoming) ≈ 3,7 Millionen $/Jahr an Stromkosten

Wenn NCAR also auf Bitcoin-Mining umsteigen würde:

  • Jahresumsatz: 0,10 $
  • Jährliche Kosten: 700.000 $
  • Jährlicher Nettogewinn: −3.699.999,90 $

Selbst die US-Regierung würde bei diesem Geschäftsmodell die Augenbrauen hochziehen.

Aber genau darum geht es ja.

Das Amüsante daran ist nicht, dass Derecho ein katastrophaler Bitcoin-Miner wäre.

Worauf ich hinaus möchte ist folgendes:

Derecho ist optimiert für Modelle, deren Vorhersagekraft regelmäßig überschätzt wird.

Wir haben eine Maschine gebaut, die so spezialisiert und in ihrem Rechenzweck so eng gefasst ist, dass sie fast nichts anderes effizient erledigen kann – nicht einmal eine sehr einfache, peinlich parallelisierbare Aufgabe wie Hashing.

Das wäre nicht weiter problematisch, wenn die verwendeten Modelle einen Nutzen brächten, der ihren Kosten entspräche. Doch nach 35 Jahren supercomputergestützter Klimaprognosen:

  • Die Klimasensitivität (ECS) reicht nach wie vor von „geringfügigen Unannehmlichkeiten“ bis hin zu „biblischem Untergang“.
  • Die Erwärmungsprognosen übertreffen die Beobachtungen immer noch um das 2- bis 3-Fache.
  • Die Vorhersagen zum arktischen Meereis waren durchweg falsch.
  • Die Zuordnung extremer Wetterereignisse ist eher ein politisches Spielball als eine wissenschaftliche Gewissheit.
  • Und die Temperaturen weigern sich hartnäckig, den den politischen Entscheidungsträgern präsentierten, klar definierten Modellkurven zu folgen.

Ab wann geben wir zu, dass die Maschinen viel Wärme und viel Papier produzieren, aber wenig Klarheit?

Derechos „Earned Value“: Die umfassendere Frage

Wenn die Klimamodelle, die auf diesen Maschinen laufen, zuverlässige, umsetzbare und realitätsnahe Vorhersagen liefern würden, wären ihre Kosten ohne Zögern zu rechtfertigen.

Stattdessen haben wir Folgendes:

  • Große, teure Computer
  • Ausführen komplexer Modelle
  • Das führt zu dramatisch unterschiedlichen Vorhersagen.
  • Diese werden dann als Beweis für „Konsens“ angeführt.

Hier liegt eine merkwürdige Zirkelbildung vor:

  • Wir entwickeln Modelle, um die Besorgnis um den Klimawandel zu rechtfertigen.
  • Wir finanzieren Supercomputer, um die Modelle auszuführen.
  • Als Beweis verweisen wir auf die Ergebnisse.
  • Und wenn die Vorhersagen fehlschlagen, sagen wir, wir brauchen größere Supercomputer.

Die Maschine selbst erwirtschaftet derweil keinen Gewinn und produziert keine marktrelevanten Ergebnisse.

Bitcoin-Mining – ob nützlich oder nicht – hat eine Stärke:
Es ist brutal ehrlich. Entweder man schafft Wert oder nicht.

Klimamodellierung? Eher nicht. Die Ergebnisse werden nicht nach ihrer Genauigkeit, sondern nach ihrem rhetorischen Nutzen beurteilt.

Was wäre, wenn Derecho sich seinen Unterhalt verdienen müsste?

Wenn man von Klima-Supercomputern verlangen würde, ihre Existenz durch nachweisbare Ergebnisse zu rechtfertigen – sei es durch Marktwert, verifizierte Prognosegenauigkeit oder Vorhersageleistung in der Praxis –, könnten sich einige interessante Veränderungen ergeben:

  • Schlechte Modelle würden verworfen.
  • Die Parametereinstellung würde genauestens geprüft werden.
  • Die Streuung der Ensemble-Ergebnisse würde vorsichtiger interpretiert werden.
  • Die Unsicherheiten bei Klimaprognosen würden offen kommuniziert.
  • Politiker würden aufhören, 100-Jahres-Prognosen als unumstößliche Wahrheit zu betrachten.
  • Und Supercomputer könnten nach tatsächlichen Bedürfnissen dimensioniert werden, nicht nach politischer Symbolik.

Die Tatsache, dass Bitcoin-Mining in absurdem Maße nicht zu Supercomputern passt, offenbart schlichtweg das zugrundeliegende Problem:

Klimasupercomputer sind nicht für den praktischen Nutzen konzipiert.
Sie dienen der Untermauerung von Narrativen.

Und genau das unterscheidet sie von Maschinen, deren Leistung von der unerbittlichen Realität der Märkte, der Physik und der Mathematik beurteilt wird.

Ein letzter Gedanke: Was wäre, wenn wir die Frage umdrehen?

Statt zu fragen:

„Wie viel könnte Derecho verdienen, wenn es auf Bitcoin-Mining umgestellt würde?“

Vielleicht lautet die ehrlichere Frage:

„Welchen realen Nutzen bringt Derecho aktuell?“

Denn:

  • Seine Klimaprognosen sind unzuverlässig.
  • Die Modellergebnisse sind politisch gesteuert.
  • Die Prognosen stimmen nicht mit den Beobachtungen überein.
  • und ihre Missionen dienen zunehmend der Interessenvertretung statt der Wissenschaft…

…dann ist sein ökonomischer Wert vielleicht nicht viel höher als sein Bitcoin-Wert.

Und das sollte uns weitaus mehr beunruhigen als jedes Gedankenexperiment.

https://wattsupwiththat.com/2025/11/28/thought-experiment-could-ncars-derecho-climate-supercomputer-earn-its-keep-as-a-bitcoin-miner/

 

Der Beitrag Gedankenexperiment: Könnte der Klimasupercomputer „Derecho“ des NCAR als Bitcoin-Miner seinen Lebensunterhalt verdienen? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 1

5. Dezember 2025 - 11:00
Eine Untersuchung anhand von Gezeitenpegel-Daten – Teil 1: Vorläufige Analyse

Dr. Alan Welch FBIS FRAS

Einführung

Die Frage „Warum weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung mit einer Periode von etwa 26 Jahren auf?“ wurde 2023 in den Kommentaren zu einer meiner Veröffentlichungen gestellt. In meiner Antwort wies ich darauf hin, dass die Satellitenabdeckung nur 95 % betrug und daher möglicherweise die Ereignisse in den übrigen 5 % relevant sein könnten. In meinem Folgeartikel „Measuring and Analysing Sea Levels using Satellites during 2023 – Part 2“ [etwa: Messung und Analyse des Meeresspiegels mit Satelliten im Jahr 2023 – Teil 2] analysierte ich die Ergebnisse von Gezeitenmessern in 9 Häfen in den nördlichen Regionen des Atlantischen Ozeans und bis hinauf zum Arktischen Ozean. Die Analyse war sehr vereinfacht, aber vielversprechend, sodass nun eine detailliertere Analyse unter Verwendung neuerer Verfahren durchgeführt wird.

Bevor wir fortfahren, könnte eine weitere Frage lauten: „Na und?“ Die Kurve ist im Grunde genommen fast linear (R² = 0,99), wobei quadratische oder sinusförmige Anpassungen nur sehr wenig dazu beitragen. Im Jahr 2018 veröffentlichten Nerem et al. jedoch ihre Arbeit, in der sie sich auf eine quadratische Kurve konzentrierten und den kleinen quadratischen Koeffizienten als repräsentativ für eine Beschleunigung verwendeten. Hätten sie sich auf die Daten beschränkt, wäre alles akzeptabel gewesen, aber sie extrapolierten über 80 Jahre und veröffentlichten ihre Arbeit. Die Arbeit wird immer noch jeden Monat in vielen Arbeiten als Referenz verwendet. In den letzten 8 Jahren wurde sie verwendet, um dramatische Szenarien von überfluteten Städten zu entwerfen und alle Kinder zu erschrecken. Die Untersuchung einer Sinuskurve hat versucht, ein ausgewogenes Bild zu zeichnen. Ein Punkt, der bei der Verwendung der quadratischen Kurve übersehen wurde ist, dass die Berechnungen, wenn sie 2008 begonnen hätten, jetzt eine Verlangsamung zeigen würden. Welche Arbeit würden Nerem et al. dann schreiben?

Der Beitrag besteht aus zwei Teilen.

Teil 1 enthält vorläufige Analysen, in denen jeder Gezeitenmesser bis zur Stufe der Spektralanalyse verarbeitet wird.

Teil 2 führt eine Kurvenanpassung durch, bei der die Residualwerte (Ist-Werte minus Werte auf einer Best-Fit-Kurve) anhand einer Kurve beurteilt werden, die aus zwei oder drei Sinuskurven unter Verwendung der aus den Spektralanalysen abgeleiteten Spitzenperioden besteht.

Vorläufige Analyse

Diese Studie nutzt eher Daten von Gezeitenmessern als Daten der NOAA, verwendet jedoch Spektralanalysen.

Die 9 Standorte sind Reykjavik – Island, Torshavn – Färöer-Inseln, Aberdeen – Schottland, Lerwick – Schottland, Bergen – Norwegen, Barentsberg – Spitzbergen, Narvik – Norwegen, Murmansk – Russland und Tiksi – Russland.

Nur Aberdeen und Bergen verfügen über Datensätze, die mehr als 100 Jahre umfassen, während Torshavn nur etwa 50 Jahre abdeckt.

Vor der Analyse dieser 9 Häfen werden die Ergebnisse für Brest untersucht, da diese über 210 Jahre umfassen, obwohl es einige größere Lücken in den Daten gibt. Diese Arbeit wurde bereits früher durchgeführt, aber einige Aspekte sind von Interesse. Die Daten sind in Abbildung 1 dargestellt:

Abbilduing 1

Die übliche Kurvenanpassung wird wie in Abbildung 2 dargestellt durchgeführt. Auch hier wurde möglicherweise eine übermäßige Genauigkeit verwendet, um auf der sicheren Seite zu sein. Dies dient nicht dazu, eine genaue Anpassung anzuzeigen, sondern aufgrund möglicher hoher Werte auf der „x“-Achse könnten die Leistungsterme diese zusätzliche Genauigkeit erfordern.

Abbildung 2

Eine Spektralanalyse wurde an den Daten durchgeführt, und die Abbildungen 3 und 4 zeigen die Ergebnisse für lange und kurze Zeiträume:

Abbildung 3

Abbildung 4

Abbildung 3 zeigt einen Spitzenwert (kaum erkennbar) bei einer Periode von 1429 Jahren. Die meisten anderen Gezeitenmessgeräte zeigen viel höhere Perioden, aber es wäre interessant zu sehen, wie Sinuskurven mit Perioden im Bereich von 1000 Jahren mit der quadratischen Anpassung verglichen werden könnten.

Die Kurvenanpassung wurde für Kurven mit Perioden von 1000, 1100 und 1200 Jahren durchgeführt. Die Gleichungen werden im Excel-Format angezeigt.

= CONST + AMP * SIN(((SHIFT + 2 * A1)/PERIOD) * PI()) (Gleichung 1)

Die Abbildungen 5, 6 und 7 vergleichen die quadratische Kurve mit den drei Sinuskurven und stellen dabei Steigung und Beschleunigung gegenüber:

Abbildung 5

Abbildung 6

Abbildung 7

Der nächste Teil könnte gutes Querdenken sein oder ein bisschen mehr La La Land!

Wenn man die 1200-Jahres-Kurve verwendet und von 500 v. Chr. bis 2500 n. Chr. extrapoliert, erhält man folgendes Ergebnis:

Abbildung 8

Die angegebenen Zeiträume sind möglicherweise umstritten. Ich war überrascht, dass die letzte Thames Ice Fair erst 1814 stattfand. Eine beunruhigendere Interpretation dieser Grafik, sofern sie überhaupt aussagekräftig ist wäre, dass der Meeresspiegel (und die damit verbundenen Temperaturen) erst um 2450 ihren Höchststand erreichen. Könnten die Ereignisse wirklich so schlimm werden? Wie warm war es während der römischen und der mittelalterlichen Warmzeit?

Schließlich zeigt Abbildung 9 die Residuen, d. h. die tatsächlichen Werte abzüglich der Werte auf der quadratischen Kurve, und Abbildung 10 die Spektralanalyse dieser Residuen:

Abbildung 9

Abbildung 10

Die Perioden der Spitzenwerte weichen von denen der vollständigen Spektralanalyse ab, und auf Abbildung 9 ist nicht ohne Weiteres zu erkennen, dass es möglicherweise eine dekadische Schwankung von etwa 93 Jahren gibt. Dies wurde

untersucht, indem Datendateien mit Zufallswerten erstellt wurden, wobei ein Satz als einfache Zufallswerte und ein Satz als Zufallszahlen mit einer Standardabweichung festgelegt wurde. Es wurden viele Fälle durchgespielt, und die Abbildungen 11 und 12 zeigen jeweils einen Fall aus jeder Reihe:

Abbildung 11

Abbildung 12

Der erste Eindruck ist etwas beunruhigend, da er Kurven mit Perioden im Bereich von 10 bis 100 Jahren anzeigt, aber bei genauerer Betrachtung zeigt sich, dass diese alle eine geringe Amplitude (in diesen Diagrammen mit „Theta” bezeichnet) von etwa 2 haben, während sie in den tatsächlichen Gezeitenmessdiagrammen zwischen 10 und 30 für die Residuen liegen. Diese Theta-Werte sind relative Werte und geben keine tatsächlichen physikalischen Werte an.

(Möglicherweise habe ich den Prozess nicht klar und korrekt beschrieben, daher wäre ich für jede Hilfe sehr dankbar.

Wenden wir uns nun den 9 Datensätzen der Gezeitenpegel zu, die wir beginnend mit dem längsten Messzeitraum und dann in etwa in der Reihenfolge abnehmender Zeiträume betrachten werden. Bevor wir jedoch fortfahren, zeigen die folgenden 9 kleinen Abbildungen das Ergebnis der früheren Kurvenanpassung einer 26-Jahres-Kurve an die Diagramme der Residualwerte, d. h. der tatsächlichen Werte abzüglich des Wertes der quadratischen Anpassung. Während eine Kurve mit einer Periode von etwa 26 Jahren an vielen Stellen passt, gibt es Hinweise auf andere, in der Regel längere Periodenkomponenten, wie aus dem Diagramm für Aberdeen ersichtlich ist, wo eine größere Schwankung von etwa 85 Jahren offensichtlich ist. Die größeren Spektralanalyse-Peaks beziehen sich auf Primärmodi, während die kürzeren andere Primärmodi oder Sekundärmodi sein können. Ein Problem bei diesen 9 Analysen war, dass die dargestellten Daten ein gleitender Durchschnitt basierend auf 101 Datenpunkten sind. Ohne Unterbrechungen in den Daten entspricht dies etwas mehr als 8 Jahren, aber da es mehrere Lücken in den Daten gibt, kann dies zu Verzerrungen führen. Durch die Mittelwertbildung werden die meisten kurzfristigen Frequenzen entfernt, wodurch die allgemeine Form leichter zu erkennen ist.

Aberdeen .. Bergen .. Narvik

Reykjavik .. Murmansk .. Barentsburg

Lerwick .. Tiksi .. Torshavn

Jeder der 9 Gezeitenmesser wird nun unter Berücksichtigung der Ausgangsdaten von der NOAA-Website, der verarbeiteten Daten mit der am besten passenden quadratischen Kurve, der Residuen (tatsächlicher Wert minus Wert auf der am besten passenden Kurve), der Spektralanalyse-Diagramme und der Ergebnistabellen betrachtet. Die Tabellen enthalten im Wesentlichen Werte aus der ursprünglichen Verwendung der Software, nämlich der Analyse variabler Sterne. Die erste Spalte enthält die Frequenz

(1/Periode) in Zyklen pro Jahr. Die Zeit ist die Periode, in der diese Frequenz in Jahren auftritt. Theta wird in diesem Artikel als Amplitude bezeichnet.

In dieser Phase wurde keine Kurvenanpassung durchgeführt, da in den meisten Fällen zwei oder mehr Peaks vorhanden sind. Die bei der Spektralanalyse verwendeten Amplituden (amp) und die Amplituden der Sinuskurven (AMP) wurden für bekannte Mehrfach-Sinuskurven untersucht, und es wurde festgestellt, dass die Amplituden für ein Kurvenpaar, 1 und 2, durch die folgende Gleichung miteinander in Beziehung stehen:

AMP2 = AMP1 * SQRT(amp2/ amp1) (Gleichung 2)

Damit lässt sich die relative Dominanz jeder in den Spektralanalyse-Diagrammen dargestellten Kurve abschätzen.

Aberdeen:

Bergen:

Narvik:

Narvik (reduzierter Datensatz):

Die Daten vor 1947 wurden aufgrund der großen Lücke in den Messwerten und der verdächtigen Anfangswerte nahe dem Beginn der Datenreihe verworfen.

Reykjavik:

Murmansk:

Barentsburg:

Lerwick:

Tiksi:

Torshavn:

Demnächst:

Nachdem die Spektralanalyse auf eine Reihe von Gezeitenmessgeräten angewendet wurde, werden in Teil 2 die Ergebnisse zur Ableitung von Sinuskurven verwendet.

Link: https://wattsupwiththat.com/2025/12/02/does-the-global-sea-level-rise-have-a-sinusoidal-variation/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 1 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Prof. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident von Tschechien, ist neuer Präsident von CLINTEL

5. Dezember 2025 - 8:00

Die Organisation Climate Intelligence, kurz CLINTEL, ist EIKE-Lesern nicht unbekannt. Zumindest die CLINTEL-Hauptaussage „Es gibt keinen Klimanaotstand“ ist weithin bekannt. Nachfolgend ein ins Deutsche übersetzter Auszug aus dem Programm von CLINTEL:

Climate Intelligence (CLINTEL) ist eine unabhängige Stiftung, die über den Klimawandel und Klimapolitik informiert. CLINTEL wurde 2019 vom emeritierten Professor für Geophysik Guus Berkhout und dem Wissenschaftsjournalisten Marcel Crok gegründet. Das Hauptziel von CLINTEL ist es, Wissen und Verständnis über die Ursachen und Auswirkungen des Klimawandels sowie der Wirkungen der Klimapolitik auf Wirtschaft und Umwelt zu vermitteln.

Zu diesem Zweck versucht die Stiftung 1) der Öffentlichkeit objektiv und transparent zu vermitteln, welche Fakten über den Klimawandel und die Klimapolitik vorliegen und wo Fakten zu Annahmen und Vorhersagen werden 2) führt die Stiftung eine öffentliche Debatte zu diesem Thema durch, regt diese an und betreibt investigative Berichterstattung in diesem Bereich 3) möchte die Stiftung als internationaler Treffpunkt für Wissenschaftler mit unterschiedlichen Ansichten zum Klimawandel und zur Klimapolitik fungieren 4) beabsichtigt die Stiftung auch eigene wissenschaftliche Forschungen zum Klimawandel und zur Klimapolitik durchzuführen oder zu finanzieren und 5) will CLINTEL die Rolle eines unabhängigen „Klimawächters” sowohl im Bereich der Klimawissenschaft als auch der Klimapolitik übernehmen.

Zu den Betreibern von CLINTEL gehören die beiden Physik-Nobelpreisträger Ivar Giaever und John F. Clauser. Nun ist nach dem Gründer von CLINTEL, Prof. Guus Berkhout, Vaclav Klaus zum neuen Präsidenten von CLINTEL ernannt worden (hier).

In seiner Abschiedsrede führt G. Berkhout aus: „Es sind nicht in erster Linie menschliche Aktivitäten, sondern die immensen Kräfte der Natur, die den Klimawandel vorantreiben“. Er betonte auch die viel wichtigere Rolle von Wasser und Wasserdampf in all seinen Phasen für das Klima als die untergeordnete Rolle von CO2 und beharrte darauf, dass „die Anpassung an den Klimawandel bei weitem der effektivste und humanste Weg ist, um Opfer und Schäden durch extremes Wetter zu reduzieren. Der Klimaschutz, der auf unrealistische Emissionsreduktionen abzielt, hat noch nie einen Dollar oder ein Opfer gerettet.“

In seiner Antrittsrede (hier) als neuer CLINTEL-Präsident sagte Vaclav Klaus: „Es ist unsere Pflicht, sich gegen den irrationalen, populistischen und offensichtlich unwissenschaftlichen Klimapessimismus zu wehren. Wir müssen nach neuen Wegen suchen, um etwas zu verändern – jeder einzelne von uns und wir alle gemeinsam.Wir planen, unsere Aktivitäten sowohl in einzelnen Ländern als auch auf globaler Ebene auszuweiten. Wir wollen uns aktiver an öffentlichen Debatten beteiligen. Wir wollen neue Unterstützer finden. In dieser Hinsicht beabsichtigen wir nicht, unsere Aktivitäten zu zentralisieren. Wir werden nationalen Gruppierungen und Initiativen Unabhängigkeit gewähren und ihre Aktivitäten begrüßen.“ Vaclav Klaus ist übrigens Autor des Buchs Blauer Planet in grünen Fesseln. Was ist bedroht: Klima oder Freiheit?, das im Jahr 2007 erschien.

EIKE wünscht CLINTEL und seinem neuen Präsidenten allen Erfolg.

 

 

Der Beitrag Prof. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident von Tschechien, ist neuer Präsident von CLINTEL erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Steigende Strompreise? Grüne Politik ist dafür verantwortlich!

4. Dezember 2025 - 19:00

CFACT Ed, Steve Goreham

Die Strompreise steigen, und die Demokraten geben Präsident Trump die Schuld dafür. Seit Jahren wird in Medienartikeln behauptet, dass erneuerbare Energien den günstigsten Strom liefern und dass Wind- und Solarkraftwerke billiger seien als Kohle, Erdgas und Kernkraft. Aber in den US-Bundesstaaten, die auf grüne Energie setzen, Wind- und Solaranlagen installieren und Kohlekraftwerke schließen, steigen die Preise rasant an.

Rahm Emanual, ehemaliger demokratischer Bürgermeister von Chicago und Stabschef des Weißen Hauses, sagte kürzlich, dass höhere Stromrechnungen „eine direkte Folge des One Big Beautiful Bill Act (OBBB) sind, der die Subventionen für grüne Energie gekürzt hat“. Der OBBB wurde jedoch erst im Juli verabschiedet, die Subventionskürzungen treten erst 2027 in Kraft, und die Strompreise steigen bereits seit vielen Jahren, obwohl die Subventionen weiterhin gezahlt wurden. Staaten, die sich für grüne Energie einsetzen und sich intensiv mit Klimapolitik beschäftigen, leiden unter den steigenden Preisen.

Daten des US-Energieministeriums (DOE) zeigen, dass die Strompreise in Kalifornien, Connecticut, Maine, Maryland, Massachusetts und New York in den letzten fünf Jahren um mehr als 30 Prozent gestiegen sind, verglichen mit nur 22,5 Prozent auf nationaler Ebene. Aufgrund der Klimapolitik haben diese Bundesstaaten in den letzten 15 Jahren ihre Kohlekraftwerke geschlossen, mit Ausnahme eines Kohlekraftwerks in Maryland und eines in Maine. Im Vergleich dazu steigen die Preise in Georgia, Florida, Missouri, Texas und anderen Bundesstaaten, die weniger von Initiativen für grüne Energie betroffen sind, weniger stark als im US-Durchschnitt. Diese Bundesstaaten setzen weiterhin auf kostengünstigere Kohlenwasserstoffe für die Stromerzeugung.

Die Strompreise in Kalifornien sind in den letzten fünf Jahren um 59 % gestiegen. Der Bundesstaat hat alle Kohlekraftwerke bis auf eines und alle Kernkraftwerke bis auf das Kraftwerk Diablo Canyon geschlossen. Kalifornien hat nun mit 31,9 Cent pro Kilowattstunde die zweithöchsten Strompreise für Privathaushalte in den USA, fast doppelt so viel wie der nationale Durchschnittspreis von 16,5 Cent. Die massiven Investitionen des Bundesstaates in erneuerbare Energien, die 2024 mehr als die Hälfte der Stromerzeugung in Kalifornien ausmachten, haben den Preisanstieg vorangetrieben.

Die Strompreise in Massachusetts sind in den letzten fünf Jahren um 31 % gestiegen. Die Preise für Privathaushalte liegen bei 29,4 Cent/kWh und sind damit die dritthöchsten in den USA. Aufgrund der Schließung von Kohlekraftwerken und des Kernkraftwerks Pilgrim im Jahr 2019 erzeugt der Bundesstaat nur noch etwa die Hälfte der Strommenge, die er 2010 produziert hat. Im Jahr 2024 stammte etwa ein Viertel der Stromerzeugung in Massachusetts aus gewerblichen und privaten Solaranlagen. Es ist geplant, dass alle neuen Erzeugungskapazitäten aus Wind- und Solarenergie stammen sollen.

Die steigenden Strompreise waren ein zentrales Thema bei den Gouverneurswahlen in New Jersey. Die Kandidaten Jack Cittarelli und Mikie Sherrill kritisierten beide die Energiepolitik des scheidenden Gouverneurs Phil Murphy. Angetrieben von den Zielen für grüne Energie schloss New Jersey während der Amtszeiten der Gouverneure Murphy und Chris Christie ein Kernkraftwerk, fünf Kohlekraftwerke und zwei Gaskraftwerke. Aufgrund der Kraftwerksschließungen muss der Bundesstaat nun etwa ein Fünftel seines Stroms aus anderen Bundesstaaten importieren. Sowohl Murphy als auch Christie förderten die Offshore-Windenergie, doch diese Projekte sind nun aufgrund steigender Kosten und des Widerstands der Trump-Regierung ins Stocken geraten.

Grün-politische Maßnahmen haben in Neuengland zu einer kostspieligen Erdgasverknappung geführt. Im Jahr 2024 wurden 55 % des Stroms für Haushalte in Neuengland aus Gas erzeugt. Doch mehr als ein Jahrzehnt lang blockierte New York den Bau von Gaspipelines nach Neuengland, um die CO₂-Emissionen zu reduzieren. Um die Verknappung zu verringern, importiert die Region Flüssigerdgas aus Kanada und Übersee zu höheren Preisen.

Der Mangel an Pipelines zwingt die Einwohner von Connecticut und anderen Bundesstaaten Neuenglands dazu, im Vergleich zu Einwohnern anderer Bundesstaaten bis zu doppelt so viel für Gas zu bezahlen. Die Strompreise in Connecticut sind in den letzten fünf Jahren vor allem aufgrund der Gasbeschränkungen um 31 % gestiegen. Die Trump-Regierung drängt auf die Wiederbelebung der Constitution- und NESE-Pipelines, um kostengünstigeres Gas nach Neuengland zu bringen – Projekte, die von New York blockiert wurden.

Die Strompreise in New York sind in den letzten fünf Jahren um 37 % gestiegen. Der New York State Scoping Plan sieht vor, dass bis 2030 70 % des Stroms aus erneuerbaren Energien und bis 2040 100 % aus emissionsfreien Quellen stammen sollen. Der Bundesstaat hat 2020 sein letztes Kohlekraftwerk und auch das Kernkraftwerk Indian Point geschlossen und plant, zunehmend Strom aus Wind- und Solarenergie zu erzeugen. Da erneuerbare Energien jedoch nicht schnell genug ausgebaut wurden, warnt der New York Independent System Operator nun vor einer zunehmenden Stromknappheit.

Die Strompreise in Florida, Georgia, Missouri und Texas sind in den letzten fünf Jahren um 21 % oder weniger gestiegen. Diese Bundesstaaten setzen weiterhin auf kostengünstigere Kohlenwasserstoffbrennstoffe zur Stromerzeugung: Florida (73 % Gas, 6 % Kohle), Georgia (41 % Gas, 16 % Kohle), Missouri (14 % Gas, 67 % Kohle) und Texas (54 % Gas, 21 % Kohle).

Andere Daten des DOE zeigen, dass die Strompreise in den führenden Windstaaten in den meisten Fällen schneller steigen als der nationale Durchschnitt. Von 2008 bis 2024 stiegen die nationalen Preise um 33,4 %, wobei der größte Teil des Anstiegs in den letzten fünf Jahren zu verzeichnen war. In sieben der zwölf führenden Windenergie-Bundesstaaten stiegen die Strompreise jedoch schneller als im nationalen Durchschnitt, darunter Kalifornien (116 %), Minnesota (59 %), Oregon (57 %), Kansas (51 %), Colorado (42 %), Nebraska (40 %) und Iowa (37 %). Windenergie ist teurer als herkömmliche Stromquellen, da sie große Flächen benötigt, zwei- bis dreimal so viel Übertragungsinfrastruktur erfordert und aufgrund ihrer Unbeständigkeit durch regelbare Kraftwerke abgesichert werden muss.

Die Demokraten sollten aufhören, den Republikanern die Schuld für die steigenden Energiepreise in den von Demokraten regierten Bundesstaaten zu geben, die durch ihre eigene grüne Energiepolitik verursacht werden. Wenn sie wollen, dass sich die Preise umkehren, sollten sie die Stromquellen nutzen, die tatsächlich billiger sind.

Originally published in The Wall Street Journal.

Link: https://www.cfact.org/2025/11/26/electricity-prices-going-up-green-policy-is-to-blame/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Steigende Strompreise? Grüne Politik ist dafür verantwortlich! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

COP30 stellt die Klimaschutz-Polizei vor

4. Dezember 2025 - 17:00

Anthony Watts

Die Klimakonferenzen der Vereinten Nationen, auch bekannt als COP (Conference of Parties), waren schon immer von dramatischen bürokratischen Auseinandersetzungen geprägt, aber die COP30 in Belém brachte etwas Neues. Anstelle einer weiteren Runde von CO2-Zusagen stellten die Delegierten diesmal die Erklärung zur Informationsintegrität im Klimawandel vor. Diese liest sich weniger wie ein wissenschaftliches Dokument, sondern eher wie eine Gebrauchsanweisung zur Überwachung der öffentlichen Debatte. Allein schon der Tonfall lässt genau erkennen, in welche Richtung das geht.

Die Erklärung beginnt mit den üblichen Hinweisen auf die Dringlichkeit. Darin heißt es: „Die Dringlichkeit der Klimakrise erfordert nicht nur entschlossenes Handeln der Staaten, sondern auch das breite Engagement aller Teile der Gesellschaft.“ Diese Formulierung lässt die Alarmglocken läuten. Das Orwell’sche Dokument macht deutlich, dass Engagement nur dann willkommen ist, wenn es von den zuständigen Behörden genehmigt wurde.

Als Nächstes betont die Erklärung, dass jeder Zugang zu „konsistenten, zuverlässigen, genauen und evidenzbasierten Informationen über den Klimawandel“ haben muss, um das zu schaffen, was sie als „öffentliches Vertrauen in Klimapolitik und -maßnahmen“ bezeichnet. Das ist bezeichnend. Vertrauen ist in ihrer Darstellung eher ein Produkt von Informationsmanagement von oben nach unten als von Transparenz oder offener Debatte. Echte Wissenschaft braucht kein gesteuertes Vertrauen. Sie verdient es sich.

Die Erklärung beklagt lautstark „Fehlinformationen“, „Desinformation“ und den neuesten Sammelbegriff: „Leugnung“. Früher bezeichneten diese Begriffe offensichtliche Unwahrheiten. Heute bedeuten sie einfach „Ideen, die den Verantwortlichen nicht gefallen“. In diesem Rahmen wird das Stellen grundlegender wissenschaftlicher Fragen zu Verzerrungen in Klimamodellen, Problemen der Datenhomogenität, politischen Auswirkungen oder Beobachtungsunsicherheiten von gesunder Skepsis zu Ketzerei. Es handelt sich um den gleichen rhetorischen Trick, den Inquisitionen im Laufe der Geschichte angewendet haben: Zweifel für unmoralisch erklären und dann reglementieren.

Das Dokument erhebt wiederholt etablierte Institutionen zu Hütern der „Wahrheit“. So „erinnert es beispielsweise an die Bedeutung des Zwischenstaatlichen Ausschusses für Klimawandel“ bei der Bereitstellung „genauer, konsistenter und evidenzbasierter wissenschaftlicher Informationen“. Der IPCC wird weniger als wissenschaftliche Einrichtung behandelt, sondern vielmehr als letzte Instanz, deren Schlussfolgerungen nicht in Frage gestellt werden dürfen.

Nachdem die Präambel die emotionale Grundlage geschaffen hat, geht die Erklärung zu den Empfehlungen über. Die erste wichtige Verpflichtung lautet: „Förderung der Integrität von Informationen zum Klimawandel auf internationaler, nationaler und lokaler Ebene im Einklang mit den internationalen Menschenrechtsgesetzen, einschließlich der Standards zur Meinungsfreiheit.“ Diese Kombination ist bemerkenswert. Sie versucht, Informationskontrolle und Meinungsfreiheit so miteinander zu verbinden, dass beide Begriffe bedeutungslos werden.

In einem anderen Abschnitt werden die Unterzeichner aufgefordert, „das Vertrauen in die Klimawissenschaft und wissenschaftlich fundierte Politik zu stärken“. Vertrauen lässt sich nicht durch Erklärungen stärken. Es wird verdient, wenn wissenschaftliche Behauptungen einer genauen Prüfung standhalten. Wenn Behörden beginnen, die Gesellschaft anzuweisen, ihnen zu vertrauen, signalisiert dies einen Mangel an Vertrauen in die zugrunde liegenden Beweise.

Die Erklärung enthält auch Anweisungen für den privaten Sektor. Unternehmen werden aufgefordert, sich „zur Integrität von Informationen über den Klimawandel zu verpflichten“ und „transparente, menschenrechtskonforme Werbepraktiken“ sicherzustellen. Damit werden Unternehmen effektiv dazu aufgefordert, Klimabotschaften innerhalb ihrer eigenen Betriebsabläufe und ihres Marketings zu überwachen.

An die Regierungen wird ein noch deutlicherer Aufruf zum Handeln gerichtet. Die Erklärung fordert sie auf, „politische und rechtliche Rahmenbedingungen zu schaffen und umzusetzen“, die die „Integrität“ von Informationen fördern und gleichzeitig die freie Meinungsäußerung respektieren. Darüber hinaus werden die Regierungen angewiesen, Technologieunternehmen dazu zu drängen zu prüfen, inwiefern ihre Plattformen „die Integrität des Ökosystems der Klimainformationen untergraben“, und Forschern Plattformdaten zur Verfügung zu stellen. Das ist eine höfliche Art zu sagen: Reguliert die Plattformen, bis sie die gewünschte Darstellung durchsetzen.

Der Text fordert die Regierungen außerdem auf, „Kampagnen zum Klimawandel zu fördern” und Initiativen zu unterstützen, die den Zugang der Öffentlichkeit zu „zuverlässigen Informationen” gewährleisten. Wer mit den bisherigen Kommunikationsbemühungen der Regierung vertraut ist, weiß genau, was das bedeutet: mehr steuerfinanzierte Botschaften, mehr einseitige Unterweisung und weniger Raum für abweichende Analysen.

Der Wissenschaft und der Zivilgesellschaft ergeht es nicht besser. Sie werden aufgefordert, „die Integrität von Informationen zum Klimawandel in ihre Arbeit zu integrieren“ und sich Netzwerken anzuschließen, um „bewährte Verfahren“ auszutauschen. Mit anderen Worten: Forschung und Öffentlichkeitsarbeit müssen an den bevorzugten Rahmen angepasst werden, sonst laufen sie Gefahr, als Teil des Informationsproblems angesehen zu werden.

Der letzte Abschnitt richtet sich an Geldgeber. Er fordert sie auf, „an den von der UNESCO verwalteten Globalen Fonds für Informationsintegrität zum Klimawandel zu spenden“. Dadurch entsteht ein zentraler Geldpool, der der Durchsetzung genau der Informationsumgebung dient, die in der Erklärung beschrieben wird. Diese Regelung würde Ressourcen für die Entpolitisierung der öffentlichen Kommunikation nach Standards bereitstellen, die von den gleichen Institutionen festgelegt werden, die von der daraus resultierenden Narrativkontrolle profitieren.

Die Erklärung schließt mit einer einigenden Floskel: Die Unterzeichner bekräftigen ihre Verantwortung, dafür zu sorgen, dass die Gesellschaften „mit dem Wissen und den Informationen ausgestattet werden, die sie benötigen, um dringend und entschlossen zu handeln“. Dies ist eine elegante Art zu sagen, dass die Öffentlichkeit nicht durch Überzeugungsarbeit, sondern durch die Regulierung der Informationen, die sie erhält, auf eine Linie gebracht werden muss.

Wenn man die diplomatische Formulierung beiseite lässt, wird die Absicht klar. Die Klimapolitik hat sich über das Argumentieren hinaus entwickelt. Sie versucht nun, die Diskussion selbst zu regulieren. Dabei geht es nicht darum, die Öffentlichkeit vor Fehlinformationen zu schützen. Es geht darum, Institutionen vor Fragen zu schützen, die sie nicht mehr beantworten wollen. Der Begriff „Informationsintegrität” klingt harmlos, sogar edel, aber die Wirkung ist unverkennbar. Er zentralisiert die Autorität darüber, was gesagt werden darf, von wem und mit welchen Konsequenzen.

Das ist bürokratische Doppelzüngigkeit in Reinkultur, die selbst Orwell als „zu offensichtlich” abgelehnt hätte.

Anthony Watts is a Senior Fellow for Environment and Climate at The Heartland Institute.

Link: https://townhall.com/columnists/anthonywatts/2025/11/25/cop30-unveils-the-climate-speech-police-n2666958?

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag COP30 stellt die Klimaschutz-Polizei vor erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Der Sierra-Club verliert 60% seiner Mitglieder – 350.org ist ausgesetzt

4. Dezember 2025 - 14:00

Joanne Nova

Der Wandel in der Klimakatastrophen-Debatte schreitet voran, und die USA sind dabei führend.

Einige US-amerikanische Basisorganisationen befinden sich bereits in einer existenziellen Krise. Tatsächlich kämpft der Sierra Club seit drei Jahren ums Überleben, aber niemand wollte das erwähnen.

Francis Menton vom Manhattan Contrarian weist auf den außergewöhnlichen Zusammenbruch der größten US-Umweltorganisation, des Sierra Clubs, hin:

Der Sierra Club befindet sich mitten in einer Entwicklung, die man durchaus als Implosion bezeichnen könnte. Die New York Times berichtete am 7. November darüber. Auszug:

Der Sierra Club bezeichnet sich selbst als „größte und einflussreichste Basis-Umweltorganisation des Landes“. Doch gerade jetzt, wo die Umweltschutzmaßnahmen der Trump-Regierung unter Beschuss stehen, befindet sich die Organisation mitten in einer Implosion – geschwächt, abgelenkt und gespalten. Die Gruppe hat 60 Prozent ihrer vier Millionen Mitglieder und Unterstützer aus dem Jahr 2019 verloren. Seit 2022 hat sie drei Entlassungsrunden durchgeführt, um ihr prognostiziertes Haushaltsdefizit von 40 Millionen Dollar auszugleichen. In diesem Jahr, als die Trump-Regierung besser organisiert und besser vorbereitet als in ihrer ersten Amtszeit zurückkehrte, war der Sierra Club das Gegenteil davon. Während Trump die Kohlekraft förderte, Windparks absagte und die Grenzwerte für Umweltverschmutzung zurücknahm, wurde der Club von internem Chaos heimgesucht, das seinen Höhepunkt fand, als der Vorstand seinen Geschäftsführer Ben Jealous feuerte, einen ehemaligen Präsidenten der N.A.A.C.P.

Zweifellos ist ein Teil des Problems Donald Trump und dem DOGE-Effekt zuzuschreiben, aber vieles davon war ein Insider-Job mit Hilfe der jubelnden Medien. Der Sierra Club vergaß, dass er sich eigentlich um die Umwelt kümmern sollte, und sprang auf alle verrückten linken Zugwagen auf, die er finden konnte. Als sie von der Straße abkamen, jubelten ihnen die Medien zu und zensierten jeden, der ihnen zu erklären versuchte, wie die reale Welt funktioniert. So stürzten sie sich wahrhaftig mit doppelter Wucht über die sprichwörtliche Lemming-Klippe.

Beweis dafür, dass selbst die grüne Linke „Go Woke, Get Broke” kann:

Der Sierra Club setzte sich für soziale Gerechtigkeit ein. Dann zerbrach er innerlich.

David A. Fahrenthold und Claire Brown, The New York Times

Während Trumps erster Amtszeit, als der Sierra Club mit Spenden überhäuft wurde, versuchten seine Führungskräfte, weit über den Umweltschutz hinauszugehen und sich auch für andere progressive Anliegen einzusetzen. Dazu gehörten Rassengerechtigkeit, Arbeitnehmerrechte, Rechte von Homosexuellen, Rechte von Einwanderern und vieles mehr. An dieser Neuausrichtung halten sie bis heute fest.

Bis 2022 hatte der Club seine Finanzen aufgebraucht und seine Koalition gespalten.

Er vergraulte langjährige Freiwillige, welche die konsequente Verteidigung der Umwelt durch den Club schätzten, indem er von ihnen verlangte, seine Linksorientierung voll und ganz zu unterstützen. Einige hatten sogar das Gefühl, vom Club überprüft zu werden, weil sie sich nicht daran hielten. Viele eingefleischte Anhänger waren der Meinung, dass der Sierra Club den Schlüssel zu seinem Erfolg beiseite schob: Er war eine vielseitige Gruppe von Aktivisten, die ein gemeinsames Anliegen hatten, manchmal sogar nur ein einziges.

Der Club stellte in diesem Jahr seinen ersten schwarzen Geschäftsführer Herrn Jealous ein, um diesen Niedergang zu stoppen, aber während seiner Amtszeit beschleunigte sich dieser noch, da sich Vorwürfe wegen sexueller Belästigung, Mobbing und übermäßiger Ausgaben häuften.

Ein weiteres Opfer ist 350.org, das Einnahmen verloren hat und seinen Betrieb eingestellt hat.

Und dann gibt es noch 350.org. Diese Organisation ist das Baby des überaus engagierten Klimaaktivisten Bill McKibben, wobei die Zahl „350” angeblich eine Grenze für den CO2-Gehalt in der Atmosphäre angibt, die niemals überschritten werden darf, sonst könnte etwas passieren, das sie für wirklich, wirklich beängstigend halten. (Der aktuelle CO2-Gehalt in der Atmosphäre liegt bei etwa 424 ppm.) Am 13. November, noch während der COP30, stellte 350.org seinen Betrieb ein. Politico vom 13. November:

Die Umweltorganisation 350.org, welche die Bewegung zur Blockierung der Keystone XL-Ölpipeline anführte, wird laut einem Schreiben, das POLITICO am Donnerstag vorlag, ihre Programme in den USA und anderen Ländern aufgrund von Finanzierungsproblemen „vorübergehend aussetzen“. In dem Brief von Geschäftsführerin Anne Jellema an externe Organisationen heißt es, dass 350.org für die Geschäftsjahre 2025 und 2026 einen Einkommensrückgang von 25 Prozent hinnehmen musste, was die Organisation dazu zwingt, ihre Aktivitäten einzustellen. Die Gruppe wird drei Mitarbeiter in den USA behalten, in der Hoffnung, ihre Aktivitäten in Zukunft wieder aufnehmen zu können.

In den USA wurde über das große UN-Klimatreffen in Brasilien nicht einmal in den Nachrichten berichtet.

„… wusstet ihr überhaupt, dass dieses Jahr die COP 30 stattgefunden hat? In einem Artikel für das Civitas Institute stellt Steven Hayward heute fest, dass kein einziger amerikanischer Fernsehsender Reporter zu der diesjährigen Veranstaltung geschickt hat. Auch die Berichterstattung in den amerikanischen Print- und Online-Medien wurde drastisch reduziert. Hayward schreibt: „Einige wenige Reporter, die an der Konferenz teilnahmen, fragten sich in ihren Berichten, ob dies das letzte COP-Treffen sein würde.“

Da Donald Trump nicht teilgenommen hat, haben sich die US-Fernsehsender offenbar nicht die Mühe gemacht, Kamerateams zu entsenden.

Ich kann mich an keine COP-Konferenz erinnern, bei der jemals darüber diskutiert wurde, dass es die letzte sein könnte…

This article originally appeared at JoNova

Link: https://www.cfact.org/2025/11/30/the-sierra-club-loses-60-of-members-350-org-is-suspended/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Der Sierra-Club verliert 60% seiner Mitglieder – 350.org ist ausgesetzt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Begutachtung des Begutachtungs-Verfahrens

4. Dezember 2025 - 11:00

Willis Eschenbach

[Alle Hervorhebungen im Original. A. d. Übers.]

Uns wird ständig erzählt, dass die Wissenschaft eine sich selbst korrigierende Maschine ist. Ein makelloser Motor der Wahrheit, in dem schlechte Ideen verworfen werden und gute wie Sahne an die Oberfläche steigen. Uns wird gesagt, wir sollen „Trust The Science™“, weil sie die magische, mystische Prüfung namens Peer Review bestanden hat.

Schlechte Nachrichten. Die Maschine ist kaputt, die Sahne ist geronnene Milch, und die Torwächter schlafen am Schalter – oder schlimmer noch, sie verkaufen Freikarten an die Vandalen.

Eine neue Studie der Northwestern University mit dem Titel „Organized scientific fraud is growing at an alarming rate [etwa: Organisierte wissenschaftliche Betrügereien nehmen in alarmierendem Maße zu], wie eine Studie aufdeckt“ hat gerade den Vorhang gelüftet, hinter dem sich verbirgt, was viele seit Jahren behaupten. Es stellt sich heraus, dass „organisierte wissenschaftliche Betrügereien“ nicht nur ein paar betrügerische Doktoranden sind, die Daten manipulieren. Nein. Es handelt sich um eine globale Operation im industriellen Maßstab.

Der Studie zufolge haben wir es heute mit „ausgeklügelten globalen Netzwerken“ zu tun, die im Wesentlichen wie kriminelle Organisationen funktionieren. Sie fälschen nicht nur Ergebnisse, sondern erfinden ganze wissenschaftliche Karrieren. Sie verkaufen Autorenplätze in gefälschten Artikeln, als würden sie Eigentumswohnungen in Florida verkaufen.

Sie möchten „Erstautor“ einer bahnbrechenden Physikarbeit sein? Das kostet 5.000 Dollar. Sie möchten Mitautor sein? Wir haben einen Rabatt in Gang drei.

Die Studie stellt fest, dass dieser Betrug „die Wachstumsrate legitimer wissenschaftlicher Publikationen übertrifft“. Denken Sie darüber nach. Der Krebs wächst schneller als der Wirt.

Hilfe!

Und das Peer-Review-System, dieser viel gepriesene Schutzschild, der uns vor Fehlern bewahren soll? Es wirkt weniger wie ein Schutzschild als vielmehr wie ein Sieb.

Aber Moment mal. Bevor wir all dies auf dubiose „kriminelle Netzwerke” und namenlose Papierfabriken in Übersee schieben, sollten wir uns einmal etwas genauer umsehen. Denn die Fäulnis kommt nicht nur von außerhalb des Hauses. Sie kommt aus dem Keller.

Ich habe dies alles schon einmal gesehen. Ich habe es selbst erlebt.

Vor Jahren schrieb ich über meine Erfahrungen mit Peer-Reviews mit Dr. Michael Mann, dem Autor des berüchtigten „Hockeysticks“. Ich nannte ihn einen „Smooth Operator“ und meinte es auch so. In der Klimawissenschaft hat sich „Peer Review“ allzu oft zu „Pal Review“ [Pal = Kumpel, Komplice] gewandelt. Es ist ein gemütlicher Club, in dem Freunde die Arbeiten ihrer Freunde absegnen und, was noch wichtiger ist, die Veröffentlichung von Studien von Leuten wie mir blockieren, die es wagen, den „Konsens“ in Frage zu stellen.

Und wie ich in „Freedom of Information, My Okole“ ausführlich beschrieben hatte, habe ich jahrelang um die Daten und den Code hinter diesen steuerfinanzierten Studien gebeten. Und was habe ich bekommen? Ausflüchte. Ablehnungen. Wie Phil Jones zu Warwick Hughes sagte: „Warum sollte ich Ihnen meine Daten zeigen, wenn Sie nur etwas daran auszusetzen haben wollen?“

Das ist keine Wissenschaft. Das ist eine Priesterschaft, die ihr Dogma schützt.

Das derzeitige Peer-Review-System ist eine Black Box. Ein Herausgeber schickt einen Artikel an zwei oder drei anonyme Gutachter. Wenn diese Gutachter Freunde des Autors sind, wird der Artikel angenommen. Wenn der Autor ein Außenseiter oder Skeptiker ist, können die Gutachter den Artikel heimlich und ohne Rechenschaftspflicht ablehnen, aus Gründen, die nichts mit Wissenschaft zu tun haben, sondern nur mit dem Schutz ihrer Interessen.

Diese Graphik in deutscher Übersetzung:

Natürlich wird nur ein äußerst seltener, vollkommen ehrlicher Gutachter die Veröffentlichung einer Studie zulassen, welche die Grundlagen der Arbeit zerstört, die er sein Leben lang aufgebaut und erläutert hat. Upton Sinclair erklärte treffend: „Es ist schwierig, einem Menschen etwas verständlich zu machen, wenn sein Gehalt davon abhängt, dass er es nicht versteht.“ Ich nenne das die „Sinclair-Falle“, und es ist viel zu leicht, darin zu tappen.

Leider ist die Sinclair-Falle für Wissenschaftler noch schlimmer, weil es nicht nur um Geld geht. Ich habe bereits gesagt, dass „Wissenschaft ein blutiger Sport ist“. Damit meinte ich, dass jede neue wissenschaftliche Entdeckung oder Erkenntnis sehr kostspielig sein kann, nicht nur in Bezug auf das Gehalt, sondern auch in Bezug auf den geschätzten beruflichen Ruf der Vertreter der bisherigen Ansicht.

Es muss nicht teuer sein, wenn der Wissenschaftler, dessen frühere Arbeit diskreditiert wird, ehrlich und offen damit umgeht und bereit ist, voranzukommen und das neue Verständnis anzunehmen und weiterzuentwickeln.

Aber das gilt nicht für alle Wissenschaftler.

Und nun sehen wir das Ergebnis. Ein System, das so undurchsichtig und unkontrollierbar ist, dass es einerseits von kriminellen Syndikaten und andererseits von ideologischen Torwächtern ausgenutzt werden kann.

Was sollen wir also tun? Sollen wir einfach die Hände hochwerfen und sagen: „Wissenschaft ist schwierig“?

Nein. Auf keinen Fall.

Wir brauchen eine grundlegende Überarbeitung. Eine vollständige Abschaffung der Geheimhaltung, die es diesem Problem ermöglicht, im Verborgenen zu gedeihen.

Ich habe bereits zuvor eine Lösung vorgeschlagen, und ich werde sie erneut vorschlagen. Ich nenne sie „Peer Review Plus”.

So funktioniert sie: Sie ist einfach, kostengünstig und würde 90 % dieser Probleme über Nacht lösen.

Zunächst einmal behalten Sie das traditionelle Peer-Review-Verfahren bei. Aber hier kommt der Clou: Sie veröffentlichen alles.

Wenn ein Artikel veröffentlicht wird, dann nicht nur der Artikel selbst. Man veröffentlicht die gesamte Korrespondenz zwischen den Autoren und den Gutachtern. Man veröffentlicht die Namen der Gutachter und Herausgeber. Man veröffentlicht ihre Einwände und die Gegenargumente der Autoren.

Lassen Sie die Welt sehen, wie die Wurst gemacht wurde. Wenn ein Gutachter einen Artikel genehmigt hat, weil er mit dem Autor befreundet ist, wird das offensichtlich sein. Wenn ein Gutachter einen Artikel abgelehnt hat, weil ihm die Schlussfolgerung nicht gefallen hat, wird das ebenfalls offensichtlich sein.

Aber ich möchte noch weiter gehen.

Wir sollten auch alle wertvollen abgelehnten Artikel veröffentlichen.

Wissenschaft funktioniert durch Falsifizierung. Wenn ein Artikel abgelehnt wird, liegt das in der Regel daran, dass ein Gutachter einen Fehler gefunden hat. Diese Falsifizierung, ob gültig oder nicht, ist ein wertvoller wissenschaftlicher Beitrag. Aber derzeit landet sie im Mülleimer der Geschichte.

Wenn ein Gutachter meinen Artikel ablehnt, möchte ich, dass diese Ablehnung – und meine Antwort darauf – öffentlich zugänglich ist. Die Community soll entscheiden, ob die Ablehnung gültig war oder nur eine Form der Zensur.

Wir brauchen auch ein „Open Review”-System, bei dem die Veröffentlichung der Daten und des Codes obligatorisch ist. Mein Freund Mosh pflegte immer zu sagen: „Kein Code, keine Daten, keine Wissenschaft”. Das sollte zu „nicht veröffentlichen!” führen. Punkt.

Und dann, sobald es veröffentlicht ist, öffnen Sie die Diskussion. Erlauben Sie moderierte, nicht anonyme Kommentare im Internet von der größeren wissenschaftlichen Gemeinschaft und der Öffentlichkeit. Die Wahrheit ist, dass diese öffentliche Begutachtung durch die größere Welt die einzig wirklich wertvolle Begutachtung ist.

Die Studie der Northwestern University besagt, dass wir „uns selbst besser kontrollieren“ müssen. Damit haben sie halbwegs Recht. Wir brauchen nicht mehr Kontrolle. Wir brauchen mehr Licht und mehr Transparenz. Sonnenlicht ist das beste Desinfektionsmittel. Derzeit arbeitet die wissenschaftliche Gemeinschaft in einem fensterlosen Raum, und der Schimmel breitet sich aus.

Wir müssen aufhören, „Peer Reviewed“ als Siegel göttlicher Wahrheit zu betrachten, und anfangen, es als das zu behandeln, was es ist: ein fehlbarer, menschlicher und derzeit zutiefst korrumpierbarer Prozess.

Solange wir die Türen nicht aufstoßen und die Öffentlichkeit sehen lassen, wer wen bezahlt, wer wen begutachtet, welche Einwände gegen die Studie vorgebracht wurden und wo sich die Daten tatsächlich befinden, wird dieser Betrug weitergehen. Die Papierfabriken werden weiter produzieren, die Kumpels werden weiter begutachten, und das Vertrauen der Öffentlichkeit in die Wissenschaft wird seinen langen, langsamen Abstieg in den Abgrund fortsetzen.

Sowohl die Öffentlichkeit als auch die Wissenschaftler verdienen Besseres.

NACHTRAG: Nachdem ich Obiges geschrieben hatte, dachte ich, ich würde Perplexity nutzen, um mich über die Geschichte des Peer-Review-Verfahrens zu informieren. Wie immer gibt es für mich noch viel zu lernen. Das ist eine gute Frage für KI, da die Geschichte kein besonders umstrittenes Thema ist. Ich fragte:

Wie sieht die Historie des Peer-Review-Verfahrens in wissenschaftlichen Publikationen aus? Wer hat sich dafür eingesetzt? Wer hat Einwände dagegen erhoben?

Ich fügte meine üblichen Anweisungen hinzu, nicht zu raten, Primärquellen zu verwenden und ähnliches. Hier ist die Antwort:

===

Das Peer-Review-Verfahren in wissenschaftlichen Publikationen entwickelte sich schrittweise von informellen redaktionellen Konsultationen im 17. Jahrhundert zu einem standardisierten externen Begutachtungsverfahren nach dem Zweiten Weltkrieg, mit starker institutioneller Unterstützung durch große wissenschaftliche Gesellschaften und führende Fachzeitschriften sowie anhaltender Kritik von Wissenschaftlern und Fachleuten, die argumentierten, dass es konservativ, voreingenommen und oft unzuverlässig sei. Das moderne Peer-Review-Verfahren wurde nicht von einer einzelnen Person „erfunden“, und die erhaltenen historischen Dokumente lassen keine Zuordnung zu einer bestimmten Person zu. Vielmehr entstand es durch schrittweise Abläufe in Zeitschriften wie den Philosophical Transactions of the Royal Society und später durch formelle Richtlinien in Zeitschriften wie Nature. [1] [2] [3] [4] [5] [6] [7]

 Frühe redaktionelle Überprüfung (17.–18. Jahrhundert)

• Im Jahr 1665 begann Henry Oldenburg mit der Herausgabe der Philosophical Transactions of the Royal Society und holte Rat von sachkundigen Kollegen ein, um zu entscheiden, welche Beiträge gedruckt werden sollten. Historiker betrachten dies als Vorläufer des formellen Begutachtungsverfahrens, obwohl es sich dabei nicht um eine systematische externe Begutachtung im modernen Sinne handelte. [2] [8] [7]

• Im 18. Jahrhundert schuf die Royal Society einen Ausschuss für Veröffentlichungen, der Manuskripte annehmen, zurückstellen, ablehnen oder zur fachlichen Begutachtung an bestimmte Mitglieder weiterleiten konnte, wodurch interne wissenschaftliche Beurteilung in die Satzung der Zeitschrift eingebettet wurde, jedoch weiterhin ohne standardisierte, anonyme externe Begutachtung. [3] [8] [7]

 Institutionalisierung im 19. Jahrhundert

• Im 19. Jahrhundert verwendeten Philosophical Transactions und andere Fachzeitschriften zunehmend schriftliche Gutachten ausgewählter Gutachter, oft Mitglieder der Gesellschaft, um Entscheidungen bzgl. Veröffentlichungen zu treffen, wodurch der Prozess formeller und kollektiver wurde als Oldenburgs weitgehend persönliche redaktionelle Kontrolle. [7] [3]

• Wissenschaftshistoriker betonen, dass die Verfahren je nach Zeitschrift und Fachgebiet sehr unterschiedlich waren und dass selbst dort, wo Gutachten existierten, diese noch keine allgemeine oder einheitliche Anforderung für alle wissenschaftlichen Arbeiten waren. [4] [2]

 Die „moderne“ Begutachtung im 20. Jahrhundert

• Nach dem Zweiten Weltkrieg führten das rasante Wachstum der Anzahl von Manuskripten, die Ausweitung der Fachgebiete und das steigende Ansehen von Fachzeitschriften dazu, dass viele Zeitschriften routinemäßig externe Begutachtungen durch Fachleute einführten, was oft als die Geburtsstunde des „modernen“ Peer-Review-Verfahrens angesehen wird. [9] [1] [4]

• Ende der 1960er und Anfang der 1970er Jahre verfügten führende Zeitschriften wie Nature über formelle Peer-Review-Systeme, und der Begriff „Peer Review” selbst fand breite Verwendung, unterstützt durch Infrastrukturen zur Zitate-Verfolgung, die Veröffentlichungen in peer-reviewten Publikationen belohnten. [10] [4] [9]

 Wer hat sich für die Begutachtung durch Fachkollegen eingesetzt?

• Dokumentarische Belege zeigen, dass Funktionäre und Vorstände wissenschaftlicher Gesellschaften, insbesondere der Royal Society of London und ähnlicher Einrichtungen in Europa und Nordamerika, auf eine systematischere Begutachtung durch Experten drängten, um den wissenschaftlichen Ruf zu schützen, begrenzte Druckbudgets zu verwalten und die wachsende Zahl von Einreichungen zu filtern. [2] [3] [7]

• Herausgeber und Verleger bedeutender Fachzeitschriften in den Bereichen Medizin und Naturwissenschaften förderten Mitte des 20. Jahrhunderts die externe Begutachtung durch Fachkollegen als Instrument zur Qualitätskontrolle und als Gatekeeping- Verfahren. Später verstärkten Regierungs- und Förderbehörden dessen Einsatz, indem sie die Bewertung von Forschungsleistungen und die berufliche Laufbahn an die Veröffentlichung in Fachzeitschriften mit Peer-Review-Verfahren knüpften. [6] [1] [4]

 Wer war gegen Peer Review?

• Historische und zeitgenössische Analysen dokumentieren Einwände von prominenten Wissenschaftlern, darunter Albert Einstein, der sich deutlich dagegen wehrte, als eine seiner Arbeiten einer anonymen externen Begutachtung unterzogen wurde, sowie von späteren Kritikern, die argumentieren, dass Peer-Review innovative oder unkonventionelle Arbeiten unterdrücken kann. [5] [11]

• Methodologische Kritiken in der biomedizinischen und sozialwissenschaftlichen Literatur haben Probleme wie geringe Übereinstimmung zwischen den Gutachtern, Voreingenommenheit, konservative Präferenz für etablierte Paradigmen und begrenzte Fähigkeit zur Erkennung von Fehlern oder Betrug aufgezeigt, und einige Wissenschaftler haben umfassende Reformen oder sogar die Abschaffung der traditionellen Peer-Review vor der Veröffentlichung zugunsten alternativer Modelle gefordert. [12] [13] [1] [6]

Einschränkungen: Die erhaltenen Primärdokumente (Redaktionsprotokolle, Korrespondenz, Gutachten) sind unvollständig und je nach Zeitschrift unterschiedlich, sodass die Zuordnung der „ersten Verwendung” und die Listen der Personen, die sich dafür oder dagegen ausgesprochen haben, zwangsläufig unvollständig sind und keine Primärquelle eine vollständige, definitive Chronologie für alle Disziplinen liefert. [14] [7] [2]

 [1](https://pmc.ncbi.nlm.nih.gov/articles/PMC11215012/)

[2](https://ethos.lps.library.cmu.edu/article/id/19/)

[3](https://arts.st-andrews.ac.uk/philosophicaltransactions/brief-history-of-phil-trans/phil-trans-in-19th-century/)

[4](https://blog.f1000.com/2020/01/31/a-brief-history-of-peer-review/)

[5](https://theconversation.com/hate-the-peer-review-process-einstein-did-too-27405)

[6](https://pmc.ncbi.nlm.nih.gov/articles/PMC4975196/)

[7](https://pmc.ncbi.nlm.nih.gov/articles/PMC4360128/)

[8](https://arts.st-andrews.ac.uk/philosophicaltransactions/brief-history-of-phil-trans/phil-trans-in-18th-century/)

[9](https://mitcommlab.mit.edu/broad/commkit/peer-review-a-historical-perspective/)

[10](https://www.youtube.com/watch?v=RGuaua10oRE)

[11](https://www.experimental-history.com/p/the-rise-and-fall-of-peer-review)

[12](https://pubmed.ncbi.nlm.nih.gov/12127284/)

[13](https://mediatheoryjournal.org/2018/09/03/mieke-bal-lets-abolish-the-peer-review-system/)

[14](https://www.nature.com/articles/d41586-024-03287-4)

Link: https://wattsupwiththat.com/2025/11/29/peer-reviewing-peer-review/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Begutachtung des Begutachtungs-Verfahrens erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Anmerkungen zu Brüssel vom ehemaligen Ministerpräsidenten und Präsidenten der Tschechischen Republik Prof. Dr. Vaclav Klaus

4. Dezember 2025 - 8:00

Vorbemerkung der EIKE-Redaktion: EIKE ist für Klima und Energie zuständig, aber auch für politische Kritik und Diskussionen zu diesen Themen. Im folgenden Vortrag von Prof. Dr. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident der Tschechischen Republik (hier), gibt es keine Beschränkung auf EIKE-Themen. Dazu hätten wir ganze Passagen aus seiner Rede herausschneiden müssten und die Rede wäre unleserlich geworden.  Wir machen lediglich darauf aufmerksam, dass diejenigenTeile der Rede von V. Klaus, die nicht EIKE-Themen sind, hier weder kommentiert, noch thematisiert werden. Formal maßgebend für diese EIKE-News sind die Teile der Rede, die direkt oder indirekt zur Klima- und Energiepolitik der EU gehören wie „Klimaschutz“, „green Deal“, CO2-Bepreisung, Abschaffung des Verbrenner-Motors und weitere unsere Industrie vernichtenden Maßnahmen. EIKE lehnt bekanntlich diese EU-Politik ab, weil sie ideologisch, aber nicht sachlich ist und Deutschland schadet.

Die Rede von Vaclav Klaus ist in Englisch und wurde von uns ins Deutsche übersetzt. Einige EIKE-Mitglieder sind mit Vaclav Klaus persönlich bekannt, so dass auch EIKE immer wieder einmal seine Reden hier publizieren kann. Diesmal ist es seine Rede im MCC Brussels (hier). Sie hat den Arbeitstitel The Battle for the Soul of Europe.

 

Anmerkungen zu Brüssel MCC1)

Vaclav Klaus

3. Dezember 2025

 

Sehr geehrte Damen und Herren,

vielen Dank für die Einladung zu dieser wichtigen Veranstaltung und für die Möglichkeit, hier zu sprechen. Hier in Brüssel. Ich habe etwas Stress den Namen dieser Stadt zu nennen. Für die meisten von Ihnen ist es wahrscheinlich ganz normal, nach Brüssel zu kommen, aber für mich ist das nicht so. Natürlich habe ich diese Stadt während meiner Zeit als Ministerpräsident und Präsident der Tschechischen Republik oft besucht, aber das ist vorbei. In den letzten mehr als zehn Jahren war ich nur einmal in Brüssel. Die Stadt ist nicht mehr die Stadt meiner Träume. Sie hat sich in vielerlei Hinsicht stark verändert seit 1962, als ich hier zufällig an einem Basketballturnier teilgenommen habe.

Es ist neun Jahre her, im Jahr 2016, seit ich das letzte Mal hier war. Ich kam hierher, um die flämische Version meines Buches „Europe All Inclusive: A Brief Guide to Understanding the Current Migration Crisis” ( Europa All Inclusive: Ein kurzer Leitfaden zum Verständnis der aktuellen Migrationskrise) vorzustellen. Dieses Buch kritisierte scharf die Zustimmung Westeuropas (und der EU) zur Masseneinwanderung nach Europa, kritisierte Angela Merkels Slogan „Wir schaffen das” und kritisierte die weit verbreitete europäische Illusion, dass es normal sei zu migrieren und dass jeder das Recht dazu habe. Diese Idee ist eine direkte Ablehnung des Konzepts des Nationalstaates. Wir sehen die Folgen an vielen Orten in Europa, Großbritannien ist in dieser Hinsicht wahrscheinlich führend.

Ich habe wiederholt argumentiert, dass wir die Gründe für Migration falsch interpretieren. Die europäische Nachfrage nach Migranten war als Quelle der Migration viel wichtiger als ihr Angebot. Nicht umgekehrt, wie es normalerweise behauptet wird. Ich erinnere mich, dass das belgische öffentlich-rechtliche Fernsehen während dieses Besuchs mir und meinen Ansichten gegenüber äußerst aggressiv war. Ich habe fast keine ähnlichen Erfahrungen gemacht – ehemalige Staatschefs genießen im Ausland normalerweise zumindest einen gewissen grundlegenden Respekt. Zu Hause ist das natürlich etwas anderes.

Seit den 1990er Jahren ist Brüssel zu einem Inbegriff all dessen geworden, womit ein europäischer Demokrat nicht einverstanden sein kann. Ich bin nicht einverstanden mit der Unterdrückung der Nationalstaaten und mit der Verherrlichung supranationaler Institutionen. Ich bin nicht einverstanden mit der Blockade elementarer Prinzipien der Marktwirtschaft und mit der Förderung lähmender Regulierung – einer Regulierung, die uns, die wir den Kommunismus erlebt haben, immer mehr an die alte zentrale Planwirtschaft erinnert. Politische Korrektheit und die fortwährende Bevormundung durch mächtige Brüsseler Eliten, die ohne elementare Kontrollmechanismen regieren, sind ebenso inakzeptabel. Diese Kontrollmechanismen sind für das Funktionieren der Demokratie unverzichtbar, existieren aber in der EU nicht.

Einige von uns haben ihr Leben dem Kampf gegen solche oder ähnliche Systeme gewidmet, die – wie viele Menschen jetzt verspätet zu verstehen beginnen – nicht nur mit dem offensichtlich unterdrückerischen und tragisch funktionierenden Kommunismus in Verbindung stehen. Wie wir sehen, stehen sie auch mit ähnlichen Systemen in Verbindung, die auf anderen kollektivistischen Ideologien basieren.

Ich entschuldige mich für diese schnelle und nur proklamatorische Zusammenfassung meiner Position, aber es ist unmöglich, diese Themen in einer kurzen Konferenzrede verständlich zu diskutieren.

Lassen Sie mich daher zwei Teilthemen als Beispiele für das aufgreifen, was ich für relevant halte.

Sie haben beschlossen, die heutige Konferenz „Kampf um die Seele Europas” zu nennen. Ist das ein korrekter und angemessener Titel? Ich glaube nicht. Es handelt sich um ein Thema, das ich vor sechzehn Jahren mit dem angesehenen Wiener Kardinal Christoph Schönborn bei einem Diskussionsforum in der bayerischen Stadt Passau erörtert habe. Die damals aufgeworfene Frage lautete: „Gibt es eine Seele Europas?” oder, in milderer Form, „Gibt es eine gemeinsame Idee von Europa?” Meine dortigen Ausführungen finden Sie auf meiner Website (auf Deutsch)2).

Die Europäer, die naiven Befürworter einer politischen Vereinigung Europas, die die Debatte in Passau organisiert hatten, suchten nach einem Konzept, das einen positiven „Europa-integrierenden Effekt” haben könnte. Ich war anderer Meinung. Wie ich damals sagte: „Europa hat keine gemeinsame Idee, es kann keine haben und es braucht auch keine.“ Stattdessen schlug ich vor, nach einem authentischen gemeinsamen Nenner zu suchen, den ich in der Freiheit sehe, etwas, das wirklich zu Europa gehört. Aber Freiheit ist nicht die Seele Europas. Freiheit ist eine soziale oder besser gesagt gesellschaftliche Vereinbarung, in der ein einzelner Mann (oder eine einzelne Frau) nicht vom Staat kontrolliert oder gelenkt wird.

Für Freiheit zu kämpfen bedeutet nicht, für eine pan-kontinentale Gemeinschaft oder für einen kulturell völlig homogenen Raum zu kämpfen. Europa ist nicht homogen. Wir sollten auch nicht so tun, als gäbe es eine gemeinsame Geschichte Europas (die es natürlich nicht gibt). Und wir sollten nicht künstlich eine „Seele Europas” erfinden. Solche Bemühungen können nur zur Verfälschung der Geschichte und der heutigen Realität führen. Unser Kontinent hat weder eine gemeinsame Idee noch eine Seele. Die Existenz einiger allgemein akzeptierter Werte ist wichtig, schafft aber keine Seele.

Ich betone immer wieder, dass die unbestreitbare Existenz eines europäischen Zivilisationsraums etwas völlig anderes ist als das künstliche Konstrukt namens Europäische Union. Wir sollten diese beiden Dinge nicht miteinander vermischen.

Ich habe die künstliche Intelligenz gefragt, ob ich jemals den Begriff „Seele Europas“ verwendet habe. Die Antwort war nein. Er (oder sie) sagte auch, dass ich den Begriff „kollektive Psyche Europas“ verwendet habe. Aber ich habe ihn ironisch verwendet, als etwas, das von den europäistischen Eliten in ihren Bemühungen zur Förderung des sehr fragwürdigen Projekts der politischen Vereinigung Europas propagiert wird.

Betrachten wir die EU einmal pragmatisch und realistisch. Es handelt sich um eine Gruppierung von Ländern, die einige gemeinsame Interessen haben und diese gemeinsam verfolgen wollen. Die Ökonomen würden von sogenannten öffentlichen Gütern auf kontinentaler Ebene sprechen, aber sie wissen, dass es davon nicht viele gibt.

Lassen Sie mich nun zu meinem zweiten Thema kommen. Ich nehme an einem europäischen Forum nach dem anderen teil. Die europäische Gesellschaft ist wohlhabend genug, um solche Zusammenkünfte großzügig zu finanzieren. Eine der prominenten Persönlichkeiten bei solchen Treffen ist Mario Draghi (aber wir könnten auch einige andere bekannte Konferenzredner nennen). Seine jüngste Rede in Rimini hat mich dazu veranlasst, ihn – auf einem Forum in Lugano – als den Gorbatschow der Europäischen Union von Ursula von der Leyen zu bezeichnen. Er spricht wie ein typischer „Perestroika“-Mann, falls sich noch jemand an diesen Begriff erinnert. Draghi möchte die Grundlage der aktuellen EU-Vereinbarungen intakt halten. Gorbatschow wollte ebenfalls den Kommunismus bewahren, strebte jedoch an, ihn – technokratisch – effizienter zu gestalten.

Nach dem Fall des Kommunismus lehnten wir – in den meisten mittel- und osteuropäischen Ländern – die Idee der Perestroika, diese Form eines „dritten Weges”, ab und erklärten stattdessen, dass wir den Kapitalismus, den ersten Weg, wollten. Ich möchte hier kein Geschichtsseminar halten, sondern spreche darüber, weil ich überzeugt bin, dass wir – in ähnlicher Weise – jetzt einen systemischen Wandel in ganz Europa brauchen.

Die Märkte sind nicht frei. Die Märkte in Europa wurden in den letzten Jahrzehnten so stark besteuert, reguliert und unterdrückt, dass wir – statt einer Informationsrevolution oder Digitalisierung – eine Rückkehr zu freien Märkten brauchen. Digitalisierung ist nicht das Gegenteil eines überregulierten Marktes, sondern eine Methode, um Regulierung einfacher und effizienter zu gestalten. Das Ziel der politischen Eliten ist es, uns effektiver zu regulieren. Heute befinden sich die Volkswirtschaften der EU-Länder in einer untergeordneten Position. Die Wirtschaft wird wieder einmal von der Politik diktiert.

Der Green Deal ist die offensichtlichste Verkörperung der grünen Politik, und trotz aller Kritik von vielen vernünftigen Gegnern gerät die EU immer tiefer in diese Falle, in diesen unverantwortlichen Irrtum. Um ihn zu beseitigen, brauchen wir die freie Meinungsäußerung als einzigen Weg zu einer grundlegenden Veränderung, nicht nur zu einer weiteren Perestroika.

Ich bin überzeugt, dass die MCC-Konferenz hier in Brüssel eine seltene Veranstaltung ist, die einen freien Meinungsaustausch ermöglicht. Ich danke Ihnen für die Einladung, hier zu sprechen.

 

  • 1) “Battle for the Soul of Europe”, MCC Brussels Conference, December 3, 2025, Brussels
  • 2) Notizen für Passau: Gibt es eine gemeinsame Idee Europas? Passauer Gespräche, Mediazentrum der Verlagsgruppe Passau, Passau, 16. September 2009; https://www.klaus.cz/clanky/1247

 

Der Beitrag Anmerkungen zu Brüssel vom ehemaligen Ministerpräsidenten und Präsidenten der Tschechischen Republik Prof. Dr. Vaclav Klaus erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

„Das Weißwaschen von Climategate geht weiter“ – Der Skandal eines Skandals

3. Dezember 2025 - 19:00

Robert Bradley Jr., MasterResource

Es ist unmöglich, etwas zu finden, wenn man nicht wirklich danach sucht… [Sir Muir Russells Ausschuss] hat nur CRU-Mitarbeiter befragt, nicht die Leute, die von CRU verleumdet worden waren.“ (Patrick Michaels, unten)

Am 16. Jahrestag von Climategate ist ein Leitartikel aus dem Jahr 2010 des verstorbenen Patrick J. Michaels aktueller denn je. Michaels, der scharfsinnigste Klimawissenschaftler, der sich gegen den alarmistischen Konsens aussprach, würde sich über das Scheitern des Pariser Abkommens und „Net Zero“ auf der diesjährigen COP30 freuen. Es folgt sein Leitartikel, der im Wall Street Journal (12. Juli 2010) veröffentlicht worden war.

Alarmisten der globalen Erwärmung fühlen sich nach dem Skandal um Datenmanipulationen im letzten Jahr bestätigt. Glauben Sie den „unabhängigen” Gutachten nicht.

Im November letzten Jahres gab es weltweit einen Aufschrei, als eine Fülle von E-Mails veröffentlicht worden war, die darauf hindeuteten, dass einige der weltweit führenden Klimaforscher sich berufliches Fehlverhalten, Datenmanipulationen und Fälschungen sowohl in der wissenschaftlichen Literatur als auch bei Klimadaten zuschulden kommen ließen, um das zu zeichnen, was der Wissenschaftler Keith Briffa als „eine schöne, ordentliche Geschichte” der Klima-Historie bezeichnete. Der Skandal wurde als „Climategate” bekannt.

Nun kommt eine angeblich unabhängige Überprüfung der Beweise zu dem Schluss, dass es „nichts zu sehen gibt”. Letzte Woche sprach die von der University of East Anglia in Auftrag gegebene und finanzierte „Unabhängige Überprüfung der E-Mails zum Klimawandel” die University of East Anglia frei. Den Vorsitz des Überprüfungsausschusses hatte Sir Muir Russell, ehemaliger Vizekanzler der University of Glasgow.

Herr Russell bemühte sich, sein aus vier weiteren Wissenschaftlern bestehendes Komitee als unabhängig darzustellen. Er erklärte gegenüber der Londoner Zeitung „The Times“, dass „es angesichts der Art der Vorwürfe richtig ist, dass jemand, der weder mit der Universität noch mit der Klimawissenschaftsgemeinschaft in Verbindung steht, die Beweise prüft und auf der Grundlage seiner Erkenntnisse Empfehlungen ausspricht“.

Keine Verbindungen? Eines der vier Mitglieder des Gremiums, Prof. Geoffrey Boulton, war 18 Jahre lang an der Fakultät für Umweltwissenschaften der University of East Anglia tätig. Zu Beginn seiner Amtszeit wurde die Climatic Research Unit (CRU) – die Quelle der Climategate-E-Mails – an Boultons Fakultät in East Anglia gegründet. Im vergangenen Dezember unterzeichnete Boulton eine Petition, in der er erklärte, dass die Wissenschaftler, welche die globalen Klimadaten in East Anglia erhoben hatten, „höchste professionelle Integrität“ bewiesen hätten.

Diese angeblich unabhängige Überprüfung folgt auf zwei andere – eine von der University of East Anglia selbst und eine von der Penn State University, die beide im Frühjahr abgeschlossen wurden und sich auf ihren eigenen Mitarbeiter bezogen, Prof. Michael Mann. Mann war einer der Hauptakteure des Climategate-Skandals, der einen Plan vorschlug, der in E-Mails klar dargelegt wurde und deren Echtheit Herr Mann nicht angezweifelt hat, um eine wissenschaftliche Zeitschrift zu zerstören, die es gewagt hatte, drei Artikel zu veröffentlichen, mit denen er und seine Freunde aus East Anglia nicht einverstanden waren. Auch diese beiden Untersuchungen sahen nichts Verwerfliches. So kam die Penn State University beispielsweise zu dem Schluss, dass Dr. Michael E. Mann weder direkt noch indirekt an Handlungen beteiligt war, die ernsthaft von den in der akademischen Gemeinschaft akzeptierten Verfahren abwichen.

Leser beider früherer Berichte sollten wissen, dass beide Institutionen mehrere Millionen Dollar an staatlichen Fördermitteln für die Erforschung der globalen Erwärmung erhalten (was durch Einsichtnahme in die Fördermittelhistorie von Herrn Jones oder Herrn Mann bestätigt werden kann, die aus öffentlichen Quellen zusammengestellt wurde und online unter freerepublic.com verfügbar ist). Jedes Eingeständnis eines substanziellen wissenschaftlichen Fehlverhaltens würde wahrscheinlich zu einem erheblichen Verlust an Fördermitteln führen.

Es ist unmöglich, etwas Falsches zu finden, wenn man nicht wirklich danach sucht. In einer berühmten E-Mail vom 29. Mai 2008 schrieb Phil Jones, Direktor des CRU in East Anglia, unter dem Betreff „IPCC & FOI” an Mann: „Können Sie alle E-Mails löschen, die Sie mit Keith [Briffa] bezüglich AR4 [dem Bericht des Intergovernmental Panel on Climate Change (IPCC)] ausgetauscht haben? Keith wird das Gleiche tun … Können Sie auch Gene [Wahl, einem Mitarbeiter des US-Handelsministeriums] eine E-Mail schicken, damit er das Gleiche tut … Wir werden Caspar [Amman vom US-amerikanischen National Center for Atmospheric Research] bitten, das Gleiche zu tun.”

Herr Jones schrieb später in einer E-Mail, dass er „eine Menge E-Mails gelöscht“ habe, damit jeder, der einen Antrag nach dem Freedom of Information Act stellen würde, nur sehr wenig erhalten würde. Laut Fred Pearce, Autor bei New Scientist, „haben Russell und sein Team Jones oder seine Kollegen nie gefragt, ob sie dies tatsächlich getan haben“.

Der Russell-Bericht stellt fest: „Was die Behauptung betrifft, Temperaturdaten zurückgehalten zu haben, so stellen wir fest, dass das CRU nicht in der Lage war, den Zugang zu solchen Daten zu verweigern.“ Wirklich? Hier ist, was CRU-Direktor Jones im Februar 2005 an den australischen Wissenschaftler Warrick Hughes schrieb: „Wir haben etwa 25 Jahre in diese Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn Ihr Ziel darin besteht, Fehler darin zu finden[?]“

Dann gibt es noch das Problem der Einmischung in die Begutachtung durch Fachkollegen in der wissenschaftlichen Literatur. Auch hier konnte Russell keinen Fehler feststellen: „Was die Vorwürfe betrifft, dass es zu einer Untergrabung des Begutachtungs- oder Redaktionsprozesses durch Fachkollegen gekommen sei, finden wir keine Beweise, die dies belegen.“

Wirklich? Herr Mann behauptet, dass die Temperaturen vor etwa 800 Jahren, in der sogenannten mittelalterlichen Warmzeit, nicht so hoch waren wie die kürzlich gemessenen. Dies ist wichtig, denn wenn die heutigen Temperaturen nicht ungewöhnlich sind, lässt dies Zweifel an der Befürchtung aufkommen, dass die globale Erwärmung eine ernsthafte Bedrohung darstellt. Im Jahr 2003 veröffentlichten Willie Soon vom Smithsonian Institute und Sallie Baliunas von der Harvard University einen Artikel in der Fachzeitschrift Climate Research, in dem sie Manns Arbeit kritisierten, die auch im Widerspruch zu einer Vielzahl unabhängiger Studien zum Paläoklima stand. Es scheint also, dass der Artikel von Soon und Baliunas nur Teil des normalen wissenschaftlichen Diskurses war.

Aber Jones schrieb Mann am 11. März 2003: „Ich werde der Zeitschrift per E-Mail mitteilen, dass ich nichts mehr mit ihr zu tun haben will, bis sie diesen lästigen Herausgeber losgeworden ist, nämlich Chris de Freitas von der Universität Auckland.“ Mann antwortete Jones noch am gleichen Tag: „Ich denke, wir sollten Climate Research nicht mehr als seriöse Fachzeitschrift mit Peer-Review betrachten. Vielleicht sollten wir unsere Kollegen dazu ermutigen, keine Artikel mehr bei dieser Zeitschrift einzureichen oder zu zitieren. Wir müssten auch überlegen, was wir unseren vernünftigeren Kollegen, die derzeit im Herausgeberbeirat sitzen, sagen oder von ihnen verlangen.“

Mann schrieb schließlich am 11. Juli 2003 an Jones: „Ich denke, die Gemeinschaft sollte … ihre Beteiligung an dieser Zeitschrift auf allen Ebenen beenden … und sie in Vergessenheit und Verruf geraten lassen.“

Climate Research und mehrere andere Fachzeitschriften akzeptieren keine Beiträge mehr, welche die gängige Meinung zum Thema globale Erwärmung, wie sie vom CRU vertreten wird, grundlegend in Frage stellen. Seit den CRU-Machenschaften wurden vier meiner Manuskripte, die völlig in Ordnung waren, ohne weitere Prüfung abgelehnt, und ich bin bei weitem nicht der Einzige. Roy Spencer von der University of Alabama in Huntsville hat festgestellt, dass es fast unmöglich geworden ist, in Fachzeitschriften mit Peer-Review etwas zum Thema globale Erwärmung zu veröffentlichen, das nicht alarmistisch ist.

Natürlich hat Russell nicht untersucht, ob die in den Climategate-E-Mails diskutierten hässlichen Druckmethoden irgendwelche Konsequenzen hatten. Das liegt daran, dass sie nur CRU-Mitarbeiter interviewt haben, nicht aber die Leute, die CRU schlecht gemacht hatte.

Link: https://wattsupwiththat.com/2025/11/28/the-climategate-whitewash-continues-scandal-of-a-scandal/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag „Das Weißwaschen von Climategate geht weiter“ – Der Skandal eines Skandals erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Wenn die BBC Net Zero niemals hinterfragt, könnten die Journalisten genauso gut durch ChatGPT ersetzt werden.

3. Dezember 2025 - 17:00

Chris Morrison, THE DAILY SCEPTIC

Denken Sie an Justin Rowlatt von der BBC, der sich bedrückt und unbehaglich auf den baumlosen „Highway of Shame” zum Flughafen Belém begibt und über die Trümmer der gescheiterten COP30 nachdenkt. Er ist kein Mann ohne Intelligenz, daher kann er sich ausrechnen, dass der größte Teil der Welt gerade der Gefahr des „Großen Sprungs nach vorn” entgangen ist, den die Net-Zero-Phantasterei ausgelöst hat. Das Unbehagen entsteht, wenn er an seine Blütezeit zurückdenkt, in der er eine immer unwahrscheinlichere „feststehende“ klimawissenschaftliche Erzählung verbreitete, die bewusst alle Fakten und Meinungen ignorierte, die der politischen Agenda von Net Zero zuwiderliefen. Alles umsonst, könnte er denken, abgesehen natürlich von der überschwänglichen Verehrung, die er in der BBC-Blase im Norden Londons genießt. Aber jetzt, da Netto-Null am Ende ist, müssen er und die zahlreichen anderen, von der BBC-Klimapolitik profitierenden Aktivisten sich vage bewusst sein, dass eine vereinfachte, vorbestimmte, aber zunehmend veraltete Erzählung in Zukunft leicht durch KI ersetzt werden kann.

Die Meinungen mögen auseinandergehen, aber eine entsprechend programmierte KI könnte leicht einen Großteil der Klimaberichterstattung der BBC aus den letzten zwei Jahrzehnten reproduzieren.

Falls man jahrelang einer bestimmten Erzählung folgt, indem man sich die schlimmsten computergestützten Klimapanik-Erfindungen herauspickt, um eine Massenklimapsychose auszulösen, dann wird die KI einen einholen. Es ist eine Sache von Sekunden, eine wissenschaftliche Arbeit in Grok zu laden und es zu bitten, eine alarmistische Geschichte zu produzieren, die sich auf die beängstigendsten Vorhersagen „Wissenschaftler sagen“ im Stil eines ausgewählten Mainstream-Medienaktivisten konzentriert. Es wird einfach und erheblich billiger sein, den Klimaschwindel aufrechtzuerhalten, da alle Debatten weiterhin unterbunden, konkurrierende Meinungen ignoriert und die Intelligenz des britischen Volkes wie gewohnt täglich beleidigt werden.

Die BBC ist einer der wichtigsten Förderer des Oxford Climate Journalism Network (OCJN), das einen sechsmonatigen Vorbereitungskurs für Journalisten anbietet. Eine der jüngsten Testaufgaben bestand darin, die Teilnehmer zu bitten, einen Artikel darüber zu schreiben, warum eine Frucht wie die Mango in diesem Jahr aufgrund des Klimawandels weniger schmackhaft war als im letzten Jahr. Warum nicht Grok bitten, dies mit einer festgelegten Anzahl von Wörtern zu tun – das ist viel einfacher. Aber Grok ist ausgewogener als gefälschte Klimajournalisten – es liefert auch einen plausiblen Artikel ähnlicher Länge, in dem erklärt wird, warum Mangos aufgrund des Klimawandels derzeit schmackhafter sind.

Ihr Korrespondent ist seit einigen Jahrzehnten im Journalismus tätig und hat erstaunliche Veränderungen miterlebt. Eine seiner ersten Aufgaben bestand darin, eine monatliche Seite mit dem Titel „Große Verluste und Katastrophen” zusammenzustellen, für die er kurze Zusammenfassungen aus verschiedenen Nachrichtenquellen verfassen musste. Das war zeitaufwändig und erforderte gründliche Recherchearbeit, aber heute könnte dies innerhalb von Sekunden von einer KI erledigt werden. Das Verfassen von Artikeln, das Erstellen von Texten auf der Grundlage von Pressemitteilungen und das Nachplappern dessen, was alle anderen Journalisten sagen, kann zunehmend einem automatisierten Prozess überlassen werden. KI ist besonders gut darin, eine Echokammer zu replizieren.

Alle sechs Monate melden sich über 100 Journalisten aus aller Welt für den OCJN-Kurs an. Warum halten sie es für angemessen, dass ein kritischer Journalist die gleiche Erzählung übernimmt und sich vorschreiben lässt, wie man „richtig” über die sogenannte Klimakrise schreibt? Der „Green Blob” in Form des ehemaligen Finanzchefs von Extinction Rebellion, Sir Christopher Hohn, bezahlt ihre Ausbildung, und es wäre naiv anzunehmen, dass der „Green Blob” keine Gegenleistung für seine beträchtliche Investition erwartet.

Anfang dieses Jahres teilte uns der leitende Wettermoderator der BBC Simon King mit, dass die durchschnittliche Temperatur im Frühjahr in Großbritannien seit 1970 um 1,8 °C gestiegen ist.

Er schrieb Folgendes:

Die durchschnittliche Temperatur im Frühling ist seit 1970 um 1,8 °C gestiegen, wodurch diese Jahreszeit für alle vier Nationen von UK zur sich am schnellsten erwärmenden Jahreszeit geworden ist.

In einer Pressemitteilung von Climate Central, das von Green Blob finanziert wird, heißt es dazu:

Die durchschnittliche Temperatur im Frühling ist in UK seit 1970 um 1,8 °C gestiegen, wodurch der Frühling zur sich am schnellsten erwärmenden Jahreszeit für das gesamte UK geworden ist.

Wo liegt darin der zusätzliche Wert für die Berichterstattung? Warum scheint der leitende Wettermoderator der BBC nicht in der Lage zu sein, sich die Temperaturkurve des Met Office anzusehen, aus der eindeutig hervorgeht, dass die Temperaturen in diesem Zeitraum um 1,3 °C gestiegen sind? Aber es kommt noch schlimmer, denn 1970 ist ein Datum, das von den Aktivisten von Climate Central als Tiefpunkt nach einem Rückgang der Temperaturen in Großbritannien seit etwa 1940 herausgegriffen wurde. Wenn man 80 Jahre zurückgeht, um einen aussagekräftigeren Klimatrend zu erhalten, sinkt der Wert auf 0,85 °C. Und diese Temperaturen, insbesondere die jüngsten, sind durch große unnatürliche Wärmeverfälschungen aufgebläht, die ein offensichtliches Merkmal der Messungen des Met Office sind. Insgesamt dürfte der Temperaturanstieg im britischen Frühling ähnlich hoch sein wie die Erwärmung um 1 °C, die seit dem Ende der Kleinen Eiszeit Mitte des 19. Jahrhunderts zu verzeichnen war.

Paul Homewood schrieb am Dienstag einen ausgezeichneten Artikel im Daily Sceptic, in dem er feststellte, dass eine der Erkenntnisse von Belém der Niedergang Europas als Machtfaktor in der Weltpolitik sei. „Während die reichen westlichen Länder weiterhin entschlossen sind, das Netto-Null-Ziel ungeachtet der damit verbundenen Kosten und Schäden zu verfolgen, hat der Rest der Welt längst erkannt, dass fossile Brennstoffe ein lebenswichtiges Gut und kein Luxus sind“, stellte er fest. Der Rest der Welt schenke den Äußerungen von unbedeutenden Persönlichkeiten wie Ed Miliband und Wopke Hoekstra, dem EU-Klimakommissar, keine Beachtung mehr, fügte er hinzu.

Die BBC scheint zu sterben. Unfähig, sich angemessen auf die Anliegen ihres landesweiten Publikums einzustellen, unklar in Bezug auf den Unterschied zwischen Mann und Frau, scheinbar begeistert von einer Überlastung durch Migranten aufgrund offener Grenzen, beginnt ihr zunehmend lächerlicher Finanzierungsfluss zu versiegen. Ob sie mit ihrem voreingenommenen, identischen Nachrichtendienst und ihrem mageren Angebot an publikumsarmen, von Woke-Kultur besessenen Dramen auf dem freien Markt überleben könnte, ist ungewiss. Möglicherweise müssen große Einsparungen vorgenommen werden. KI spielt eine große Rolle in den zukünftigen BBC-Skripten, von Doctor Who bis zum Klimawandel.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2025/11/28/if-the-bbc-never-questions-net-zero-the-journalists-might-as-well-be-replaced-by-chatgpt/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Wenn die BBC <em>Net Zero</em> niemals hinterfragt, könnten die Journalisten genauso gut durch ChatGPT ersetzt werden. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Möchten Sie Asbest aus China in Ihren Windkraftanlagen?

3. Dezember 2025 - 14:00

Von Jo Nova

Ein weiterer Tag, gefangen im Unmöglichkeitsparadoxon – der Versuch, die Troposphäre kostengünstig zu verändern…

In Windkraftanlagen von GoldWind und nun auch in Vestas– Windkraftanlagen wurde Asbest gefunden. Beide verwendeten Bremsbeläge des chinesischen Unternehmens 3S Industry. Die Bremsbeläge sind klein und in den Aufzügen im Inneren der Türme verbaut, sodass derzeit keine Asbestfasern in Wälder und landwirtschaftliche Flächen gelangen. Dennoch werden keine ungeschützten Arbeiter mehr auf diese Windkraftanlagen geschickt, bis die Bremsbeläge ausgetauscht sind.

Wie Rachel Williamson bei Renew Economy jedoch anmerkt , handelt es sich dabei wahrscheinlich nur um die „Spitze des Eisbergs“:

„Mehrere Quellen bestätigten gegenüber Renew Economy, dass 3S Bremsbeläge an nahezu alle Windkraftanlagenhersteller (OEMs) in Australien liefert.“

https://www.3sindustry.com/

Für Windkraftanlagen werden Funktionskomponenten angeboten

Die Opposition auf Bundesebene fordert einen Baustopp für neue Windkraftanlagen angesichts der zunehmenden Asbestgefahr.. Beide Unternehmen haben eine unbekannte Anzahl von Anlagen unter Quarantäne gestellt. Selbst wenn das Gesundheitsrisiko gering ist, stellt dies bestenfalls eine weitere böse Überraschung, eine weitere Verzögerung und weitere Kosten für die erneuerbaren Energien dar.

Wer hätte gedacht, dass der Bau von Tausenden Quadratkilometern industrieller Infrastruktur zur Nutzung von Sonne und Wind so kompliziert sein würde?

Von Christine Middap , The Australian

Dies geschieht, nachdem der arbeitsmarkt- und wirtschaftspolitische Sprecher der Opposition, Tim Wilson, den Minister für Klimawandel und Energie, Chris Bowen, aufgefordert hat, eine nationale Sicherheitsüberprüfung und ein vorübergehendes Moratorium für die Installation neuer Windkraftanlagen anzuordnen. Er warnte vor den betrieblichen und reputationsbezogenen Risiken, die dieses Problem für den Übergang des Landes zu sauberer Energie darstellt.

„Die Einfuhr asbesthaltiger Güter nach Australien ist seit 2003 verboten, doch dieser Vorfall lässt vermuten, dass asbesthaltige Bauteile im Bereich der erneuerbaren Energien weit verbreitet gewesen sein könnten“, sagte er.

Wir sollten uns vielleicht nicht zu 100 % von China abhängig machen, um alle gewünschten Produkte herstellen zu lassen:

Der nationale Sekretär der Australian Workers Union, Paul Farrow, sagte, die Asbestfälle verdeutlichten das Risiko, sich beim Übergang Australiens zu erneuerbaren Energien vollständig auf ausländische Lieferketten zu verlassen.

„Wir bauen derzeit diese riesigen Infrastrukturprojekte mit nahezu null Prozent australischem Wertschöpfungsanteil. Das ist inakzeptabel und unsicher“, sagte er.

Wir würden die australische Produktion gern wiederbeleben, aber wir kaufen alles in China, weil wir uns nichts anderes mehr leisten können. Wenn wir Bremsbeläge und andere Bauteile selbst herstellen, wird erneuerbare Energie noch teurer als sie ohnehin schon ist. Vergessen wir nicht: In China sind die Dinge billiger, weil sie unsere Kohle verbrennen, ihre Arbeiter billiger entlohnen, die Qualitätskontrolle mangelhaft und die Umweltstandards katastrophal sind. Diesen Wettlauf wollen wir nicht gewinnen. Wie viele Menschen müssen wir heute töten, um einen einzigen Tüpfelbeutelmarder im Jahr 2095 zu retten? Wo sind diese Berechnungen?

Dennoch hätte es schlimmer kommen können. Wenigstens haben wir die in China hergestellten Bremsbeläge nicht in Kindergärten im ganzen Land verbaut und müssetn dann 70 Schulen schließen, um in Schutzanzügen die Teppiche zu reinigen.

https://joannenova.com.au/2025/11/would-you-like-asbestos-with-your-wind-turbines-from-china/

 

Der Beitrag Möchten Sie Asbest aus China in Ihren Windkraftanlagen? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Neues von den Gletschern

3. Dezember 2025 - 11:00

Cap Allon

Die Gletscher-„Krise“

Die Schlagzeile der WMO, dass „die Gletscher im Jahr 2024 450 Gigatonnen Wasser verloren haben”, ist im Kontext bedeutungslos.

Allein die Antarktis speichert etwa 25 Millionen Gigatonnen Eis. Damit macht der gemeldete Verlust etwa 0,002 % der Gesamtmasse des Kontinents aus. Bei dieser Geschwindigkeit würde es mehr als 50.000 Jahre dauern, bis die Eisdecke geschmolzen ist.

Auch die natürlichen Schwankungen stellen die Schlagzeile der WMO in den Schatten. Das Meereis der Antarktis schwankt von Jahr zu Jahr stark – die höchsten jemals gemessenen Werte wurden 2014, also vor nur 11 Jahren, verzeichnet. Veränderungen in den Schneefällen können diese 450 Gt in einer einzigen Saison ausgleichen oder sogar übersteigen.

Das Schmelzen konzentriert sich auf die Westantarktis, wo vulkanische und geothermische Wärme das Grundgestein von unten erwärmt. Mehrere Studien (siehe unten) haben aktive Magmasysteme, einen hohen geothermischen Fluss und subglaziale Wärmeflüsse unter der Region kartiert.

Dieser Prozess ist für die Destabilisierung von Gletschern wie Thwaites verantwortlich, nicht die Lufttemperatur. Die atmosphärischen Temperaturen über der Westantarktis sind in den letzten 20 Jahren sogar gesunken.

Mit anderen Worten: Der Schmelzprozess ist geologischer Natur, nicht atmosphärischer – und ich glaube nicht, dass selbst der überzeugte, kohlenstoffängstliche, Kaffee spuckende, Pflanzen anbetende Hippie behaupten würde, dass wir Menschen die Vulkane kontrollieren können.

Die Gletscher des Planeten bleiben insgesamt stabil. Seit Jahrhunderten hat sich nicht viel verändert. Selbst seit Jahrtausenden nicht.

————————-

Weniger Schnee hinein, mehr Eis heraus

In den letzten 2000 Jahren lag der CO₂-Gehalt in der Atmosphäre meist bei etwa 280 ppm. Gleichzeitig schoben sich große Gletscher wie der Große Aletschgletscher in den Alpen mehrfach vor und zogen sich wieder zurück, bis sie ihre heutige Position erreichten. Es gab vier verschiedene Zyklen, während der CO₂-Gehalt im Wesentlichen unverändert blieb.

Erst in den letzten 150 Jahren scheinen sich der CO₂-Gehalt und der Rückgang der Gletscher parallel zu entwickeln – aber das sagt nichts über Ursache und Wirkung aus. Es reflektiert lediglich die Tatsache, dass sich zwei Trends zeitlich überschneiden können, ohne physikalisch miteinander verbunden zu sein.

Heute sind eine Reihe von Gletschern auf der ganzen Welt stabil oder wachsen. Nachfolgend nur einige Beispiele (Analyse mit freundlicher Genehmigung des amerikanischen Ökologen Jim Steele):

Perito Moreno, Patagonien: Zwischen 1947 und 1996 um etwa 4 km vorgerückt; seit den 1990er Jahren weitgehend stabil.

Hubbard Gletscher, Alaska: Einer der weltweit am schnellsten voranschreitenden Gezeitengletscher. Er wächst seit mehr als einem Jahrhundert und ist seit 1960 dank starker Schneefälle um etwa 2 km vorgestoßen.

Karakorum Gletscher, Pakistan/Indien: Etwa 10 bis 20 % der Gletscher hier sind stabil oder wachsen – die erhöhten Niederschläge im Winter überwiegen das Abschmelzen.

Mulebreen, Ost-Antarktis: Seit den 1980er Jahren um etwa 13,5 km vorgerückt. Die Veränderungen der Dicke seit den 1960er Jahren zeigen aufgrund stetiger Schneefälle und minimaler Schmelze ein leichtes Wachstum.

Lützow-Holm Bay, Ost-Antarktis: Die Eisausdehnung bleibt von den 1930er Jahren bis 2025 im Wesentlichen unverändert.

Island-Gletscher: Viele sind zwischen 1970 und 1990 vorgerückt, nachdem sie sich zu Beginn des Jahrhunderts zurückgezogen hatten.

Franz Josef & Andere, Neuseeland: In den 1980er- und 1990er-Jahren unter kühleren, feuchteren Bedingungen mehrere hundert Meter vorgerückt.

Das Vorrücken oder Zurückziehen von Gletschern wird hauptsächlich durch die Feuchtigkeitszufuhr und nicht durch die Lufttemperatur bestimmt. Selbst in Klimazonen mit Temperaturen unter dem Gefrierpunkt können Gletscher aufgrund von Sublimation, Windabtrag, Kalben und Bodenwärme schrumpfen, während die Schneefälle abnehmen. Weniger Schnee fällt, mehr Eis schmilzt.

Link: https://electroverse.substack.com/p/great-lakes-thanksgiving-blizzard?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

Der Beitrag Neues von den Gletschern erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die Entwicklung der Novembertemperaturen in Deutschland seit 100 Jahren.

3. Dezember 2025 - 8:00

Von Matthias Baritz, Josef Kowatsch

Der Monat November, ein Monat mit vielen geschichtlichen Erinnerungen und Besonderheiten ist auch klimatologisch interessant: November, trüb, grau, neblig und nasskalt, diese Kennzeichnung stimmt seit 25 Jahren nur noch bedingt. Seit der Jahrtausendwende sind die November-Monate im Schnitt wärmer und heller geworden.

Abb.1: Die ersten 75 Jahre wurden die Novembermonate kälter, siehe blauer Graph. Dann kam mit der Jahrtausendwende die Richtungsänderung, eine plötzliche Temperaturerhöhung um über ein Grad, und auf diesem Niveau hält sich der seit 25 Jahren wärmere November heute noch. Kein einziger sehr kalter Novembermonat mehr mit einem Schnitt unter 3 Grad. Warum?

Laut festem Glauben der Treibhauskirche ist Kohlendioxid der entscheidende Temperaturregler der irdischen Temperaturen, und die CO₂-Konzentration nimmt seit 100 Jahren stetig zu. Wir stellen fest: Im November wirkt der wärmende Treibhauseffekt erst seit der Jahrtausendwende oder? Wir bitten die Anhänger der CO₂-Treibhauskirche um Erklärungen dieser hundertjährigen Temperaturentwicklung, gezeichnet nach den Originaltemperaturen des Deutschen Wetterdienstes.

Frage: Warum wirkt CO₂ im November zeitlich ganz anders, später oder etwa gar nicht? Ist der CO₂-Temperaturregler irgendwo hängengeblieben?

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturschützer und neutraler Klimaforscher.

 

Der Beitrag Die Entwicklung der Novembertemperaturen in Deutschland seit 100 Jahren. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Trends von 1880–2020 bei der Wärmeaufnahme der Ozeane und deren thermische Ausdehnung stellen Behauptungen zum anthropogenen Einfluss in Frage

2. Dezember 2025 - 19:00

Kenneth Richard

Grundlegende Annahmen in Prognosen zu einer alarmierenden, durch CO₂ verursachten globalen Erwärmung in den kommenden Jahrzehnten werden durch eine neue langfristige Energiebilanz-Analyse widerlegt.

In einer neuen Studie haben Wissenschaftler erkannt, dass die modellierten Annahmen zur Vorhersage der Reaktion der Natur auf die vermutete, vom Menschen verursachte Strahlungswirkung auf die Wärmeaufnahme der Ozeane, die thermische Ausdehnung und den Anstieg des Meeresspiegels nicht gut mit den Beobachtungen der letzten Jahrzehnte übereinstimmen.

Quelle: Wu et al., 2025

In deutscher Übersetzung (Google Translate):

Die offensichtliche Diskrepanz ist besonders ausgeprägt im Zeitraum 2000–2020 (Abb. 2 im Bild), da der angenommene Anstieg der Strahlungsantriebe (angeblich eine Folge der steigenden CO₂-Emissionen des Menschen) nicht mit einem starken Anstieg des Energieungleichgewichts der Erde (EEI) einherging. Stattdessen liegen die angenommenen Antriebswerte um 50 % über den EEI-Schätzungen für diesen Zeitraum.

Betrachtet man den gesamten Zeitraum von 1880 bis 2020, so fällt auf, dass der Anteil des Antriebs, der Wärmeenergie an die Erde abgibt, in den letzten Jahrzehnten (deutlich) geringer war als in der ersten Hälfte des 20. Jahrhunderts, obwohl die angenommene Ursache des Antriebs (menschliche CO₂-Emissionen) seit etwa 1980 um ein Vielfaches größer ist.

Man beachte, dass die CO₂-Emissionen des Menschen von 1910 bis 1945 relativ konstant bei ~1 GtC/Jahr blieben, dann aber bis 1990 auf ~6 GtC/Jahr und bis in die 2010er Jahre auf fast 10 GtC/Jahr stiegen. Trotz dieses dramatischen Anstiegs der angenommenen Strahlungsantriebe durch CO₂-Emissionen waren die Wärmeaufnahme (Abb. 1 und S6), die thermische Ausdehnung (Abb. S17) und die Anstiegsraten des Meeresspiegels (Abb. S17) in den Jahren 1910–1945 fast genauso ausgeprägt wie in den Jahren 1980–2010. Tatsächlich kam es zwischen 1945 und 1975 zu einem Rückgang der Wärmeaufnahme, der thermischen Ausdehnung und der Meeresspiegel-Anstiegsraten, obwohl in diesem Zeitraum gleichzeitig ein starker Anstieg der CO₂-Emissionen zu verzeichnen war.

„Wir stellen zwei unterschiedliche Phasen im globalen Energiehaushalt fest. In den Jahren 1880–1980 folgte das Energieungleichgewicht der Erde weitgehend dem Strahlungsantrieb. Nach 1980 stieg das Energieungleichgewicht der Erde jedoch langsamer als der Strahlungsantrieb; in den Jahren 2000–2020 betrug das Ungleichgewicht weniger als 50 % des Strahlungsantriebs.“

Da fast alle Prognosen zu katastrophaler globaler Erwärmung, Wärmeaufnahme der Ozeane und durch thermische Ausdehnung bedingtem Anstieg des Meeresspiegels auf der Annahme beruhen, dass ein dramatischer Anstieg des Strahlungsantriebs durch steigende CO₂-Emissionen zu einem deutlichen Anstieg des EEI führen wird, weisen Wissenschaftler nun darauf hin, dass wir diese Prozesse möglicherweise nicht ausreichend verstehen und daher weitere Untersuchungen in Betracht ziehen müssen.

„Da die globale Energiebilanz vor und nach 1980 eine sehr unterschiedliche globale Erwärmung in der Zukunft impliziert, sind weitere Studien erforderlich, um die Ursache dieser historischen Schwankungen besser zu verstehen.“

Quelle: Wu et al., 2025

In deutscher Übersetzung (Google Translate):

Link: https://notrickszone.com/2025/11/25/1880-2020-trends-in-ocean-heat-uptake-thermal-expansion-challenge-human-forcing-claims/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Trends von 1880–2020 bei der Wärmeaufnahme der Ozeane und deren thermische Ausdehnung stellen Behauptungen zum anthropogenen Einfluss in Frage erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Klimaschutz mit Kuh: Ist „Bovaer“ gefährlich?

2. Dezember 2025 - 17:00
Methan ist wie Kohlendioxid und das Schwefel-Hexafluorid aus den Windkraftanlagen ein Treibhausgas (Anmerkung Redaktion: Sagt man). Da Methan von Wiederkäuern wie Rindern produziert wird, wollen Klimapolitiker deren Ausstoß verringern. Ein Mittel dazu: Bovaer, chemisch 3-Nitrooxypropanol, bremst die biochemische Tätigkeit der archaebakteriellen Symbionten im Magen der Rinder. Also Chemiekeule gegen Klimakatastrophe?

Dänemark, Du hast es besser? Nicht ganz: Seit dem 1. Januar 2025 sind alle konventionellen Milchviehhalter im Land ab 50 Kühen im Stall verpflichtet, ihre Methanemissionen durch eine Anpassung der Fütterung zu reduzieren. Das geht durch Erhöhung des Fettanteils im Futter (bei Grasfressern?) – oder durch den Einsatz von Bovaer über 80 Tage im Jahr.

Seit Anfang Oktober wurde daher Bovaer in rund 1.400 Herden von 2.000 eingesetzt. Einige Bauern beklagen nun, daß Gesundheit und Milchleistung ihrer Kühe beeinträchtigt seien. Der dänische Milchbauernverband gab an, 30 bis 40 Landwirte hätten sich gemeldet.

„Bei einigen Kühen funktioniert der Pansen nicht mehr, und in seltenen Fällen mußten Kühe gekeult werden“, erklärte der Verband.

„Gekeult“ heißt: getötet.

Klimaschutz gegen Naturschutz UND Tierschutz?

In Deutschland werden bereits Wälder abgeholzt, um darin riesige Windkraftmaschinen auf gigantischen Stahlbetonfundamenten zu errichten. Sobald in Betrieb, häckseln die Windräder geschützte Fledermäuse und seltene Greifvögel – und jede Menge Fluginsekten. Und nun werden wegen „Klimaschutz“ auch noch Kühe todkrank und müssen getötet werden?

Wir Klimakritiker von EIKE müssen eigentlich nur berichten. Die Argumentation gegen sich selbst übernimmt bereits die Gegenseite.

Pasend zur Meldung aus Dänemark: Auch in Großbritannien demonstrieren Tausende Bauern gegen die irrwitzigen Maßnahmen der Regierung, hier unter Sozialdemokrat Keir Starmer, der sowieso schon wackelt.

Das Kabinett Starmer will künftig einen Teil der bisherigen Ausnahmen von der Erbschaftssteuer für landwirtschaftliche Betriebe kippen. Betriebe, deren Wert über eine Million Pfund liegt, sollen ab April 2026 mit 20 % Erbschaftssteuer belastet werden. Sieht so aus, als sei auch Britannien durch Migration, NGO-Fütterung, Klimaschutz und die Jagd nach „Haßrede im Internet“ allmählich unterfinanziert – und so holen sie es sich bei den Bauern. Wird das gelingen?

Der Beitrag Klimaschutz mit Kuh: Ist „Bovaer“ gefährlich? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

IEA veröffentlicht Nachruf auf das Klima-Zeitalter

2. Dezember 2025 - 14:00

Vijay Jayaraj

Das Ende ist nah – nicht für die Welt, sondern für den Klima-Industriekomplex. Der Niedergang wurde hauptsächlich durch die nackte Realität der Energiewirtschaft in den Entwicklungsländern verursacht.

Der von der Internationalen Energieagentur (IEA) veröffentlichte „World Energy Outlook 2025” liest sich wie ein Nachruf auf die Phantasterei einer globalen Dekarbonisierung und erkennt die unbestreitbare Wahrheit an, dass Nationen, die Wohlstand priorisieren, ohne Reue auf Kohle, Öl und Erdgas setzen müssen.

Jahrelang beharrten die IEA und westliche Thinktanks darauf, dass Kohlenwasserstoffe einen strukturellen Rückgang erleben würden, und prognostizierten einen fatalen Nachfragerückgang nach 2030. Doch gerade in dem Dokument, das den Fortschritt bei der Verwirklichung eines absurden Netto-Null-Ziels verfolgen soll, räumt die IEA ein, dass die Nachfrage nach Öl und Erdgas auch nach 2035 weiter steigen und möglicherweise erst 2050 ihren Höhepunkt erreichen wird.

Die wichtigste Erkenntnis des IEA-Berichts ist, dass die Schwellenländer, mit Ausnahme Chinas, zu den wichtigsten Triebkräften für das Wachstum des globalen Energieverbrauchs werden. Dies ist eine massive strukturelle Veränderung. Die Entwicklung der Energiemärkte wird nicht mehr von der Politik in Paris, Berlin oder Washington bestimmt, sondern von den souveränen Entscheidungen der Nationen, deren Bürger verzweifelt nach einem besseren Leben streben.

Indien wird voraussichtlich den schnellsten durchschnittlichen Anstieg des Energieverbrauchs unter allen Schwellenländern verzeichnen, mit einem robusten Wachstum von durchschnittlich 3 % pro Jahr bis zur Mitte des Jahrhunderts. Ein großer Teil davon wird durch Öl und Erdgas gedeckt werden. Der Ölverbrauch Indiens wird voraussichtlich von 5,5 Millionen Barrel pro Tag im Jahr 2024 auf 8 Millionen Barrel pro Tag im Jahr 2035 steigen, um mit dem Wachstum in den Bereichen Luftfahrt, Fahrzeugbesitz und der Herstellung von Kunststoffen und Chemikalien Schritt zu halten.

Entscheidend ist jedoch die Einführung von Kohle in Indien und Indonesien, die bis vor kurzem noch als Relikt der Vergangenheit galt. In den nächsten 40 Jahren wird die Dynamik dieses fossilen Brennstoffs in den Vorstandsetagen von Neu-Delhi und Jakarta gestaltet werden.

Die Nachfrage nach Kohle durch den indischen Industriesektor wird bis 2035 voraussichtlich um erstaunliche 60 % in die Höhe schnellen. Fast ein Viertel der weltweiten Stahlproduktion soll in Indien und Südostasien stattfinden, wobei sich die Produktion in diesen Regionen bis 2035 fast verdoppeln wird.

Der Bedarf Indonesiens an Industriekohle wird im gleichen Zeitraum voraussichtlich um mehr als 45 % steigen. Fabriken, Nickelschmelzen und Chemiewerke – das Rückgrat des Produktionsbooms – verbrauchen jedes Quartal mehr Energie.

Die vielleicht aufschlussreichsten Zahlen der IEA beziehen sich auf das Wachstum des Pro-Kopf-Strombedarfs. In Indien und Indonesien wird dieser bis 2035 um 80 % bzw. 70 % steigen.

Diese Spitzen werden durch Klimaanlagen, Haushaltsgeräte, Urbanisierung und unaufhaltsames Bevölkerungswachstum verursacht. Die Stromnetze in Indonesien wurden fast verdoppelt, sodass innerhalb eines Jahrzehnts fast 1 Million Kilometer neue Leitungen hinzukamen.

Die IEA stellt fest, dass Indien sein Ziel für 2030 hinsichtlich der nicht-fossilen Stromerzeugungskapazität fünf Jahre vor dem Zeitplan erreicht hat, dennoch liefern fossile Brennstoffe weiterhin den Löwenanteil der flexiblen und regelbaren Stromerzeugung. Warum? Weil sogenannte erneuerbare Energien nach wie vor unregelmäßig verfügbar sind und nur fossile Brennstoffe zusammen mit Kernkraft die Zuverlässigkeit garantieren können, welche die Industrie benötigt und die moderne Gesellschaft erwartet.

Für Indien und Indonesien – und viele andere Länder – ist Kohle ein Garant für industriellen Aufstieg; und sie könnte sich durchaus als wichtiger Faktor für die Entwicklung von Rechenzentren in den ohnehin schon technologisch geprägten Städten Indiens erweisen.

Für Entwicklungsländer gehen die größten Gefahren von Energieknappheit und wirtschaftlicher Stagnation aus, nicht von ideologisch motivierten Prognosen einer Klima-Apokalypse. Seriöse Politiker werden nicht auf unzuverlässige Technologien wie Wind- und Solarenergie setzen, um die utopische Vision einer „CO₂-freien“ Welt zu verwirklichen, die sich die westlichen Eliten ausgemalt haben. Dafür steht viel zu viel auf dem Spiel.

This commentary was first published by American Thinker on November 17, 2025.

Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.

Link: https://wattsupwiththat.com/2025/11/26/iea-publishes-climate-eras-obituary/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag IEA veröffentlicht Nachruf auf das Klima-Zeitalter erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker