«Mit Brigitte Bardot verschied eine starke und unabhängige Frau, die es nicht nötig hatte, sich dem Zeitgeist unterzuordnen oder sich gar – wie leider viele deutsche Prominente – zur Systemnutte machen zu lassen, und die solches auch in der Not nicht getan hätte. Die einfach zu sich stand und standhaft war. Ein schönes Zitat von ihr als Abschluss: ‹Früher habe ich mit meinem Hintern schockiert, jetzt schockiere ich mit meinen Büchern (Meinungen). Das ist das Gleiche!›» (– Nachruf der Seite https://publikum.net/).
EIKE - Europäisches Institut für Klima und Energie e.V.
Die hohen Kosten der Energiewende führen zu einer fortgesetzten Nutzung von Kohlenwasserstoffen.
H. Sterling Burnett
Ein neuer Bericht von McKinsey & Company mit dem Titel „Global Energy Perspective 2025” prognostiziert, dass Kohle, Öl und Erdgas auch weit über das Jahr 2050 hinaus die dominierenden Energiequellen weltweit bleiben werden, unabhängig von den Absichten und Maßnahmen derjenigen, die Klimavereinbarungen aushandeln und Verpflichtungen eingehen.
Was für einen Unterschied ein Jahr und eine Präsidentschaftsverwaltung doch machen können, wie es scheint.
Derzeit machen Kohlenwasserstoffe mehr als 60 Prozent der weltweiten Stromversorgung und 80 Prozent des Primärenergieverbrauchs aus (da Öl und Gas die wichtigsten Kraftstoffe im Verkehrssektor sind). Der Bericht von McKinsey für 2025 korrigiert frühere Prognosen deutlich. Der Energieausblick von McKinsey für 2024 prognostizierte einen starken Rückgang des Kohleverbrauchs bis 2035 und des Gesamtverbrauchs fossiler Brennstoffe bis 2050, wobei Emissionsreduktionen eine höhere Priorität als Zuverlässigkeit und Erschwinglichkeit einnehmen sollten. Der diesjährige Bericht besagt, dass sich die Prioritäten umgekehrt haben:
Aus dem diesjährigen Ausblick lassen sich zwei übergeordnete Themen ableiten. Erstens bleiben Wettbewerbsfähigkeit und eine wirtschaftlich pragmatische Energiewende von größter Bedeutung. Die Erschwinglichkeit von Energie, die Versorgungssicherheit (einschließlich der Energiesicherheit auf nationaler oder regionaler Ebene) und die Emissionsreduzierung bilden weiterhin ein Dreigespann von Prioritäten, welche die Entscheidungsfindung im Energiebereich bestimmen. Ohne Erschwinglichkeit – und ohne Bonität – wird es jedoch keine breite Einführung neuer kohlenstoffarmer Technologien geben.
Zweitens gibt es kein Patentrezept für die Dekarbonisierung.
Infolge dieser Verlagerung des Schwerpunktes prognostizierte McKinsey im Jahr 2024 einen Rückgang des Kohleverbrauchs um 40 Prozent bis 2035, während der Bericht von 2025 nun davon ausgeht, dass die Nachfrage nach Kohle im gleichen Zeitraum um mindestens 1 Prozent steigen wird, was auf die starke Nachfrage nach Elektrifizierung in Entwicklungsländern und den weltweit höheren Energiebedarf durch KI zurückzuführen ist.
„Die dramatische Kehrtwende ist auf die Rekord-Inbetriebnahme von Kohlekraftwerken in China, den unerwarteten Anstieg des weltweiten Stromverbrauchs und den Mangel an tragfähigen Alternativen für Branchen wie Stahl, Chemie und Schwerindustrie zurückzuführen“, fasste Vijay Jayaraj von der CO2 Coalition im Daily Caller zusammen. „Der Bericht von McKinsey bestätigt, was erfahrene Energieanalysten und pragmatische Politiker seit langem behaupten: Die Energiewende wird nicht schnell, einfach oder allein von Klimazielen bestimmt sein.“
McKinsey weist entscheidend darauf hin, dass Entwicklungsländer jetzt Energie benötigen und nicht erst dann, wenn in Zukunft perfekte Lösungen entwickelt worden sind. Selbst wenn Länder weiterhin Anlagen für intermittierende erneuerbare Energien hinzufügen, wird der Verbrauch von Kohlenwasserstoffen ebenfalls steigen, auch wenn sein Anteil an der gesamten globalen Energieversorgung sinken sollte, da auch die Nachfrage wächst und fossile Brennstoffe für bestimmte Verwendungszwecke zuverlässig und unverzichtbar sind.
„In Ländern wie Indien, Südostasien und Subsahara-Afrika sind die wichtigsten Energieprioritäten Zugang, Bezahlbarkeit und Zuverlässigkeit, die zusammen die nationale Sicherheit ausmachen“, schreibt Jayaraj. Darüber hinaus schreibt er: „In Ländern wie Indien, Indonesien und Nigeria ist das Ausmaß der Elektrifizierung und industriellen Expansion enorm.
Diese Länder können es sich nicht leisten, Jahrzehnte auf perfekte Lösungen zu warten“, fährt Jayaraj fort und beschreibt die Schlussfolgerungen von McKinsey. „Sie brauchen ‚zuverlässige und vorerst ausreichende Lösungen‘. Das bedeutet, dass konventionelle Brennstoffe beibehalten werden.“
Der Energieausblick 2024 von McKinsey ging davon aus, dass der Anteil der Kohlenwasserstoffe an der weltweit genutzten Primärenergie bis 2050 auf 40 bis 60 Prozent sinken würde. In seinem Bericht für 2025 geht McKinsey nun davon aus, dass Kohle, Öl und Erdgas im Jahr 2050 bis zu 55 Prozent der weltweiten Energie liefern werden, was aufgrund veränderter Prioritäten am oberen Ende der Vorhersage des letzten Jahres liegt. Ein geringerer Verbrauch scheint ausgeschlossen zu sein. Auch wenn dies weit von der Netto-Null entfernt ist, ist die Schätzung von McKinsey höchstwahrscheinlich zu optimistisch, aber dennoch alarmierend für alle, die sich um die Eindämmung der Kohlendioxidemissionen sorgen, basierend auf Schätzungen aus anderen Quellen.
Ein aktueller Report von Exxon schätzt, dass Kohlenwasserstoffe im Jahr 2050 immer noch 68 Prozent des weltweiten Energiebedarfs ausmachen werden.
Selbst die Internationale Energieagentur (IEA) hat ihre Haltung zum raschen Ausstieg aus fossilen Brennstoffen geändert. In den letzten Jahren hatte sich die IEA unter Verstoß gegen ihre Satzung zu einer Verfechterin bestimmter Energiearten, vor allem erneuerbarer Energien, im Kampf gegen den Klimawandel entwickelt. Die IEA sollte eigentlich ein neutraler Anbieter von Energieanalysen sein und keine Partei ergreifen, wenn es um Energiequellen oder die Energie- und Emissionsziele von Nationen oder der Industrie geht. Nun wird trotz der optimistischen Prognosen der letzten Jahre zum Emissionsrückgang sogar die IEA von der Realität eingeholt. Die Energiewende vollzieht sich nicht so schnell, wie es die hochfliegenden Worte und Vereinbarungen der Politiker erfordern würden. Tatsächlich bleiben die von ihnen umgesetzten Maßnahmen weit hinter dem zurück, was laut IEA-Bericht notwendig wäre, um die Netto-Null zu erreichen. Dementsprechend prognostiziert die IEA nun, dass die Nachfrage nach Kohlenwasserstoffen bis 2050 weiter steigen wird.
Die IEA gibt in ihrem World Energy Outlook 2025 keine konkrete Prognose für den Gesamt-Energieverbrauch ab, sondern eine Reihe von Prognosen, die von der Politik der Regierungen und den technologischen Entwicklungen abhängen. Unter dem praktisch unmöglichen Szenario, dass die Regierungen einen radikalen Kurswechsel vollziehen und die strengen Emissionsreduktionen durchsetzen, die zur Erreichung des im Pariser Klimaabkommen festgelegten Temperaturziels von 1,5 °C erforderlich sind, könnte der Anteil der Kohlenwasserstoffe am Gesamtenergiebedarf bis 2050 auf 20 Prozent sinken – zwar noch weit entfernt von Netto-Null, aber dennoch ein starker Rückgang.
Nach dem sogenannten „Stated Policies Scenario“ (STEPS) der IEA sinkt der Anteil fossiler Brennstoffe am weltweiten Energieverbrauch bis 2050 auf knapp über 50 Prozent – etwas höher als die aktuelle Prognose von McKinsey, aber im Einklang damit. Das STEPS-Szenario geht davon aus, dass die bestehenden Energie- und Klimaschutzzusagen verschiedener Regierungen bis zu den von ihnen selbst gesetzten Fristen vollständig umgesetzt werden, was zu einem Höchststand der Ölnachfrage um das Jahr 2030 führen würde. Wie Climate Change Weekly jedoch in den Beiträgen der letzten Wochen ausführlich dargelegt hat, kommen die Regierungen ihren Verpflichtungen nicht nach, fügen neue Kohlenwasserstoffprojekte hinzu und machen einstmals strenge Ziele flexibel und änderungsfähig, um wirtschaftlichen und politischen Bedenken Rechnung zu tragen. Daher erscheint auch das STEPS-Szenario derzeit als zu optimistisch.
Damit bleibt uns das von der IEA als „Current Policies Scenario“ (CPS) bezeichnete Szenario, bei dem der Anteil der Kohlenwasserstoffe am weltweiten Energieverbrauch bis 2050 auf etwa 70 Prozent der gesamten Primärenergieversorgung der Welt sinkt. Dieses CPS ist eine Art „Business as usual“-Szenario, das davon ausgeht, dass die Regierungen die bereits Ende 2025 bestehenden Strategien und Maßnahmen strikt befolgen und dass diese ohne Nachlässigkeiten oder Rückschläge umgesetzt oder durchgesetzt werden. In diesem Szenario bleibt der Verbrauch fossiler Brennstoffe hoch und die Emissionsziele werden verfehlt.
Der Verbrauch von Kohlenwasserstoffen könnte selbst im CPS-Szenario unter 70 Prozent fallen, wenn es zu unerwarteten technologischen Durchbrüchen kommt. Der Anteil der Kohlenwasserstoffe an der globalen Energieversorgung könnte jedoch auch höher ausfallen, wenn der Strombedarf schneller als erwartet wächst oder der „Übergang“ zu erneuerbaren Energien und Elektrofahrzeugen aufgrund technologischer, logistischer, politischer und geopolitischer Schwierigkeiten oder sogar sich verschärfender Konflikte ins Stocken gerät, die den Abbau, die Raffination und die Lieferung der für erneuerbare Energietechnologien oder die Herstellung und Lieferung von Fertigprodukten wichtigen Mineralien behindern.
Quellens: McKinsey & Company; The Daily Caller
Link: https://heartland.org/opinion/climate-change-weekly-563-cop-30-week-two-paris-agreement-failure-redux/, zweiter Beitrag
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Die hohen Kosten der Energiewende führen zu einer fortgesetzten Nutzung von Kohlenwasserstoffen. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Wende, die niemals stattfand: Fossile Brennstoffe versorgten auch 2024 noch 86 % der Welt mit Energie!
Dr. Matthew Wielicki
Was die Energie-Historie von 2000 bis 2024 tatsächlich zeigt:
Die weltweite Energieversorgung stieg 2024 um 2 %, angetrieben durch einen Anstieg der Nachfrage nach allen Energieformen, wobei Nicht-OECD-Länder sowohl beim Anteil als auch bei den jährlichen Wachstumsraten dominierten. Fossile Brennstoffe bilden mit einem Anteil von 86 % am Energiemix weiterhin die Grundlage des Energiesystems. Quelle: https://www.energyinst.org/statistical-review/home
Ein Vierteljahrhundert voller Versprechungen.
Wir schreiben das Jahr 2025. Genau ein Vierteljahrhundert liegt seit der Millenniums-Panik hinter uns, dem Hype um das Kyoto-Protokoll und den ersten Wellen „unumkehrbarer Wendepunkte”, die angeblich in zehn Jahren (also 2010) eintreten sollten.
Uns wurde gesagt, dass fossile Brennstoffe sofort abgeschafft werden müssten, sonst würde sich die Erde bis 2100 um 5–6 °C erwärmen. 25 Jahre, mehrere Billionen Dollar, Millionen von Windkraftanlagen und Solarzellen und unzählige „letzte Chance”-Klimagipfel später…
Im Jahr 2000 lieferten fossile Brennstoffe etwa 88 % der weltweiten Primärenergie.
Im Jahr 2024 waren es 86 %.
Lassen Sie das auf sich wirken.
Nach einem Vierteljahrhundert der teuersten Industriepolitik in der Geschichte der Menschheit ist der Anteil fossiler Brennstoffe an der weltweiten Energieversorgung um ganze 2 Prozentpunkte zurückgegangen.
Die „Energiewende” ist ein Witz. Netto-Null ist eine Illusion.
Und die ursprüngliche Begründung einer katastrophalen Erwärmung um 5 °C wurde sogar von den Modellen des IPCC stillschweigend aufgegeben (jetzt liegt sie näher bei 2–2,5 °C, vielleicht 3 °C in den extremsten Szenarien, die eigentlich auch niemand erwartet).
Die leichte Erwärmung, die wir erlebt haben (≈1,3 °C seit der vorindustriellen Zeit), fiel zusammen mit:
• Rekorderträgen bei Nutzpflanzen
• einer explosiven globalen Begrünung (14 % mehr grüne Blattfläche seit den 1980er Jahren, dank CO₂)
• Kein nachweisbarer Anstieg der normalisierten Katastrophenschäden (EM-DAT-Daten)
• Rekord-niedrige Zahl klimabedingter Todesfälle (Rückgang um 98 % seit den 1920er Jahren)
Ich habe hier über den Katastrophen-Mythos geschrieben: The Myth of Increasing Disasters
Die jährliche Rangliste des Energy Institute
Die neue statistische Übersicht 2025 (Daten bis 2024) des Energy Institute (EI) ist jedoch vernichtend für diese Darstellung. Der weltweite Energiebedarf erreichte einen neuen Höchststand … Der Verbrauch fossiler Brennstoffe erreichte einen neuen Höchststand … Die CO₂-Emissionen erreichten einen neuen Höchststand.
Wind- und Solarenergie verzeichneten ein Rekordwachstum… und decken dennoch nur etwa 6 % des Primärenergiebedarfs. Der „Wandel” verdrängt fossile Brennstoffe nicht, sondern ergänzt sie lediglich, um den unstillbaren Bedarf Asiens an billiger, zuverlässiger Energie zu decken.
Der EI Statistical Review ist ein globales Energie-Ranking, das seit 1952 jährlich veröffentlicht wird und nun bereits im dritten Jahr unter der Leitung des Energy Institute steht. Das EI ist eine professionelle Organisation, die sich für Netto-Null einsetzt und keine skeptische Einrichtung ist, was ihre diesjährige Darstellung besonders aufschlussreich macht: Sie beschreiben die heutige Welt als eine Zeit der „Energiezufuhr”, in der erneuerbare Energien schnell wachsen, aber gleichzeitig auch Kohle, Öl und Gas Rekordhöhen erreichen.
Allerdings zahlen Länder, die am stärksten auf unzuverlässige Energiequellen setzen, den Preis dafür. Erinnern Sie sich an den Stromausfall auf der Iberischen Halbinsel am 28. April 2025? Spanien und Portugal – Europas Vorzeigekinder für „Führungsrolle bei erneuerbaren Energien” (≈50 % Wind+Solar bei guter Wetterlage) – erlitten den größten Stromausfall des Kontinents seit Jahrzehnten.
Keine Sturmkatastrophe. Keine Hitzewelle. Kein Cyberangriff. Nur zu viel intermittierende Erzeugung, zu wenig Trägheit, und die Netzbetreiber verloren innerhalb von Sekunden die Kontrolle. Millionen Menschen saßen im Dunkeln, Flughäfen wurden geschlossen, Krankenhäuser wurden mit Generatoren versorgt, Züge standen still. Ich habe darüber hier berichtet: Spain & Portugal Blackout – A Warning from the Future of Energy
Um etwa 12:30 Uhr Ortszeit kam es im spanischen Stromnetz zu einem plötzlichen Ausfall von etwa 15 Gigawatt – rund 60 % des Stromverbrauchs des Landes zu diesem Zeitpunkt. Dieser abrupte Einbruch führte zu einer Kettenreaktion im gesamten Netz und stürzte Spanien, Portugal und Teile Frankreichs und Andorras in Dunkelheit.
Während wir unsere Solaranlagen mit Kohlekraftwerken subventionieren, begann China im Jahr 2024 mit dem Bau von 94,5 GW neuen Kohlekraftwerken, dem höchsten Stand seit einem Jahrzehnt. Weitere 30,5 GW wurden in Betrieb genommen.
Sie verbrennen jetzt mehr Kohle als der Rest der Welt zusammen, exportieren grüne Technologien, halten die Preise niedrig und sehen zu, wie sich der Westen selbst deindustrialisiert. Ich habe dazu hier einen ausführlichen Beitrag geschrieben.
Falls Sie dachten, dies sei „marktorientiert“ – Solarenergie in den USA (2010–2019) erhielt pro erzeugter Energieeinheit 205-mal mehr staatliche Subventionen als Öl und Gas.
Es ist offensichtlich, dass Solarenergie die meisten Subventionen pro Stromeinheit erhalten hat, da sie einer der größten Empfänger von Subventionen ist und gleichzeitig seit 2010 die zweitwenigste Menge an Strom produziert. Windkraft steht an zweiter Stelle dieser Liste, da sie zwar mehr Strom als Solarenergie produziert, aber immer noch einen geringen Anteil am Strommix der USA hat. Kernkraft und fossile Brennstoffe erzeugen im Verhältnis zu den erhaltenen Subventionen viel mehr Strom, was darauf hindeutet, dass sie in Bezug auf ihre Einnahmen und Rentabilität weniger von Subventionen abhängig sind als Wind- und Solarenergie. Quelle: Federal energy subsidies in the USA…
Der Bericht des Energy Institute aus dem Jahr 2025 umfasst 76 Seiten mit Diagrammen, die alle das Gleiche zeigen: Die Ära der fossilen Brennstoffe geht nicht zu Ende. Sie neigt sich nicht einmal ansatzweise dem Ende zu.
Möchten Sie die tatsächlichen Zahlen sehen, die peinlichen Anteile von Wind- und Solarenergie an der Primärenergie, das Rekordwachstum im Energiebereich und warum Ihre Stromrechnung bald parabolisch steigen wird, wenn wir so weitermachen? Dann abonnieren Sie Irrational Fear.
Dr. Matthew WielickiExilierter Professor für Geowissenschaften, Klima- und Kulturrealist, politischer Waise, Pluralist, Ehemann, Vater, Freund, Optimist, Irrational Fear Substack. Dr. Matthew Wielicki tritt auch in der Dokumentation „Climate: The Movie“ auf dem YouTube-Kanal von Clintel auf.
Übersetzt von Christian Freuer für das EIKE
Kommentar des Übersetzers zu diesem Beitrag: Man lasse sich all das auf der Zunge zergehen – vor dem Hintergrund der hiesigen Energiepolitik!!
Der Beitrag Die Wende, die niemals stattfand: Fossile Brennstoffe versorgten auch 2024 noch 86 % der Welt mit Energie! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Was ist eine „Klima-Krise“?
In einem neuen Artikel von Gianluca Alimonti und Luigi Mariani wird argumentiert, dass die Öffentlichkeit eine genaue Definition dessen benötigt, was eine Klimakrise ist, um rationale Entscheidungen darüber treffen zu können, wie mit potenziellen Bedrohungen durch den Klimawandel umgegangen werden soll (Alimonti & Mariani, 2025). Sie schlagen eine Reihe messbarer „Reaktions-Indikatoren” (RINDs) vor, die auf den Klimawirkungsfaktoren des IPCC AR6 basieren (IPCC, 2021, S. 1851-1856).
Ihre Absicht ist es, von subjektiven Wahrnehmungen möglicher Gefahren zu quantifizierbaren Messgrößen überzugehen. Dies könnte möglicherweise die Debatten über den Klimawandel auf den richtigen Weg bringen und sicherstellen, dass beide Seiten über das gleiche Thema diskutieren anstatt aneinander vorbeizureden, weil jeder der Debattierenden von unterschiedlichen Definitionen ausgeht. Es könnte auch zu echten Lösungen für echte Probleme führen, anstatt zu ideologisch begründeten Phantastereien.
Der IPCC definiert Klimawirkungsfaktoren (CIDs) als Klimaereignisse, die sich auf die Gesellschaft auswirken. Die Auswirkungen auf die betroffene Gesellschaft können nachteilig, vorteilhaft oder neutral sein (IPCC, 2021, S. 1770). Der IPCC definiert 33 Kategorien von CIDs und hat festgestellt, dass die meisten davon nicht außerhalb des erwarteten Bereichs natürlicher Schwankungen liegen.
Alimonti und Mariani untersuchten die EM-DAT-Katastrophen-Datenbank, die vom Zentrum für Forschung zur Epidemiologie von Katastrophen seit dem Jahr 2000 bis heute verwaltet wird. In diesem Zeitraum stellten sie keinen Trend bei den Todesfällen aufgrund von wetterbedingten Katastrophen fest. Ebenso wichtig ist, dass es in diesem Zeitraum deutliche Verbesserungen im globalen Gesundheitswesen gab, sobald das Bevölkerungswachstum berücksichtigt wurde.
Die temperaturbedingte Sterblichkeit macht 8 % aller wetterbedingten Todesfälle aus, davon waren 91 % auf Kälte und 9 % auf übermäßige Hitze zurückzuführen. Von 2000-03 bis 2016-19 sank die Zahl der kältebedingten Todesfälle um 0,5 % und die der hitzebedingten Todesfälle stieg um 0,2 % – sehr geringe Veränderungen.
Wie aus Tabelle 1 von Alimonti und Mariani hervorgeht, zeigen die meisten Messwerte ihrer Indikatoren für die Reaktion auf den Klimawandel keine Veränderung, darunter Wirbelstürme, Dürren, Überschwemmungen und Waldbrände. Sie zeigen, dass sich das globale BIP verbessert, ebenso wie die Verfügbarkeit von Nahrungsmitteln.
Der Artikel betont, dass der Rückgang der klimabedingten Todesfälle teilweise auf Verbesserungen der Katastrophenschutzsysteme (Deiche, Küstenschutzanlagen, Waldbewirtschaftung usw.) zurückzuführen ist, was zeigt, dass die Anpassung an den Klimawandel oft wirksamer ist als dessen Eindämmung. Die meisten objektiven Messgrößen für die Auswirkungen des Klimawandels auf das Wohlergehen der Menschen zeigen keine Veränderung, und die meisten übrigen zeigen eher eine Verbesserung oder eine mehrdeutige Auswirkung als nachteilige Auswirkungen.
Die Lektüre der Studie lohnt sich; es ist an der Zeit, weniger subjektiv zu sein und die Auswirkungen des Klimawandels objektiver zu messen.
Wir erinnern uns, dass Alimonti und Mariani die ersten beiden Autoren des beschämend zurückgezogenen, aber ausgezeichneten Artikels waren (Alimonti, Mariani, Prodi & Ricci, 2022). Meine Einschätzung dieses Artikels war, dass er ausgezeichnet war, und keine geringere Autorität als Roger Pielke Jr. bezeichnete die Rücknahme als „einen der ungeheuerlichsten Fehler im wissenschaftlichen Verlagswesen“. Diese Rücknahme ist das Paradebeispiel für die extreme Voreingenommenheit von SpringerNature.
ReferenzenAlimonti, G., & Mariani, L. (2025). Quantifying the climate crisis: a data-driven framework using response indicators for evidence-based adaptation policies. Environmental Hazards. doi:10.1080/17477891.2025.2571708
Alimonti, G., Mariani, L., Prodi, F., & Ricci, R. A. (2022). A critical assessment of extreme events trends in times of global warming. The European Physical Journal Plus, 137(112). doi:10.1140/epjp/s13360-021-02243-9
IPCC. (2021). Climate Change 2021: The Physical Science Basis. In V. Masson-Delmotte, P. Zhai, A. Pirani, S. L. Connors, C. Péan, S. Berger, . . . B. Zhou (Ed.)., WG1. Retrieved from https://www.ipcc.ch/report/ar6/wg1/
Link: https://andymaypetrophysicist.com/2025/11/22/what-is-a-climate-crisis/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Was ist eine „Klima-Krise“? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Von 1,5 °C auf 2,5 °C: The Guardian verschiebt erneut die globalen Temperaturziele
Ein kürzlich erschienener Artikel im The Guardian mit dem Titel „Cop30: calls for new urgency to talks as studies show global warming may reach 2.5C – latest updates” (Cop30: Forderungen nach neuer Dringlichkeit für Verhandlungen, da Studien zeigen, dass die globale Erwärmung 2,5 °C erreichen könnte – neueste Entwicklungen) von Nina Lakhani und Ajit Niranjan präsentiert eine fortlaufende Darstellung, die suggeriert, dass die Welt auf eine Erwärmung um 2,5 °C zusteuert und dass extremes Wetter im Zusammenhang mit fossilen Brennstoffen bereits zu erhöhten Schäden führt. Dies ist höchst irreführend, wenn nicht sogar völlig falsch. Historische und aktuelle Daten zeigen keinen Anstieg extremer Wetterereignisse aufgrund des Klimawandels, der das bisherige Ziel einer Erwärmung um 1,5 °C überschritten hat.
The Guardian schreibt, dass „extreme Wetterereignisse, die durch die Verbrennung von Öl, Gas und Kohle noch verstärkt werden, weltweit Tod und Zerstörung in Gemeinden verursachen“ und dass „Studien zeigen, dass die globale Erwärmung 2,5 °C erreichen könnte“. Außerdem werden jede Überschwemmung, Dürre, jeder Sturm und jede humanitäre Krise als Beweis für eine sich beschleunigende Klimakrise dargestellt, die in direktem Zusammenhang mit den Emissionen fossiler Brennstoffe steht.
Beobachtungsdaten zeichnen jedoch ein zurückhaltenderes und weit weniger apokalyptisches Bild. Die Aufzeichnungen der NOAA-Gezeitenmessgeräte und der AR6-Bericht des IPCC zeigen beide, dass sich der Planet zwar erwärmt hat, die Beweise für eine Verschlechterung der Trends in vielen extremen Wetterkategorien jedoch nach wie vor schwach oder regional unterschiedlich sind. Eine Kopie der in diesem Bericht veröffentlichten Tabelle ist unten abgebildet, wobei die gelb markierten Bereiche zeigen, wo sich der Klimawandel nicht in Form von sich verschlimmernden Ereignissen niedergeschlagen hat:
Laut der historischen Datenbank der NOAA hat die Zahl der Übertritte auf das Festland oder die Intensität von Hurrikanen in den Vereinigten Staaten langfristig nicht zugenommen, und der IPCC-Bericht AR6 äußert sich wenig zuversichtlich hinsichtlich einer globalen Zunahme der Hurrikanhäufigkeit. Leser können dies selbst in „Climate at a Glance – Hurricanes“ nachprüfen.
Auch Überschwemmungen zeigen keinen globalen Anstiegstrend. Der IPCC-Bericht AR6 äußert ausdrücklich geringe Zuversicht hinsichtlich eines globalen Signals für die Häufigkeit oder das Ausmaß von Überschwemmungen und widerspricht damit der Behauptung des Artikels, dass jedes größere Niederschlagsereignis „übermäßig stark“ sei.
Gezeitenmessdaten zeigen einen stetigen, moderaten Anstieg des Meeresspiegels um etwa ein bis drei Millimeter pro Jahr. Diese Rate besteht bereits seit vor der Industrialisierung und beschleunigt sich nicht zu den in den Medien oft dargestellten Katastrophenszenarien. Climate Realism hat diese Diskrepanzen wiederholt dokumentiert, beispielsweise in seinen Analysen, in denen übertriebene Behauptungen über Überschwemmungen und Unwetter sowie Hitzewellen systematisch mit realen Messungen statt mit Modellsimulationen verglichen werden.
Vor allem The Guardian verschiebt stillschweigend die Zielvorgaben. Jahrelang beharrten Aktivisten und gleichgesinnte Medien darauf, dass ein Überschreiten von 1,5 °C eine Katastrophe auslösen würde – Ernteausfälle, explosive Sturmaktivitäten, „unbewohnbare“ Regionen. Doch als die Welt in bestimmten Datensätzen kurzzeitig diese Temperaturabweichung erreichte, trat keiner der versprochenen apokalyptischen Meilensteine ein. Die Grenze war nichts weiter als ein politischer Diskussionspunkt der Pariser Klimakonferenz 2015, wie in diesem Artikel der Associated Press (AP) beschrieben: Die magische 1,5: Was hinter dem schwer fassbaren Ziel der Klimaverhandlungen steckt. Die AP räumte ein, dass „in gewisser Weise sowohl die 1,5- als auch die 2-Grad-Schwelle etwas willkürlich sind”.
Anstatt die politische Natur der Temperaturziele und die fehlgeschlagenen Vorhersagen von Katastrophen anzuerkennen, die sich daraus ergeben sollten, verschieben Lakhani und Niranjan einfach die Zielvorgabe und behaupten, dass 2,5 °C der neue Schwellenwert für den klimabedingten Untergang sei, als ob die einfache Verschiebung der Zielvorgabe auf einen neuen vermeintlichen Kipppunkt die Darstellung aufrechterhalten würde. Dieses schamlose Muster von „Die Welt wird immer heißer und ihr seid schuld daran“ wird seit Jahren immer wieder von den Medien wiederholt.
———————————-
Mit Bezug darauf hat Autor Anthony Watts bei WUWT dazu etwas geschrieben:
COPs 1 bis 30 – Eine perfekte Reihe des ScheiternsDer Artikel im Guardian weigert sich auch, eine unbequeme Wahrheit anzuerkennen: Die lächerliche UN-Klimakonferenz COP30 soll heute enden. Wenn man auf die 30 bisherigen Konferenzen zurückblickt, wird eines klar: Seit der Gründungskonferenz 1992 in Rio gab es bisher 30 COPs, und keine einzige hat die globalen Temperaturen, die Kohlendioxidemissionen oder den Anstieg des Meeresspiegels verringert – oder auch nur verlangsamt.
Diese COP-Konferenzen und die daraus resultierenden zahnlosen Vereinbarungen sind die vermeintlichen Mittel zur Rettung des Planeten. Basierend auf den bisherigen Daten haben sie eine perfekte Bilanz des Scheiterns vorzuweisen.
Siehe die drei folgenden Grafiken:
Darstellung aller UN-Klimakonferenzen von 1992 bis 2025 mit der globalen Jahrestemperatur. Basisgrafik von NOAA, Anmerkung von A. Watts. Quelle: https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/global/time-series/globe/land_ocean/tavg/12/12/1980-2024?filter=true&filterType=binomial
Darstellung aller UN-Klimakonferenzen von 1992 bis 2025 mit der globalen Kohlendioxid-Konzentration in der Atmosphäre. Basisgrafik von NOAA, Anmerkung von A. Watts. Quelle: https://gml.noaa.gov/ccgg/trends/
Darstellung aller UN-Klimakonferenzen von 1992 bis 2025 mit globalem Anstieg des Meeresspiegels. Basisgrafik von Hamlington et al. in Nature, 2024, Anmerkung von A. Watts. Quelle: https://www.nature.com/articles/s43247-024-01761-5/figures/1
Diese Konferenzen und die daraus resultierenden Vereinbarungen sind die vermeintlichen Mittel zur Rettung des Planeten. Basierend auf den oben aufgeführten Daten haben sie bisher eine perfekte Bilanz des Scheiterns vorzuweisen. Das ist in Ordnung, denn es gibt keine realen Beweise dafür, dass steigende CO₂-Werte oder moderate Temperaturanstiege eine existenzielle Bedrohung für den Wohlstand oder die Existenz der Menschheit darstellen.
Die heutigen Temperaturen stehen in Zusammenhang mit natürlichen Schwankungen, der langfristigen Erholung von der Kleinen Eiszeit und der regionalen Erwärmung der Landoberfläche, die durch den Wärmeinseleffekt in Städten beeinflusst wird – all dies wird in dem Artikel von The Guardian nicht erwähnt. Die bloße Einberufung von Diplomaten, um immer düsterere Kommuniqués zu verfassen, hat diese zugrunde liegenden Faktoren nie verändert.
Und dies weist auf etwas hin, was The Guardian ignoriert. Wetter ist nicht gleich Klima – ein Monat Regen in Gaza, eine Dürre in Teheran oder ein Sturm in Wales stellen keinen globalen Klimatrend dar. Infrastrukturausfälle, Entwaldung, Bevölkerungswachstum in Überschwemmungsgebieten und politische Konflikte erklären wetterbedingte Schäden oft viel besser als ein leichter Anstieg der erfundenen Kennzahl der globalen Durchschnittstemperatur. Die in dem Artikel beschriebene Überschwemmung in Gaza ist auf Krieg zurückzuführen: zerstörte Entwässerungssysteme, verwüstete Ackerflächen und zerstörte Häuser – nicht auf marginale Veränderungen der globalen Durchschnittstemperatur. Gleiches gilt für die Anfälligkeit für Dürren im Iran, wo seit Jahrzehnten Misswirtschaft im Wasserbereich und übermäßige Wasserentnahme gut dokumentiert sind. Dennoch führen die Autoren des Guardian-Artikels alle Notlagen konsequent auf den Klimawandel zurück und verschweigen dabei institutionelle und politische Versäumnisse.
Lakhani und Niranjan erwähnen auch nicht den seit einem Jahrhundert anhaltenden Rückgang der temperaturbedingten Todesfälle – ebenso wenig wie den Rückgang der Todesfälle aufgrund extremer Wetterereignisse. Beides ist eine direkte Folge der durch fossile Brennstoffe ermöglichten Widerstandsfähigkeit – und ignoriert die Vorteile, die eine zuverlässige Energieversorgung für Entwicklungsländer mit sich bringt.
Indem The Guardian eine Reihe von unabhängigen Katastrophen miteinander verknüpft und sie alle als „durch fossile Brennstoffe verstärkt“ bezeichnet, führt er seine Leser in Bezug auf die tatsächlichen Beobachtungsdaten grob in die Irre. Die Verschiebung der Katastrophenschwelle von 1,5 °C auf 2,5 °C, ohne die früheren fehlgeschlagenen Vorhersagen im Zusammenhang mit dem früheren Temperaturziel anzuerkennen, unterstreicht nur, wie falsch die Klimadiskussion ist.
Nach drei Jahrzehnten und 30 COP-Konferenzen bleiben die globalen Temperaturen von politischen Erklärungen unbeeindruckt, doch The Guardian präsentiert diese Konferenzen weiterhin so, als ob der Erfolg dieser Konferenzen den Menschen die Kontrolle über den Thermostat des Planeten verschaffen würde. Die Leser verdienen eine Berichterstattung, die auf gemessenen Beweisen und Fakten basiert, und nicht eine endlose Eskalation dramatischer Behauptungen, die sich ändern, sobald die Realität nicht mehr mitspielt.
[Hervorhebung vom Übersetzer]
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Von 1,5 °C auf 2,5 °C: The Guardian verschiebt erneut die globalen Temperaturziele erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Woher kommt der Strom? Dunkelflaute rauf und runter
46. Analysewoche 2025 von Rüdiger Stobbe
Nachdem die Dunkelflaute der letzten drei Tage vergangener Woche am Montag ein Ende fand, kam es zu mehr Wind- und PV-Stromerzeugung ab Dienstag. Im Verlauf der Woche nahm die regenerative Erzeugung wieder ab. Zum Ende der aktuellen Analysewoche waren sowohl Wind- als auch die PV-Stromerzeugung wieder auf einem eher niedrigen Niveau. An keinem Tag der Woche erreichten die „Erneuerbaren“ auch nur annähernd die Bedarfslinie. Auch die konventionellen Stromproduzenten setzten wie gewohnt auf Strom-Minderproduktion, um Stromimporte so weit wie möglich zu initiieren. Damit verfestigte sich das Strompreisniveau – abgesehen vom Donnerstag auf einen Korridor von 68 bis 158€/MWh. Am Donnerstag hingegen kam es in der Nacht um 3:00 Uhr zu einem Strompreisabsturz, der bei 7€/MWh sein Ende fand. Zum frühen Morgen erholte sich der Preis, um zur Mittagsspitze wieder zu fallen. Um 19:00 Uhr dann, als die ersten Stromimporte wieder eingesetzt hatten, stieg der Preis auf 129€/MWh. Der Preisabsturz in der Nacht hatte seinen Grund in den von 0:00 bis 4:00 Uhr praktisch fehlenden Stromimporten. Der Bedarf sank in der Nacht so stark, dass regenerative plus konventionelle Stromerzeugung, dass die Eigenerzeugung Deutschlands ausreichte, um den Bedarf zu den. Kurz: Keine Nachfrage beim Ausland=Fallender Strompreis.
Montag, 10.11.2025 bis Sonntag, 16.11.2025: Anteil Wind- und PV-Strom 42,8 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 54,2 Prozent, davon Windstrom 36,2 Prozent, PV-Strom 6,6 Prozent, Strom Biomasse/Wasserkraft 11,3 Prozent.
- Regenerative Erzeugung im Wochenüberblick 10.11.2025 bis 16.11.2025
- Die Strompreisentwicklung in der 46. Analysewoche 2025.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 46. Analysewoche ab 2016.
Daten, Charts, Tabellen & Prognosen zur 46. KW 2025:
Factsheet KW 46/2025 – Chart, Produktion, Handelswoche, Import/Export/Preise, CO2, Agora-Zukunftsmeter 68 Prozent Ausbau & 86 Prozent Ausbau
- Rüdiger Stobbe zur Dunkelflaute bei Kontrafunk aktuell 15.11.2024
- Bessere Infos zum Thema „Wasserstoff“ gibt es wahrscheinlich nicht!
- Eine feine Zusammenfassung des Energiewende-Dilemmas von Prof. Kobe (Quelle des Ausschnitts)
- Rüdiger Stobbe zum Strommarkt: Spitzenpreis 2.000 €/MWh beim Day-Ahead Handel
- Meilenstein – Klimawandel & die Physik der Wärme
- Klima-History 1: Video-Schatz aus dem Jahr 2007 zum Klimawandel
- Klima-History 2: Video-Schatz des ÖRR aus dem Jahr 2010 zum Klimawandel
- Interview mit Rüdiger Stobbe zum Thema Wasserstoff plus Zusatzinformationen
- Weitere Interviews mit Rüdiger Stobbe zu Energiethemen
- Viele weitere Zusatzinformationen
- Achtung: Es gibt aktuell praktisch keinen überschüssigen PV-Strom (Photovoltaik). Ebenso wenig gibt es überschüssigen Windstrom. Auch in der Summe der Stromerzeugung mittels beider Energieträger plus Biomassestrom plus Laufwasserstrom gibt es fast keine Überschüsse. Der Beleg 2023, der Beleg 2024/25. Strom-Überschüsse werden bis auf wenige Stunden immer konventionell erzeugt. Aber es werden, insbesondere über die Mittagszeit für ein paar Stunden vor allem am Wochenende immer mehr. Genauso ist es eingetroffen. Sogar in der Woche erreichen/überschreiten die regenerativen Stromerzeuger die Strombedarfslinie.
Was man wissen muss: Die Wind- und Photovoltaik-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie, angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem Jahresverlauf 2024/25 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.
Tagesanalysen
Montag
Montag, 10.11.2025: Anteil Wind- und PV-Strom 22,2 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 34,6 Prozent, davon Windstrom 15,9 Prozent, PV-Strom 6,4 Prozent, Strom Biomasse/Wasserkraft 12,4 Prozent.
Ab 14:00 steigt die Windstromerzeugung. Die Dunkelflaute ist vorbei. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 10.November 2016.
Daten, Charts, Tabellen & Prognosen zum 10.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Dienstag
Dienstag, 11.11.2025: Anteil Wind- und PV-Strom 41,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,9 Prozent, davon Windstrom 34,0 Prozent, PV-Strom 7,0 Prozent, Strom Biomasse/Wasserkraft 10,9 Prozent.
Die PV-Stromerzeugung bleibt herbstlich schwach. Die Windstromerzeugung ist ebenfall weiterhin moderat. Ganztägige Stromimporte sind angesagt. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 11. November ab 2016.
Daten, Charts, Tabellen & Prognosen zum 11.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Mittwoch
Mittwoch, 12.11.2025: Anteil Wind- und PV-Strom 54,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,0 Prozent, davon Windstrom 46,1 Prozent, PV-Strom 8,6 Prozent, Strom Biomasse/Wasserkraft 10,3 Prozent.
Nach einem leichten Durchhänger über die Mittagsspitze zieht die Windstromerzeugung an. Dennoch sind Stromimporte notwendig. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 12.1 November 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 12.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Donnerstag
Donnerstag, 13.11.2025: Anteil Wind- und PV-Strom 59,1 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 68,8 Prozent, davon Windstrom 51,0 Prozent, PV-Strom 8,1 Prozent, Strom Biomasse/Wasserkraft 9,7 Prozent.
Der Peak des Windbuckels wird erreicht. Vor Sonnenaufgang ist punktueller Stromimport nötig. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 13. November 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 13.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Freitag
Freitag, 14.11.2025: Anteil Wind- und PV-Strom 34,3 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,7 Prozent, davon Windstrom 29,3 Prozent, PV-Strom 5,0 Prozent, Strom Biomasse/Wasserkraft 11,5 Prozent.
Schwache Wind- und schwache PV-Stromerzeugung. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 14. November ab 2016.
Daten, Charts, Tabellen & Prognosen zum 14.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Samstag
Samstag, 15.11.2025: Anteil Wind- und PV-Strom 50,1 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,6 Prozent, davon Windstrom 45,6 Prozent, PV-Strom 4,5 Prozent, Strom Biomasse/Wasserkraft 11,4 Prozent.
Die Windstromerzeugung erholt sich etwas, fallt dann aber wieder ab. Die PV-Stromerzeugung bleibt schwach. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 15. November ab 2016.
Daten, Charts, Tabellen & Prognosen zum 15.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Sonntag
Sonntag, 16.11.2025: Anteil Wind- und PV-Strom 31,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 44,8 Prozent, davon Windstrom 24,7 Prozent, PV-Strom 6,2 Prozent, Strom Biomasse/Wasserkraft 13,8 Prozent.
Über Tag zieht die Windstromerzeugung etwas an. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 16. November ab 2016.
Daten, Charts, Tabellen & Prognosen zum 16.11.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Die bisherigen Artikel der Kolumne Woher kommt der Strom? seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.
Der Beitrag Woher kommt der Strom? Dunkelflaute rauf und runter erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Wahnsinn der COP30 vs. globale Entwicklung bzgl. Klima- und Energie-Realitäten
Die 30. Konferenz der Vertragsparteien (COP30) ist in Belém in Brasilien in vollem Gange. Viele der über 50.000 Teilnehmer sind mit den schicken Privatjets angereist, die sie immer zu den Klimakonferenzen nehmen, um den Planeten zu retten. Um die Anreise vom Flughafen in die Gastgeberstadt zu erleichtern, hat Brasilien rund 100.000 Regenwaldbäume gefällt und, schlimmer noch, Skandale ausgelöst, um eine asphaltierte Autobahn zu bauen. Sie werden endlos plaudern und Berge von Fleisch verschlingen.
In diesen Regenwäldern von Terra do Brasil holen sich illegale Holzfäller auch „mindestens die Hälfte des Balsaholzes”, das als Kernmaterial für Windturbinenflügel verwendet wird – natürlich, um den Planeten zu retten.
Damit diese unbequemen Tatsachen – oder Präsident Trump, der vor der UN-Generalversammlung die COP und die Klimaagenda verreißt – nicht übermäßig viel Aufmerksamkeit erhalten, sind Klimaalarmisten und ihre betrügerischen Verbündeten damit beschäftigt, die Hysterie über die „schrecklichen Auswirkungen” des Klimawandels und des extremen Wetters anzuheizen.
Die KI-Übersicht von Google Chrome besagt, dass der Klimawandel extreme Wetterereignisse häufiger und schwerwiegender macht, die Eiskappen schmelzen lässt und den Meeresspiegel steigen lässt, in einigen Regionen zu Wasserknappheit führt, während andere Regionen von Überschwemmungen heimgesucht werden, Ökosysteme und die Artenvielfalt zerstört, die Erwärmung der Ozeane zu einer Versauerung führt und die Landwirtschaft sowie die Gesundheit der Menschen und des Planeten bedroht.
All dies sind Übertreibungen und Erfindungen, die endlos aus Computermodellen und Phantastereien exportiert werden – aber nicht durch tatsächliche Daten oder Beweise aus der realen Welt gestützt werden.
Trotz des sich ständig verändernden Klimas auf der Erde nehmen weder Hurrikane noch Tornados an Häufigkeit oder Schwere zu, ebenso wenig wie Überschwemmungen und Dürren. Die biologische Vielfalt ist am stärksten bedroht durch die Überdeckung großer Flächen mit Sonnenkollektoren und Windkraftanlagen sowie durch den Abbau und die Verarbeitung von Rohstoffen zu deren Herstellung. Die sich kaum erwärmenden Ozeane der Erde sind leicht alkalisch (pH 8,1) und nicht sauer. Mehr Kohlendioxid in der Atmosphäre hilft Pflanzen in Ackerbaugebieten, Wäldern, Wüsten und Grasland, schneller, besser und mit weniger Wasser zu wachsen.
Aber Angst schürenden „Nachrichten”-Schlagzeilen und „Studien” heizen die COP30-Debatte weiter an:
Der Klimawandel und extreme Wetterereignisse könnten die Blutbanken weltweit leerräumen, behaupten sie. Er droht, das Laufen von Marathons noch schwieriger zu machen. Die Entscheidung, ob man ein Haustier haben möchte, ist eine der „klimaintensivsten Entscheidungen“, die wir treffen. Für die Bewohner der Pazifikinseln, deren Heimat bald vom steigenden Meeresspiegel überschwemmt wird, müssen humanitäre Visa geschaffen werden.
Der Klimawandel schafft „tödliche Flüsse am Himmel“ und „verstärkt“ extreme Niederschläge. Die Klimakrise trifft indonesische Frauen und Mädchen unverhältnismäßig stark. Dänische Landwirte müssen Methan reduzierende Futterzusätze verwenden, die zu einem Einbruch der Milchleistung, Durchfall, Fieber und Fehlgeburten bei Milchkühen führen.
Um nicht in den Hintergrund zu geraten, veröffentlichten der Klimamodellierer Michael Mann und seine Komplizen einen düsteren Bericht, in dem sie wetterten: „Wir rasen auf ein Klimachaos zu. Die Lebenszeichen des Planeten leuchten rot.“ Die Gefahren „sind keine zukünftigen Bedrohungen mehr, sondern bereits Realität!“
Löwen, Tiger und Bären – oh je. Was tun? Atmen Sie zunächst einmal tief durch und folgen Sie Bill Gates!
Obwohl er (immer noch) Millionen an Klimakrisengruppen spendet und mehrere eindringliche Warnungen ausspricht, sagt Gates nun, dass der Klimawandel keine Krise darstellt und weder den Planeten zerstören noch den „Untergang der Menschheit“ verursachen wird. Er sagt nun, wir müssten uns darauf konzentrieren, das Leben, die Gesundheitsversorgung und den Lebensstandard in den ärmsten Ländern der Welt zu verbessern, insbesondere indem wir dafür sorgen, dass sie über reichlich vorhandene, zuverlässige und erschwingliche (PDA) Elektrizität und Brennstoffe verfügen, vor allem Kohle, Öl, Gas und Kernenergie.
Das ist ein bewundernswerter Anfang. Hoffentlich werden seine Stiftungen nun Millionen an klimarealistische Organisationen spenden – und Milliarden an echte PDA-Energieprojekte und moderne Wohn-, Krankenhaus-, Schul- und Infrastrukturprojekte in Asien, Lateinamerika und insbesondere Afrika.
Darüber hinaus haben sich in diesem Jahr bisher 893 Unternehmen aus der Science-Based Targets Initiative zurückgezogen, die „wissenschaftlich validierte Klimaziele” und „Treibhausgas”-Emissionsziele „im Einklang mit internationalen Standards” fordert. Diese Ziele waren nicht nur nie wissenschaftlich fundiert oder validiert – sie waren auch immer unerreichbare moralische Selbstbeweihräucherung, die auf fehlerhaften Computermodell-Simulationen von angeblich durch die Nutzung fossiler Brennstoffe verursachten Katastrophen für Mensch und Planet basierten.
Die schwindende weltweite Zustimmung zu dem falschen wissenschaftlichen, wirtschaftlichen und ethischen „Konsens“ über eine angebliche vom Menschen verursachte Klimakrise wird noch deutlicher durch den Austritt Dutzender großer US-amerikanischer und ausländischer Banken aus der Net Zero Banken-Allianz seit Dezember 2024. Der Exodus zwang die von den Vereinten Nationen inspirierte Allianz, ihre Pforten zu schließen und ihren Betrieb einzustellen.
Trotz der großen Rückschläge schimpfen die auf Rent-Seeking ausgerichteten Teilnehmer der COP30 weiterhin über das schreckliche Schicksal des Planeten und der Menschheit.
Wie der Schwarze Ritter in „Monty Python und der Heilige Gral“ stehen sie ohne Arme und Beine da, weigern sich aufzugeben und schreien ihren abwandernden Anhängern vergeblich hinterher: „Das sind nur Fleischwunden. Kommt zurück! Ich beiße euch die Beine ab.“
In anderen treffenden filmischen Analogien terrorisieren diese COP-Kreaturen, sobald sie von Politikern, Dr. FrankUNstein und einem zufälligen Stromstoß aus entfernten Windkraftanlagen zum Leben erweckt wurden, scheinbar auf ewig. In Brasilien verwandeln sie sich in Lösungen und Forderungen zur Rettung des Planeten.
Jahrzehntelang konzentrierten sich die COP-Treffen auf „Klimaschutz“ – sie forderten von den sich deindustrialisierenden Industrieländern Billionen von Dollar, um das Klima, das Wetter und den Energieverbrauch und Lebensstandard der Menschen zu kontrollieren. Dies, so versicherten sie uns, würde die von Computermodellen vorhergesagten, vom Menschen verursachten Katastrophen verhindern, die von der Annahme ausgehen, dass steigende Treibhausgaswerte Katastrophen verursachen. Dieser alte Hund jagt aber kaum noch.
Der Schwerpunkt der diesjährigen COP30 hat sich daher zunächst auf „Anpassung” verlagert – wobei von den sich rück-entwicklnden Industrieländern Billionen für Studien, Planung und „Resilienzaufbau” gefordert werden. Dies, so versichern sie uns, werde armen Nationen helfen, sich an Klimakatastrophen anzupassen, die laut Modellen und Studien auf die steigenden Temperaturen, des Wetters und des Meeresspiegels zurückzuführen sind, die die Industrieländer (aber nicht China, Indien oder Russland) nach wie vor verursachen. Noch mehr leere Gesten.
Und zweitens zusätzliche Billionen für „Reparationen“ an arme und Entwicklungsländer (d. h. Schweizer Bankkonten) für Klima- und Wetterschäden, welche die reichen Länder angeblich in der Vergangenheit verursacht haben.
Arme Länder und Menschen haben ein gottgegebenes Recht auf PDA-Strom, Brennstoffe und petrochemische Produkte, die es ihnen ermöglichen, ihren rechtmäßigen Platz unter den gesunden und wohlhabenden Menschen der Erde einzunehmen. Sie haben kein Recht, entwickelte Länder zu bedrohen oder zu erpressen, um Geld für Klimaschutz, Anpassung oder Wiedergutmachung zu erhalten.
Ironischerweise würden viele Teilnehmer der COP30 – ebenso wie die Vereinten Nationen, die Weltbank und Klimakritiker wie Mike Mann und Al Gore – ihnen diese Rechte und sogar den Zugang zu modernen Transportmitteln, Wohnraum und landwirtschaftlichen Technologien verweigern. Denn, wie Barack Obama 2013 den Südafrikanern sagte: „Wenn … jeder ein Auto hat und jeder eine Klimaanlage hat und jeder ein großes Haus hat, wird der Planet überkochen“ – es sei denn, wir verzichten auf fossile Brennstoffe und steigen auf erneuerbare Energien um.
Hinzu kommen Umfrageergebnisse, wonach (Nr. 8) erstaunliche 45 % der Amerikaner bereit wären, nur 12 Dollar pro Jahr für die „Bekämpfung des Klimawandels” zu zahlen, und über die Hälfte gar nichts zahlen würde. In Wirklichkeit würde eine von der Regierung orchestrierte Umstellung auf Wind-, Solar- und Batteriestrom die Familien dazu zwingen, jedes Jahr Tausende von Dollar zusätzlich zu zahlen, häufige Stromausfälle zu ertragen und mit weniger Arbeitsplätzen und einem niedrigeren Lebensstandard zu kämpfen.
All dies sind zwingende Gründe, warum Präsident Trump nicht an der COP30 teilnimmt und warum die Vereinigten Staaten offiziell aus dem Pariser Klimaabkommen/Vertrag und der Klimarahmenkonvention der Vereinten Nationen (UNFCCC) austreten sollten, den beiden Müttern aller Klimamanipulationen.
Viele Länder würden folgen, und die Menschen überall wären viel besser dran.
Link: https://www.cfact.org/2025/11/18/cop30-insanity-vs-the-global-tide-of-climate-and-energy-reality/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Der Wahnsinn der COP30 vs. globale Entwicklung bzgl. Klima- und Energie-Realitäten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Bei COP30 wird gelogen, um dessen Existenz zu rechtfertigen
Cap Allon
Die COP30 stützt sich auf falsche Informationen zum Klimawandel, die die Vergangenheit umschreiben, um einen Sieg zu beanspruchen, den sie nie errungen hat.
Deutsche Übersetzung (Google Translate):
In dem entsprechenden Abkommen wird behauptet, dass die Welt zuvor auf eine Erwärmung von mehr als 4 °C zusteuerte, bis das Pariser Abkommen diese Entwicklung heldenhaft auf 2,3–2,5 °C „abgeflacht“ hat:
Deutsche Übersetzung (Google translate):
„Das ist jedoch eine Fehlinformation“, sagt Roger Pielke Jr., Professor für Umweltwissenschaften an der University of Colorado Boulder. Es handelt sich um eine Fiktion, die auf dem RCP8.5-Szenario basiert – einem Extremszenario, das Wissenschaftler vor Jahren stillschweigend aufgegeben haben, weil es einen unmöglichen Kohleverbrauch, eine unrealistische Bevölkerungsentwicklung und einen wirtschaftlichen Zusammenbruch voraussetzte, der nie eingetreten ist.
Die COP30 lässt ein unrealistisches, verworfenes Szenario wieder aufleben, um zu behaupten, dass Paris die Welt gerettet habe. Das Problem sind die Daten. Die realen Emissionen zeigen keine Kurvenveränderung, keine Verlangsamung und keinen „Paris-Effekt“.
Deutsche Übersetzung (Google translate):
Paris hat die Emissionen nicht verändert, aber es hat eine dauerhafte Rechtfertigung für Klimasteuern, Energie-Rationierung und den Abbau billiger, zuverlässiger Energie geschaffen – die Grundlage wirtschaftlichen Wohlstands.
Die COP30 braucht einen Erfolg, um ihre Existenz zu rechtfertigen. Also hat sie die Geschichte umgeschrieben: Sie hat einen 4-Grad-Weg erfunden, so getan, als hätte Paris ihn verhindert, und sich selbst dafür beglückwünscht, die Menschheit gerettet zu haben.
Die Welt war nie auf dem Weg zu RCP8.5. Paris hat die Emissionen nicht verändert.
Lügen.
Link: https://electroverse.substack.com/p/uks-coldest-november-low-in-15-years?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Bei COP30 wird gelogen, um dessen Existenz zu rechtfertigen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Rechenzentren und Trump beflügeln die Wiederbelebung der Kernenergie in den USA
Duggan Flanakin
Dank der starken Unterstützung durch die Trump-Regierung blickt die Kernenergiebranche in den USA zum ersten Mal seit Three Mile Island wieder optimistisch in die Zukunft. Das wurde auch Zeit, denn die durchschnittliche Altersstruktur der bestehenden Kernkraftwerke in den USA entspricht dem Stand der Technik der 1980er Jahre.
Ein wichtiger Grund für den fast vollständigen Stillstand der Kernenergieentwicklung in den USA war das fast schon manische Bestreben der Nuclear Regulatory Commission (NRC), einer verunsicherten Öffentlichkeit zu versichern, dass sie keine Genehmigungen für Kernkraftwerke erteilen würde, die ein potenzielles Risiko für die Öffentlichkeit darstellen könnten.
Der Schuss, der um die Welt ging und eine Änderung der US-Atomenergiepolitik signalisierte, war die fristlose Entlassung von NRC-Kommissar Christopher Hanson, dessen Hintergrund als Theologe möglicherweise zu der Wahrnehmung beigetragen hat, dass er seine Aufgabe eher als Torwächter für die behördliche Kontrolle denn als Partner beim Aufbau einer nuklearen Zukunft für die USA sah.
Shelley Moore Capito (R, WV), Vorsitzende des Senatsausschusses für Umwelt und öffentliche Arbeiten sagte: „Jahrzehntelang hat die NRC zu lange gebraucht, zu viel gekostet und verfügte nicht über ein vorhersehbares und effizientes Verfahren zur Genehmigung neuer Lizenzen oder zur Modernisierung veralteter Vorschriften.“
Der neu ernannte NRC-Vorsitzende David Wright bezeichnete die Trump-Richtlinien nicht als „bloße Regulierungsreform“, sondern als „kulturellen Wandel, der die NRC zu einer zukunftsorientierten, risikobewussten Regulierungsbehörde macht“. Die interne Kultur der Behörde werde zu einer effizienteren und moderneren Behörde umgestaltet, ohne die öffentliche Sicherheit zu beeinträchtigen, so Wright.
Aber nicht nur die NRC wird umgestaltet. Unter den Präsidenten von Carter bis Biden wurde die Kernenergie weitgehend in den Hintergrund gedrängt, lag doch der Schwerpunkt auf der von den Medien vorangetriebenen „grünen Energie“-Kampagne. Genehmigungen für Wind- und Solaranlagen wurden ohne die für Kernkraftwerke und fossile Brennstoffanlagen vorgeschriebenen Sanierungsauflagen und Vorauszahlungen erteilt. Kernenergie galt als „schmutzig“.
Die erste Amtszeit von Trump war von politischen Machtkämpfen (sowohl innerhalb der Partei als auch zwischen den Parteien) so geprägt, dass jede echte Agenda zur Kernenergie unter den Gerichtsverfahren begraben wurde. In der Zwischenzeit machte die künstliche Intelligenz jedoch riesige Fortschritte, und der Strombedarf für schnell wachsende Rechenzentren explodierte. Wind- und Solarenergie sind für Unternehmen, die rund um die Uhr auf Strom angewiesen sind, keine verlässliche Quelle – und Kernenergie gilt gegenüber Erdgas nach wie vor als die „sauberere“ Option.
Schon vor Trumps Wiederwahl unterzeichneten Technologiegiganten eifrig Verträge über die Lieferung von Kernenergie für ihre Rechenzentren. Im vergangenen September kündigte der Eigentümer des seit langem stillgelegten Kernkraftwerks Three Mile Island Unit 1 Pläne an, den Betrieb im Jahr 2027 wieder aufzunehmen, dank eines 20-jährigen Stromabnahmevertrags mit Microsoft für ein nahe gelegenes KI-Rechenzentrum.
Im vergangenen Oktober verkündeten sowohl Amazon als auch Google, in kleine modulare Reaktoren für KI-Rechenzentren zu investieren. Zwei Monate später erklärte Meta, diesem Beispiel folgen zu wollen. Das Erstaunliche daran ist die Unsicherheit, ob die SMR-Hersteller in der Lage sein werden, so schnell und kostengünstig zu liefern, wie es die Technologieriesen verlangen. Der einfache Grund dafür? Sie haben noch keine Erfolgsbilanz vorzuweisen. Aber der Energiebedarf ist so hoch, dass Warten keine Option ist.
In den letzten Wochen hat sich die ohnehin schon rasante Entwicklung noch weiter beschleunigt. Am 16. Oktober stellte die US-Armee ihr Janus-Programm der nächsten Generation für den Einsatz kleiner modularer Reaktoren zur Unterstützung nationaler Verteidigungsanlagen und kritischer Missionen vor. Kommerzielle Hersteller von Mikroreaktoren werden mit der Defense Innovation Unit der Armee zusammenarbeiten, um bis zum 30. September 2028 einen betriebsbereiten Reaktor zu entwickeln.
Am 26. Oktober gab Hyundai Engineering & Construction einen Grundsatzvertrag mit Fermi America über den Bau von vier großen Kernreaktoren auf einem 8,1 Quadratmeilen großen Grundstück außerhalb von Amarillo in Texas bekannt. Die von Hyundai entworfenen AP1000-Kernreaktoren werden 4 GW für den HyperGrid-Komplex erzeugen, den weltweit größten integrierten Energie- und KI-Campus. Das 11-GW-Projekt umfasst außerdem 2 GW aus kleinen modularen Reaktoren, 4 GW aus Gas-Kombikraftwerken und 1 GW aus Solar- und Batteriespeichersystemen.
Der integrierte Lizenzantrag für das 500-Milliarden-Dollar-Projekt, das auf eine Idee des ehemaligen Energieministers Rick Perry und des Mitbegründers von Fermi Toby Neugebauer zurückgeht, wird derzeit von der NRC im Eilverfahren geprüft. Unterdessen arbeitet Hyundai E&C an den Planungsaufgaben und Vorbereitungen für die Hauptbauphase, wobei der Abschluss eines EPC-Vertrags (Engineering, Procurement and Construction) bis zum Frühjahr 2026 erwartet wird.
Am 28. Oktober schloss sich Westinghouse Electric Co. mit Cameco Corporation und Brookfield Asset Management zu einer neuen strategischen Partnerschaft mit der US-Regierung zusammen, um den Einsatz von Kernenergie voranzutreiben. Die Regierung hat sich zum Bau neuer Reaktoren im Wert von mindestens 80 Milliarden US-Dollar unter Verwendung der Kernreaktortechnologie von Westinghouse verpflichtet, um die industrielle Basis der Kernenergie in den USA wiederzubeleben.
Die Regierung sagt, dass diese Partnerschaft das Wachstum und die Zukunft der US-amerikanischen Atomindustrie und der damit verbundenen Lieferkette fördern wird. Das gesamte Projekt, bei dem zwei Westinghouse AP1000-Reaktoren zum Einsatz kommen sollen, wird voraussichtlich mehr als 100.000 Arbeitsplätze im Baugewerbe schaffen und 45.000 Arbeitsplätze in der Fertigungs- und Ingenieursbranche in 43 Bundesstaaten sichern oder erhalten.
Dies sind nur einige Beispiele für aktive und geplante Verträge für den Bau von Kernkraftwerken, die durch den Philosophiewechsel bei der NRC und im Weißen Haus aus dem Nichts entstanden sind. Alle Systeme stehen auf Grün – aber es gibt noch Hindernisse.
Selbst mit erheblich verkürzten Genehmigungsfristen wird es Zeit brauchen, bis die Standortplanung abgeschlossen ist, Genehmigungen und Lizenzen vorliegen und die dringend benötigte Stromversorgung für Technologiekonzerne und andere Kunden beginnen kann. Das größte Problem könnte jedoch darin bestehen, genügend Kernbrennstoff zu erschwinglichen Preisen zu finden, um die rasant steigende Nachfrage zu decken.
Eine Möglichkeit, so Ed McGinnis, CEO von Curio, besteht darin anzuerkennen, dass abgebrannte Brennelemente (einschließlich solcher aus Kernwaffen) sicher in neuen nutzbaren Kernbrennstoff und wertvolle seltene Metalle und Materialien (wie Rhodium, Palladium, Krypton-85 und Americium-241) umgewandelt werden können.
McGinnis, ehemals hochrangiger Beamter für Kernenergie im Energieministerium sagt, dass nach fünf Jahren Betrieb nur etwa 4 % des Energiewertes genutzt worden seien und dass die Spaltung von Uran eine Fülle anderer hochwertiger Isotope erzeuge, die für medizinische Zwecke, die Weltraumforschung und industrielle Prozesse verwendet werden könnten.
Das trockene elektrochemische und pyrothermische Verarbeitungssystem von Curio trennt Isotope und Spaltprodukte und separiert außerdem metallische Elemente wie Uran und Plutonium, die jeweils als Reaktorbrennstoffe verwendet werden können. Laut McGinnis reicht dies aus, um in einer Anlage bis zu einem Drittel des jährlichen Bedarfs der USA an nuklearem Uran aus einem einzigen Rohstoff zu decken. Darüber hinaus verkürzt die Wiederaufbereitung die Halbwertszeit erheblich.
Die US-Produktion von Uranoxid stieg 2024 exponentiell auf 677.000 Pfund, gegenüber nur 50.000 Pfund im Jahr 2023, und die Explorations- und Erschließungsaktivitäten erreichten 2023 den höchsten Stand seit zehn Jahren. Negativ zu vermerken ist, dass Anti-Atomkraft-Aktivisten eine Kampagne zur Schließung der White Mesa Mill in Utah führen, in der Uranerz verarbeitet wird – und in den USA werden heute nur etwa 5 % des Kernbrennstoffs im Inland verarbeitet.
Das Problem des Kernbrennstoffs ist nur eines der Hindernisse auf dem Weg zum massiven Wachstum der US-amerikanischen Kernkraftindustrie, die auch ein wichtiger Bestandteil des Wachstums von KI-Rechenzentren und anderen neuen, stromintensiven Technologien ist, die unsere Zukunft prägen. Aber alle Systeme sind startklar – und das ist der große Schritt, der zuerst getan werden musste.
This piece originally appeared at RealClearEnergy.org and has been republished here with permission.
Autor:
Duggan Flanakin is Senior Policy Analyst at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“
Link: https://cornwallalliance.org/data-centers-trump-spark-u-s-nuclear-revival/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Rechenzentren und Trump beflügeln die Wiederbelebung der Kernenergie in den USA erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Opposition ist gegen das Netto-Null-Ziel und plötzlich ist Labor nicht mehr so begeistert davon, eine 2 Milliarden Dollar teure Klimakonferenz auszurichten?
Von Jo Nova
Kurz nachdem die Koalition verkündet hatte, dass sie billigere Energie der globalen Wetterkontrolle vorziehen würde, bekam Anthony Albanese kalte Füße, als es darum ging, die nächste Klimakonferenz COP31 in Adelaide auszurichten.
Nachdem er sich drei Jahre lang wie bei den Olympischen Spielen dafür eingesetzt hat, macht sich Anthony Albanese nun plötzlich Sorgen um Deutschland. Wenn Australien und die Türkei das nicht untereinander regeln, wird der Klimazirkus letztendlich den armen Deutschen überlassen, die dann die COP31 ausrichten müssen
– etwas, das sie nach eigenen Angaben nicht wollen.
Sowohl Australien als auch die Türkei wollen die COP31 ausrichten, und wenn keiner von beiden zurückrudert, werden die Gespräche in Deutschland stattfinden.
Am Rande des diesjährigen Gipfels, der am Montag in Brasilien begann und zwei Wochen dauerte, finden intensive diplomatische Bemühungen statt. Sollte keine Lösung gefunden werden, ist Deutschland als Gastgeber der UN-Klimaorganisation gemäß den Bestimmungen des Übereinkommens zum Handeln verpflichtet.
„Wir müssten, aber wir wollen nicht“, sagte der deutsche Staatssekretär im Umweltministerium, Jochen Flasbarth, am Montag. Er erklärte, die Bereitstellung eines geeigneten Standorts innerhalb von zwölf Monaten nach den Gesprächen würde die starre deutsche Bürokratie überfordern.
„Das sind keine einfachen Dinge. Deutschland braucht mehr Zeit für eine Konferenz. Deshalb senden wir alle Signale aus, die darauf abzielen, Australien und die Türkei um Himmels willen zu einer Einigung zu bewegen, damit diese technische Lösung nicht zum Tragen kommt“, sagte er. …
… Die Forderungen der Türkei folgen einem Muster, sagte Richie Merzian, ein ehemaliger australischer Klimadiplomat und heutiger CEO der in Melbourne ansässigen Clean Energy Investor Group. Die Fähigkeit der Türkei, Entscheidungen in der UN-Gruppe wohlhabender potenzieller Gastgeberländer zu blockieren, habe ihr die Macht verliehen, Verhandlungen zu fordern und Zugeständnisse von konkurrierenden Gastgebern zu erzwingen.
„Ihr einziges Interesse ist ihr Eigeninteresse, nämlich immer nur mehr Finanzmittel von ihrer Seite zu erhalten“, sagte Merzian und wies zudem darauf hin, dass Westasien zwei der letzten drei Klimakonferenzen in Aserbaidschan und den Vereinigten Arabischen Emiraten ausgerichtet hat. „Das Letzte, was die Welt braucht, ist eine weitere COP in dieser Region, die letztendlich zu nichts führt.“
https://www.politico.eu/article/germany-un-climate-host-cop30-brazil-enviornment/
Albanese bringt COP-Waffenstillstand auf den Tisch
Die Türkei hat Australien vorgeworfen, die Aussichten auf eine Kompromisslösung für die Ausrichtung des UN-Klimagipfels im nächsten Jahr zu vereiteln, und argumentiert, Canberra habe „den Prozess blockiert“.
Von Ben Packham, The Australian
Anthony Albanese hat signalisiert, dass seine Regierung bereit ist, die Ausrichtung der UN-Klimakonferenz im nächsten Jahr an die Türkei abzutreten, möchte aber dennoch einige Vorteile für die pazifischen Inselstaaten sichern.
Der Premierminister hatte Australiens Bewerbung noch nicht zurückgezogen, sagte aber am Dienstag, dass Australien die Entscheidung nicht anfechten werde, falls die Delegierten auf der diesjährigen COP (Konferenz der Vertragsparteien) die Türkei bevorzugen sollten.
Er sagte, es gebe in der internationalen Gemeinschaft „erhebliche Bedenken“, dass die Pattsituation zwischen Canberra und Ankara dazu führen würde, dass die COP 2026, wie von den UN-Regeln vorgeschrieben, in der deutschen Stadt Bonn stattfinden müsste.
Albanese bringt nach dem Anschlag aus der Türkei einen Waffenstillstand für die COP31 ins Gespräch.
Erstaunlich, wie schnell sich politische Gewissheiten ändern können, nicht wahr? Noch vor Kurzem hoffte Anthony Albanese, neben Antonio Guterres auf der glorreichen Weltbühne zu stehen und damit zu prahlen, wie viele Solaranlagen Australien besitzt, aber jetzt will er wohl lieber still und leise abtreten.
Dass die aktuelle COP30 ein Flop war, bei dem Russland, China, Indien und die USA nicht teilnahmen und die meisten Länder ihre Klimapläne nicht aktualisierten, ist wenig hilfreich. Sollte die australische Opposition endlich aktiv werden und den Klimakampf entfachen, wird die COP31 in Adelaide ein leichtes Ziel sein und eine realitätsferne, elitäre Öko-Attitüde ausstrahlen, während die Wähler mit ihren Stromrechnungen zu kämpfen haben. Das wäre ein gefundenes Fressen für die politischen Gegner. Zwei Milliarden Dollar sind eine Menge Geld, das man für eine so schwache UN-Veranstaltung ausgibt.
Die Opposition hat Australien möglicherweise gerade 2 Milliarden Dollar erspart. Oder vielleicht war es die COP30.
Der Beitrag Die Opposition ist gegen das Netto-Null-Ziel und plötzlich ist Labor nicht mehr so begeistert davon, eine 2 Milliarden Dollar teure Klimakonferenz auszurichten? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Das Elend mit dem Wasserstoff
Eigentlich sollte klimaneutraler Wasserstoff schon in wenigen Jahren ein Hauptstandbein der europäischen Energiewende werden. Doch die kühnen Ankündigungen erweisen sich als realitätsfremd. Grüner Wasserstoff ist viel zu teuer und wird das auf absehbare Zeit bleiben.
Von Peter PantherDie Abrechnung des Bundesrechnungshofes mit der Nationalen Wasserstoffstrategie war schonungslos: Im Oktober kam das Gremium zum Schluss, dass die Pläne Deutschlands zur Herstellung von klimaneutralem Wasserstoff gescheitert sind. «Trotz milliardenschwerer Förderungen verfehlt die Bundesregierung ihre ambitionierten Ziele beim Hochlauf der Wasserstoffwirtschaft», bilanzierte der Bundesrechnungshof. Angebot und Nachfrage würden beim Wasserstoff deutlich hinter den Erwartungen zurückbleiben. «Dies gefährdet das Erreichen der Klimaneutralität bis 2045 und die Zukunftsfähigkeit des Industriestandorts Deutschland.»
Bis 2030 will das Land eine Elektrolyse-Kapazität von zehn Gigawatt zur Wasserstoffproduktion aus erneuerbarem Strom aufbauen. Heute sind aber erst zwei Prozent davon Wirklichkeit geworden. Schon im August hielt der Nationale Wasserstoffrat, das Expertengremium zur Umsetzung der Strategie, fest: «Ziele für den Wasserstoffhochlauf im Jahr 2030 krachend verfehlt.» Sogenannt grüner Wasserstoff sei «sehr viel teurer» als in den Prognosen angenommen.
«Übermässig ambitioniert»Europaweit sieht es nicht besser aus. Im letzten Juli beurteilte der Europäische Rechnungshof die Wasserstoffziele der EU als «unrealistisch». Zwar hat die Union 18,8 Milliarden Euro in die Förderung von sauberem Brennstoff investiert. Doch das Ziel von insgesamt zehn Millionen Tonnen Wasserstoff durch Produktion und Importe bis im Jahr 2030 sei «übermässig ambitioniert», urteilte der Rechnungshof. Die EU werde dieses Ziel wahrscheinlich nicht erreichen.
Schon Ende 2024 wollte Europa sechs Gigawatt an installierter Elektrolyse-Kapazität für Wasserstoff haben. Realisiert wurden bis dahin aber nur 0,385 Gigawatt, also 6,4 Prozent. Und im April 2025 kamen Energiespezialisten der Universitäten Bonn und Köln zum Schluss, dass die EU-Ziele für 2030 unter den gegebenen Umständen «nur schwer erreichbar» seien. «Während die politischen Vorgaben ambitioniert sind, bleibt die tatsächliche Investitionstätigkeit hinter der Zielsetzung zurück», schrieb die Uni Bonn. Der wichtigste Grund dafür: «Die Kosten für grüne Wasserstoffproduktion sind entgegen den Erwartungen nicht gesunken.»
Heute ist Wasserstoff, der mit Wind- und Solarstrom produziert wird, noch immer zwei- bis viermal teurer als herkömmlicher Wasserstoff auf Erdgas-Basis. Verglichen mit Erdgas selbst beträgt der Kostennachteil sogar den Faktor vier bis fünf. Es ist kein Wunder, dass in Deutschland und Europa kühn angekündigte Wasserstoffprojekte reihenweise scheitern.
«Noch keine tragfähige Energiequelle»Insbesondere die Produktion von «grünem» Stahl mittels Wasserstoff hat sich als Illusion erwiesen. Der Konzern ArcelorMittal zum Beispiel hatte geplant, seine beiden Stahlwerke in Bremen und Eisenhüttenstadt auf grünen Wasserstoff umzurüsten. Doch im Juni 2025 lehnte das Unternehmen angebotene staatliche Zuschüsse über 1,3 Milliarden ab – mit der Begründung, grüner Wasserstoff sei «noch keine tragfähige Energiequelle». Die Umrüstung der beiden Stahlwerke sei nicht wirtschaftlich.
Auch Ankündigungen für den Bau von Elektrolyseuren für die Wasserstoffproduktion werden zurückgenommen. So wollte das finnische Energieunternehmen Neste in der Stadt Porvoo eine Elektrolyseanlage mit stattlichen 120 Megawatt Leistung bauen. Doch im Oktober 2024 kam die Absage. Die aktuellen Marktbedingungen seien schwierig, und die wirtschaftliche Nutzung des erzeugten Wasserstoffs sei limitiert.
«Deutlich teurer als angenommen»Die Träume, grünen Wasserstoff in Weltgegenden herzustellen, wo ausreichend Solarstrom erzeugt werden kann, platzen ebenso. Deutschland hat zwar das Ziel, 50 bis 70 Prozent des 2030 (angeblich) benötigten Wasserstoffs zu importieren. Entsprechend war zum Beispiel der Energiekonzern RWE an einem Projekt in Namibia beteiligt und hatte angekündigt, ab 2027 jährlich bis zu 300’000 Tonnen grünen Ammoniak (ein Derivat von Wasserstoff) aus dem afrikanischen Staat einzuführen. Doch vor kurzem zog sich RWE aus dem Projekt zurück. «Die Nachfrage nach Wasserstoff sowie nach Wasserstoff-Derivaten wie Ammoniak entwickelt sich in Europa langsamer als erwartet», lautete die Begründung.
Schon im Frühling waren Forscher der TU-München, der University of Oxford und der ETH Zürich zum Schluss gekommen: «Grünen Wasserstoff in Afrika für den Export nach Europa zu produzieren, ist deutlich teurer als angenommen.» Die Wissenschaftler hatten rund 10’000 potentielle Standorte in Afrika für die Wasserstoffproduktion untersucht. Nur gerade zwei Prozent erwiesen sich als wettbewerbsfähig. «Wenn der momentane Hype nicht mit sinnvollen politischen Massnahmen unterfüttert wird», hielt Co-Autorin Stephanie Hirmer fest, «riskieren wir Projekte, die am Schluss weder kostengünstig sind noch einen Mehrwert für die Bevölkerung vor Ort schaffen.»
Keine Spur von der «nächsten grossen Geschichte»Die Wasserstoff-Pleite bedeutet nichts Gutes für die angestrebte Energiewende in Deutschland und Europa. Denn der Einsatz dieses Energieträgers ist zentral bei der Dekarbonisierung der Industrie und der Gesellschaft. Grüner Wasserstoff soll überall dort eingesetzt werden, wo eine direkte Elektrifizierung schwierig ist, eben zum Beispiel bei der Herstellung von Stahl, aber auch im Schwerlast-, im Schiffs- und im Flugverkehr. Ebenso soll Wasserstoff als Speichermedium dienen, um überschüssige erneuerbare Energie für Zeiten von Dunkelflauten aufzubewahren.
Noch 2023 hatte der damalige deutsche Wirtschaftsminister Robert Habeck (Grüne) Wasserstoff als «nächste grosse Geschichte» bezeichnet. Doch grüner Wasserstoff bleibt, wie gesehen, bis auf Weiteres viel zu teuer, um grossflächig eingesetzt zu werden. Industriebetriebe, die darauf setzen, wären sofort unwirtschaftlich.
Der rasche Hochlauf einer Wasserstoffwirtschaft erweist sich somit als realitätsfremd. Umgekehrt ist das Netto-Null-Ziel ohne Wasserstoff unmöglich zu erreichen. Die grüne Energiewende in Europa hat also ein ziemliches Problem – eines mehr, muss man sagen.
Der Beitrag Das Elend mit dem Wasserstoff erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
CCS – Die problematische angebliche „Lösung“ des „Klimaproblems“
Zur Lösung des „Klimaproblems“ soll CO2 abgeschieden und unter Druck bis 300 Atm. unterirdisch verpresst werden ( CCS: „Carbon Capture and Storage“ ).
von Prof. Carl-Otto WeissDa erhebt sich zunächst die Frage: Ist das eigentlich nötig? Betrachtet man die wissenschaftliche Literatur, so findet man über 3000 Arbeiten, die auf der Basis von Messungen feststellen, dass CO2 keinen oder höchstens einen vernachlässigbaren Einfluss auf das Erdklima hat. KEINE EINZIGE Arbeit findet sich, die auf Basis von Messungen einen wesentlichen Einfluss von CO2 auf das Erdklima belegen. Kurz das „Klimaproblem“ findet in den Massenmedien und nicht in der Wissenschaft oder der Realität statt.
Die Behauptungen der Massenmedien werden lediglich begründet mit Modellrechnungen, die nachweislich wesentliche falsche Annahmen enthalten, wie beispielsweise die „Wasserdampfverstärkung“, die schon 1910 mittels Messungen der Luftfeuchtigkeit widerlegt wurde. Eine Untersuchung des Erdklimas der letzten 2000 Jahre zeigte zudem eindrucksvoll, dass das Erdklima praktisch ausschließlich von den 3 bestens bekannten und vielfach untersuchten Zyklen der Sonnenaktivität bestimmt wird (die ihrerseits offenbar von den Planetenumläufen gesteuert werden). Eine Minderung des CO2 Gehaltes der Atmosphäre hat entsprechend keinen Einfluss auf das Erdklima (würde aber schwere Schäden in der Ernährung der Weltbevölkerung verursachen, da CO2 die Grundsubstanz ist, ohne die auf der Erde kein organisches Leben möglich ist ). Statt unter hohen Kosten zu versuchen, den CO2 Gehalt der Atmosphäre zu verringern („Net Zero“) sollte man richtigerweise CO2 Emission finanziell belohnen.
Dies völlig unschädliche und für das Leben auf der Erde völlig unverzichtbare Gas soll jetzt unter extremem Druck „endgelagert“ werden. Wobei angemerkt werden muss, dass Gestein schon ab Drücken von 10 Atm bricht ( siehe „Fracking“ ), eine endgültige Endlagerung also ohnedies völlig unmöglich ist.
In der politischen und öffentlichen Diskussion wird allerdings die enorme Gefahr dieses Gases bei höheren Konzentrationen völlig übersehen bzw. verschwiegen. Zahlenbeispiel:
Würde nur 1% des CO2, welches nach den Planungen verpresst werden soll, freigesetzt, durch technischen Unfall wie etwa einen Rohrbruch, oder absichtlich, so würde das eine Fläche der Größe Deutschlands mit einer 7 m hohen Schicht von CO2 mit Atmosphärendruck bedecken ( CO2 ist schwerer als Luft ). Auf dieser Fläche würde augenblicklich jedes organische Leben ersticken. Rettungsaktionen unmöglich da Motoren Sauerstoff benötigen. Ein anschauliches Beispiel ist die „Katastrophe vom Nyos See“ ( Kamerun ). Dort stieg unter dem hohen Druck in der Tiefe gelöstes CO2 als Blase auf, und floss in die umliegenden Täler. Und diese vergleichsweise geringe Menge erstickte dort 1700 Menschen.
CCS ist also, nüchtern betrachtet, eine gigantische Zeitbombe. Einmal verpresst kann ein Austritt jederzeit erfolgen. Und diese Gefahr wird also, wie geplant, für ewige Dauer bestehen. Einmal verpresst lässt sich diese Zeitbombe nie wieder entschärfen.
Diese einfachen elementaren Tatsachen sind natürlich bekannt. Wenn die Politik , wie hier, völlig ungeeignete Maßnahmen zur Erreichung angeblicher Ziele wieder und wieder verficht, dann sind immer die vorgeblichen Ziele nicht die wirklich angestrebten Ziele.
Die „Endlagerung“ von CO2 steht ja in auffälligem Widerspruch zu den wirklichen Zielen der entfachten Klimahysterie. Die ganze CO2 Propaganda zielt ja darauf hin, die Bevölkerungen zu verarmen und damit auf Dauer beherrschbar zu machen, unter dem Vorwand, es sei unmöglich, „das Klima zu retten“, ohne Verarmung.
Nun wäre ja mit CCS angeblich die Möglichkeit gegeben, „das Klima zu retten“, OHNE die Bevölkerungen zu verarmen. Dies widerspricht so sehr der ganzen raison d’etre, dem zentralen Ziel der Propaganda, dass die Vorstellung unwahrscheinlich erscheint, CCS könnte zu etwas Anderem dienen als zur Eliminierung ganzer Bevölkerungen, zwecks Erreichung der vieldiskutierten Bevölkerungsreduktion.
Freispruch für CO2
Der Beitrag CCS – Die problematische angebliche „Lösung“ des „Klimaproblems“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die UN-Klimakonferenz hat die „fossilen Brennstoffe“ aus dem Abkommensentwurf gestrichen. Aktivisten sagen: „Uns bleibt nichts mehr.“
Es ist, als ob Satan aus der Bibel verschwunden wäre.
Das heilige Gefüge der Klimareligion zerfällt zusehends. Das COP30-Abkommen wird derzeit in Brasilien ausgehandelt – doch im Entwurf fehlt jede Erwähnung von „fossilen Brennstoffen“.
Offenbar haben die reichen Ölnationen einen Block gebildet, der sich gegen ein Urteil wendet, das Länder zu stärkeren und schnelleren Maßnahmen zur Reduzierung ihres Verbrauchs fossiler Brennstoffe verpflichtet. Großbritannien, Frankreich und einige andere Nationen haben dies abgelehnt, doch dieselben kleinen Inselstaaten, die Angst vor dem Untergang haben, sind dem Ölblock beigetreten.
Offenbar wurde ihnen mehr Geld angeboten, um sich an den Klimawandel anzupassen.
Der UN-Klimagipfel hat die Erwähnung fossiler Brennstoffe aus dem Abkommensentwurf gestrichen.
Von Georgina Rannard, BBC
Jegliche Erwähnung fossiler Brennstoffe, die mit Abstand den größten Beitrag zum Klimawandel leisten, wurde aus dem Entwurf des Abkommens gestrichen, über das derzeit verhandelt wird, da die UN-Klimaverhandlungen COP30 in Belém, Brasilien, in ihre Endphase gehen.
Brasiliens Präsident Luiz Inácio Lula da Silva und einige Länder, darunter Großbritannien, wollen, dass der Gipfel die Länder zu stärkeren und schnelleren Maßnahmen zur Reduzierung ihres Verbrauchs fossiler Brennstoffe verpflichtet.
Ein früherer Text enthielt drei mögliche Wege, um dies zu erreichen, diese Formulierung wurde jedoch nach Widerstand aus den ölproduzierenden Nationen gestrichen.
Die französische Umweltministerin Monique Barbut erklärte, das Abkommen werde von „Ölförderländern – Russland, Indien, Saudi-Arabien, aber auch vielen Schwellenländern“ blockiert. Sie deutete an, dass kleine Inselstaaten einem abgeschwächten Abkommen zu fossilen Brennstoffen zustimmen könnten, wenn sie im Gegenzug mehr Finanzmittel erhielten, um sich an die durch den Temperaturanstieg verursachten Veränderungen in ihren Ländern anzupassen.
Es ging immer nur ums Geld.
Die große Frage hierbei (falls sich das bewahrheitet), ist, warum der Ölblock das nicht schon vor Jahren getan hat?
Die noch viel wichtigere Frage ist, ob die Ölkonzerne einen Weg gefunden haben, die UN zu umgehen. Wenn sie die kleinen Länder direkt und im Geheimen bezahlen, entgeht der UN ihr Anteil an den Einnahmen. Welch eine Farce!
Die Ironie liegt darin, dass es, wenn der „menschengemachte Klimawandel“ tatsächlich eine Krise wäre, für die Ölkonzerne sinnvoller wäre, den Inseln Geld für den Bau von Deichen zu zahlen – anstatt die Weltwirtschaft umzugestalten, um die Wolken und die Ozeane zu kontrollieren. Doch dieses undenkbare Sakrileg schaltet die korrupten Zwischenhändler aus und beendet das gesamte totalitäre Machtspiel.
Die UN wird ihr Ziel, eine Weltregierung zu werden, nicht so leicht aufgeben.
Die französische Umweltministerin war nicht erfreut:
Zu Frankreichs Position sagte sie: „Zum jetzigen Zeitpunkt würden wir es akzeptieren, selbst wenn wir keinen Fahrplan hätten, sondern zumindest die fossilen Brennstoffe erwähnt würden. Aber so wie es jetzt aussieht, haben wir nichts mehr übrig.“
Man kann davon ausgehen, dass „The Blob“ bis zum Äußersten kämpfen wird. Es wird Streit geben und dann möglicherweise „euphorische Freude“ über eine „historische Vereinbarung“, die dann in den Neun-Uhr-Nachrichten präsentiert werden soll.
Der Beitrag Die UN-Klimakonferenz hat die „fossilen Brennstoffe“ aus dem Abkommensentwurf gestrichen. Aktivisten sagen: „Uns bleibt nichts mehr.“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Winter in der Antarktis werden kälter, nicht nur bei der deutschen Forschungsstation Neumayer.
- Die CO₂-Konzentration der Atmosphäre steigt, aber die Winter in der Antarktis werden kälter
Winter in der Antarktis sind die Monate Juni, Juli, August, bei uns auf der Nordhalbkugel sind das die Sommermonate. Wir vergleichen nun im Folgenden diese drei Monate mit den Deutschlandtemperaturen derselben Monate, das sind bei uns bekanntlich die drei Sommermonate. Wir beginnen ab 1988, dem eigentlichen Klimawandel in Mitteleuropa.
Abb. 1. Seit 1988 wurden die drei Sommermonate, Juni, Juli, August deutlich wärmer in Deutschland.
Nun die deutsche Antarktisstation Neumayer, gleiche Monate, gleicher Betrachtungszeitraum
Abb. 2: Die gleichen drei Monate=Winter in der Antarktis werden genauso deutlich kälter wie sie bei uns wärmer werden, siehe Steigungsformel.
Nun hat natürlich die Atmosphärenkonzentration von CO₂ am Südpol genauso zugenommen wie überall auf der Welt, im Gegensatz dazu steht jedoch die Temperaturentwicklung
Abb. 3. CO₂-Zunahme und Temperatur verhalten sich in der Antarktis gegensätzlich seit 1988. Je höher die CO₂-Konzentration, desto kälter wird es.
Die einzig wissenschaftlich richtige Schlussfolgerung ist: Entweder führt mehr CO₂ zu Kälte oder CO₂ und Temperaturen haben überhaupt nichts miteinander zu tun. CO₂ kann kein Erwärmungstreiber sein, da es bei der deutschen Station kälter wird.
Aufforderung an die Leser. Die deutschen Medien belügen die Menschen, gerade die deutsche Wetterstation in der Antarktis zeigt dies deutlich: es wird deutlich kälter seit 1988. Bitte diese Tatsache weitererzählen, damit diese dreiste Lüge aufgedeckt endlich aufgedeckt wird.
Nun ist die Antarktis groß, deshalb sollen noch weitere Einzelstationen abgebildet werden.
Abb. 4: Antarktis, Stationsübersicht,
Concordia oder Dome C ist eine Eiskuppel im ostantarktischen Eisplateau, Sie ist ein wichtiger Standort für wissenschaftliche Forschung, unter anderem für die europäische Eisbohrkern-Initiative (EPICA) und beherbergt heute die internationale Forschungsstation Concordia
Abb. 5: deutlicher Temperaturrückgang in den letzten 35 Jahren.
Genau gegenüberliegend von Neumayer, Dumont D’urville, am magnetischen Südpol.
Abb. 6: Auch diese Station zeigt eine deutliche Temperaturabkühlung, schon seit 1980!!!
Merke: In Deutschland werden die Sommer vor allem seit 1988 deutlich wärmer. Im Gegensatz dazu steht die Antarktis. Dort werden die Temperaturen in den gleichen Monaten genauso deutlich kälter.
Und wie verhält sich das Südpolarmeer, das die Antarktis umspült? Auch hier werden ständig irgendwelche erfundene Märchen vom großen Schmelzen des Eises erzählt, die Wahrheit ist folgende:
Abb. 7: Die Temperatur des Südpolarmeeres, das die Antarktis umspült, ist seit 1980 etwa gleich, mit einer geringen Tendenz zur Temperaturabnahme, siehe negative Steigungsformel
Zusammenfassung: Die Antarktis kühlt in den drei Wintermonaten sehr stark ab. Dies wird ja auch immer wieder in den von Christian Freuer zusammen gestellten „Kältereports“ angesprochen. Die Antarktis widerlegt damit die Theorie – die eigentlich nur eine Hypothese der gekauften unseriösen Wissenschaft ist – des wärmend wirkenden CO₂-Treibhauseffektes.
Merke: Dieser Artikel bei EIKE hat mithilfe der Antarktistemperaturen den stark wärmenden CO₂-Treibhauseffekt eindeutig widerlegt. Dieser angebliche stark wärmende Effekt ist ein erfundenes Märchen!!! Er ist vielmehr ein Geschäftsmodell, der über horrende Klimaabgaben unser Geld will. Wie lange lassen wir uns diesen Geldraub noch bieten?
Unsere Aufklärungsziele:
Wir leugnen nicht die IR-Absorption und Emission bestimmter Moleküle. Aber wie wir zeigen konnten, hat dieser Effekt wohl kaum eine oder gar keine Wirkung auf die atmosphärischen Temperaturen. CO₂ ist kein Giftgas und schon gar kein Klimakiller, sondern CO₂ ist ein lebensnotwendiges Gas für die Photosynthese und das Pflanzenwachstum auf dieser Erde. Die Schöpfung der Erde ist auf Kohlenstoff und Kohlendioxid aufgebaut. Ein weiterer CO₂-Anstieg hätte positive Wirkungen für das Leben und wäre wünschenswert.
Grafik 8: Noch ist die Flora und Fauna auf diesem Planeten nicht gerettet. Wir haben bisher erst die CO₂-Konzentrationsabnahme stoppen können. Ein deutlicher CO₂-Aufwärtstrend, eine Konzentrationszunahme auf einen optimalen Wert für Flora und Fauna ist noch nicht erkennbar
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaos-Anstifter. Deren finanzielle Unterstützung untergräbt das Vertrauen in die derzeitige angeblich demokratische Politik. Bezahlt, um das Geschäftsmodell Klimarettung am Laufen zu halten. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier von uns beschrieben.
Grafik 8: Noch ist die Flora und Fauna auf diesem Planeten nicht gerettet. Wir haben bisher erst die CO₂-Konzentrationsabnahme stoppen können. Ein deutlicher CO₂-Aufwärtstrend, eine Konzentrationszunahme auf einen optimalen Wert für Flora und Fauna ist noch nicht erkennbar
Matthias Baritz, Naturschützer und Naturwissenschaftler
Josef Kowatsch, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher.
Der Beitrag Die Winter in der Antarktis werden kälter, nicht nur bei der deutschen Forschungsstation Neumayer. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert
Ende September 2025 erhielt ich die Anfrage vom Kontrafunk (hier), ob ich nicht einmal in seinem Format „Vorlesung“ über Strom vortragen könne – Vorlesungsdauer eine Stunde. Ich sagte zu, weil diese Dauer ausreicht, um neben Allgemeinem zur elektrischen Energie auch detailliert auf die Probleme der deutschen Energiewende einzugehen. Die deutsche Energiewende passte zum Thema wie die „Faust aufs Auge“, denn mit Windrädern und Photovoltaik als ihren Grundpfeilern wird ausschließlich Strom erzeugt. Und dass dies nicht unproblematisch ist, weiß heute jedes Kind. Die angeblichen Vorzüge der Energiewende – propagiert von ihren Profiteuren und dem ÖRR – hat zu Verunsicherung in der Bevölkerung geführt. Vielleicht sei ja doch etwas dran, ist oft zu hören. Mein Ziel war daher: Einmal den ausführlichen physikalischen Nachweis zu erbringen, dass die zwei Fundamentalmängel der deutschen Energiewende ihre Anwendung in einem Industrieland ausschließen. Oder genauer: Die deutsche Energiewende zu analysieren und zu belegen, was sie wirklich ist, nämlich degrowth, Rückkehr ins energetische Mittelalter und Nirwana jeder Vernunft.
Die Vorlesung erhielt vom Kontrafunk den Titel „Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert“. Die Vorlesung kann unter dem Kontrafunk-Link
frei angehört werden. Nachfolgend ist auch ihr Text angegeben, um bei Bedarf interessierende Einzelheiten nachlesen zu können. Einziger Unterschied zur gesprochenen Vorlesung im Kontrafunk sind dabei einige Internet-Links zu relevanten Quellen, die im Text anklickbar sind, verbal dagegen beschrieben werden mussten, damit Zuhörer sie im Browser bei Bedarf googeln konnten.
Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert
Horst-Joachim Lüdecke
24. Oktober 2025
Der moderne Mensch braucht immer mehr Energie. Kostengünstige Energie und insbesondere preiswerte elektrische Energie sind die wichtigsten Aktivposten einer erfolgreichen Industrienation. Bei zu hohen Energiepreisen verliert ein Industrieland seine Konkurrenzfähigkeit und steigt wirtschaftlich ab. Elektrische Energie ist zumindest in Industrieländern zur weltweit wichtigsten Energieform geworden.
Dies wird einem erst richtig bewusst, wenn elektrische Energie durch einen Blackout plötzlich fehlt. Während etwa Unterbrechungen der Benzinversorgung nur teure Hindernisse für den Verkehr, die Produktion und das Geschäftsleben sind, bricht dagegen bei einem Blackout plötzlich unsere gesamte technische Lebensgrundlage weg. Kassen und Kühlanlagen in Supermärkten, Licht, Telefon, Radio, Fernsehen, Handy, Bahn und Straßenbahn, kurz alle mit Strom betriebene Technik ist nicht mehr nutzbar. Bisherige Erfahrungen zeigen, dass nach wenigen Tagen Blackout die Supermärkte geplündert werden. Die Ordnungskräfte sind ohne Strom machtlos, nach mehr als einer Woche herrscht gefährliches Chaos. Notstromaggregate in Krankenhäusern haben, wenn überhaupt, nur für die gesetzlich vorgeschriebenen vierundzwanzig Stunden Sprit.
Trotz des höchsten Stellenwertes von elektrischer Energie in Industrienationen ist ihr Anteil vergleichsweise klein im Vergleich mit allen anderen genutzten Energieformen wie im Wesentlichen von Wärme aus Verbrennung von Kohle, Gas und Erdöl. Weltweit machte Strom im Jahr 2024 je nach Datenquelle zwischen 12 und 17 Prozent der weltweit genutzten Energie aus, in Deutschland waren es genau 15 Prozent. Die weit vorwiegenden Energieträger sind sowohl weltweit als auch in Deutschland immer noch Kohle, Gas und Erdöl. Die hierzulande so propagierten Methoden der Windräder und Photovoltaik zur Stromerzeugung machen weltweit nur jeweils 1 Prozent der Gesamtenergie aus und spielen praktisch keine Rolle. Auch der weltweite Anteil der Kernenergie von etwa 4,5 Prozent ist relativ klein. Die deutschen Zahlen für Wind und Sonne sind zwar etwas höher, aber ebenfalls unbedeutend. Wie kann das aber sein, denn die Medien nennen doch beeindruckend hohe Zahlen? Dieser Widerspruch wird hier später noch aufgeklärt.
Woher kommt eigentlich die von uns genutzte Energie? Energie kann schließlich weder erzeugt noch vernichtet werden. Sie steckt in natürlichen Quellen und wird aus der Umwelt bezogen wie aus den fossilen Energiequellen Kohle, Erdöl, Erdgas sowie aus Uran ferner aus Sonnenstrahlung, Wind, Wasserkraft und Biomasse. Die aus diesen Quellen insgesamt gewonnene Energie eines Landes ist seine Primärenergie. Endenergie sind die umgewandelten Energie-Träger wie Kraftstoffe, Heizöl, heißes Wasser als Fernwärme und so weiter. Nutzenergie ist das, was vom Verbraucher verwendet wird, hier insbesondere die elektrische Energie.
Die technischen und physikalischen Eigenschaften von elektrischer Energie, ihre Besonderheiten und die Gründe ihres höchsten Stellenwerts sind die Stationen der Vorlesung. So werden insbesondere die Vorteile von elektrischer Energie gegenüber anderen Energieformen behandelt. Weitere Stationen sind „Die Physik und Technik von elektrischer Energie in Erzeugung, Verbrauch und Speicherung“. Die deutsche Energiewende basiert im wesentlichen auf den im großen Maßstab eingesetzten neuen Methoden der Windräder und Photovoltaik, die ausschließlich elektrische Energie erzeugen. Als Folge dieser neuen Energiepolitik hat Deutschland inzwischen weltweit die höchsten Strompreise. Daher behandelt die letzte Vorlesungs-Station „die Besonderheiten der Strom-Erzeugung und -nutzung in Deutschland.“ Es wird dort auch auf die folgende Kernfrage unserer Stromversorgung eingegangen, die allen technisch besser informierten gewissenhaften Zeitgenossen den Schlaf raubt: Wie weit können überhaupt unsere bisherigen Grundlastkraftwerke mit Kohle und Gas durch die neuen Methoden ersetzt werden? Ferner wird auf die Frage eingegangen, ob das komplette Umkrempeln unserer ehemals bestens funktionierenden Stromwirtschaft, das rücksichtslos gegen unsere überlebenswichtige energieintensive Industrie durchgezogen wird, überhaupt noch vernünftig ist und das Prinzip der Verhältnismäßigkeit einhält.
Ihnen ist inzwischen vielleicht aufgefallen, dass sowohl von elektrischer Energie als auch von elektrischem Strom oder kurz Strom die Rede war, so dass vielleicht der Eindruck entstand, Strom sei mit elektrischer Energie identisch. Das ist aber nicht der Fall. Aber welche Bezeichnungen sind dann korrekt? Die physikalischen Begriffe der Elektrotechnik sind zwar eindeutig definiert und unverwechselbar, nur kümmert sich die Umgangssprache oft nicht darum. So sind zum Beispiel die Bezeichnungen Strommenge oder Stromverbrauch physikalisch unsinnig. Natürlich ist mit Strom fast immer die elektrische Energie gemeint. Weil „elektrische Energie“ aber zu sperrig ist, machen Umgangssprache und sogar Stadtwerke auf der Rechnung einfach Strom daraus. Man sollte hier nachsichtig sein. Die korrekte Ausdrucksweise wird in dieser Vorlesung eingehalten, wenn sie für das Verständnis wichtig ist. Ansonsten wird aber auch hier dem üblichen und nicht immer korrekten Sprachgebrauch gefolgt. Außerdem wissen Sie dann schon aus der Vorlesung, was gemeint ist.
Mit den bitte nicht zu verwechselnden physikalischen Größen Energie und Leistung soll der folgende kurze Überblick beginnen: „Leistung ist Energie-pro-Zeit“, umgekehrt wird daraus „Energie ist Leistung-mal-Zeit“. Dieser grundlegende Zusammenhang wird uns immer wieder begegnen. Was ist jetzt aber elektrischer Strom oder kurz Strom? Er ist eine Flussgröße und keine Energiegröße. Strom ist fließende elektrische Ladung, meist von negativ geladenen Elektronen durch einen Stromleiter. Der Elektronenfluss wird von einem elektrischen Potentialunterschied angetrieben wie aus einer Batterie oder einem elektrischen Generator. Diese Bewegung von Elektronen kann nur in Stromleitern erfolgen, das sind vorwiegend geeignete Metalle, meistens Kupfer aber auch Silber, Gold und Aluminium, wobei Silber und Gold sogar noch besser als Kupfer leiten. In metallischen Stromleitern sind die äußeren Elektronen ihrer Atome relativ frei beweglich, so dass sie sich in Richtung eines elektrischen Potentialgefälles bewegen können.
Die Gravitation spielt beim Strom keine Rolle. Es ist daher auch keine zusätzliche Energie aufzuwenden wenn eine elektrische Leitung ansteigt – im Gegensatz etwa zum Energieaufwand beim wiederholten Transport von Kohle von einem tiefgelegenen zu einem höhergelegenen Ort, den man dann als zusätzlichen Kostenfaktor ansehen könnte. Aber auch Wasser, das Chloride, Sulfate oder Carbonate enthält, leitet Strom. Die Strömungsgeschwindigkeit der Elektronen in einem Stromleiter beträgt erstaunlicherweise nur wenige Millimeter pro Sekunde, auch bei höheren Stromstärken, weil dann auch entsprechend größere Leiterdurchschnitte verwendet werden. Im Gegensatz zu den fast kriechenden Elektronen verbreiten sich aber Änderungen wie zum Beispiel das Absperren des Stroms oder ein elektromagnetischer Impuls mit bis 90 Prozent der Lichtgeschwindigkeit von 300.000 km/s im Stromleiter. Strom als fließende Elektronen erzeugt im Leiter stets ein wenig Reibungswärme, so dass es selbst bei günstigsten Höchstspannungs-Gleichstrom-Übertragungen in Freileitungen zu Verlusten von etwa 3-4 Prozent pro 1000 km Länge kommt. Verlustfreie elektrische Leitfähigkeit als sogenannte Supraleitung gibt es zwar, aber nur in speziellen Metall-Legierungen bei ausreichender Kühlung. In der Praxis werden supraleitende Magnetspulen zum Beispiel im Teilchenbeschleuniger der Genfer Großforschungseinrichtung CERN eingesetzt, wobei bis minus 271 Grad Celsius mit superfluidem Helium gekühlt wird. Das sind nur 2 Grad über dem absoluten Temperaturnullpunkt.
Nun zu den physikalischen Einheiten, der uns hier interessierenden elektrischen Größen. Für die Maßeinheiten werden die Namen maßgeblicher Entdecker von physikalischen Gesetzen genommen, der Anfangsbuchstabe ist dann die Kurzbezeichnung der Maßeinheit. So in der Elektrotechnik für den Strom das A für André Ampere, für die elektrische Spannung das V für Alessandro Volta, und für die elektrische Leistung das W für James Watt. Energie hat die Maßeinheit J für James Joule. Die Sekunde ist ein kleines s zur besseren Unterscheidung.
Fangen wir mit Strom als Fluss von elektrischer Ladung an. Alle Flussgrößen sind Quotienten mit der Zeit im Nenner. Mit der Maßeinheit Coulomb für die elektrische Ladung ist Coulomb-pro-Sekunde die Maßeinheit von Stromstärke als das Ampere. Die Maßeinheit der elektrischen Spannung ist das Volt. Die Leistung Joule-durch-Sekunde ist in der Elektrotechnik kürzer das identische Watt. Und weil Energie Leistung-mal-Zeit ist, wird die elektrische Energie zu Watt-mal-Sekunde oder kurz Wattsekunde, praktischer meist Kilowattstunde. Eine Wattsekunde ist identisch mit einem Joule. Kilowattstunden finden Sie auf Ihrer Stromrechnung. Man zahlt für die verbrauchte Menge elektrischer Energie und nicht oder höchstens nur einmal für die elektrische Leistung, die nur zur Verfügung steht. Beim Autokauf ist es ähnlich. Im Kaufpreis ist die Leistung des Motors enthalten. Nur für die verbrauchte Energie beim Fahren ist jedesmal beim tanken zu zahlen.
Volt, Ampere und Watt sind durch den einfachen Zusammenhang Volt-mal-Ampere ist Watt miteinander verknüpft. Er kommt hier später immer mal wieder vor. Eine erste Begegnung mit diesem Zusammenhang wären vielleicht die dicken Kabel an der Autobatterie, wobei die Frage aufkommen könnte, warum diese Kabel bei mickrigen 12 Volt der Batterie so dick sind. Die Autobatterie muss aber nicht nur beim Starten des Anlassers ordentlich Leistung in Watt aufbringen. Das kann sie aber bei den wenigen 12 Volt wegen „Volt-mal-Ampere gleich Watt“ nur mit ausreichend viel Strom und der braucht eben dicke Kabel.
Noch weitere Eigenschaften von Strom sind interessant: Eine stromdurchflossene Leitung enthält praktisch keine Energie und sei sie noch so groß wie vielleicht eine 600 Kilometer lange 380.000 Volt Freileitung mit 700 Megawatt. Die elektrische Leistung eines Strom-Erzeugers und seine gelieferte Energie entsprechen ferner genau denen des Verbrauchers, von den geringen Wärmeverlusten der Stromleitung abgesehen. Um in großen Stromnetzen dieses Gleichgewicht von jetzt vielen Erzeugern und noch zahlreicheren Verbrauchern bei sich ändernden Verbrauchswerten einzuhalten, sind Erzeuger erforderlich, die sich problemlos den Verbrauchswerten anpassen können. Das war im ehemalig bestens funktionierenden Stromnetz Deutschlands bis etwa zum Ende des zwanzigsten Jahrhunderts auch der Fall. Mit der Energiewende und ihren jetzt bevorzugten Methoden der Stromerzeugung aus Wind und Sonne entstand dagegen eine bis jetzt ungelöste und hochbrisante Problematik bei der Aufrechterhaltung dieses unabdingbaren Gleichgewichts. Darauf wird hier später noch im Detail eingegangen.
Die Geschichte von Strom und Elektrizität begann im antiken Griechenland, als die elektrischen Eigenschaften von Bernstein durch Reibung entdeckt wurden. Die späteren Entdecker-Namen reichen, um nur wenige zu nennen, von William Gilbert über Benjamin Franklin, Alessandro Volta, André Ampere bis hin zu Nicola Tesla. Erst der Schottische Physiker James Clerk Maxwell erreichte einen endgültigen physikalischen Abschluss mit seinen berühmten elektromagnetischen Feldgleichungen, die man später auf vier Grundgleichungen komprimierte. Die Maxwell-Gleichungen beschreiben vollständig alle Phänomene elektromagnetischer Felder in einem System von vier linearen partiellen Differentialgleichungen erster Ordnung. Später kam als Ergänzung die davon unabhängige Lorentzkraft hinzu, die ein geladenes Teilchen in einem elektromagnetischen Feld erfährt. Diese Bewegung von geladenen Teilchen konnte erst nach Maxwell mit Hilfe der speziellen Relativitätstheorie von Albert Einstein genau beschrieben werden.
Die Maxwell-Gleichungen sind nicht aus noch tieferen physikalischen Gesetzen herleitbar. Sie sind vielmehr die geniale Zusammenfassung aller vor Maxwell entdeckten physikalischen Gesetze von Elektrizität und Elektromagnetismus. Solch eine grundsätzlich nicht mehr zu verbessernde Zusammenstellung wird als ein physikalisches Grundsystem bezeichnet. Grundsysteme prägen unser Weltverständnis. In den Maxwell-Gleichungen ist der gesamte Elektromagnetismus sowie alles von Wellenausbreitung, über Antennen, elektrische Schaltkreise, bis hin zu Elektro-Motoren enthalten, einfach alles. Die Maxwell-Gleichungen sind unverändert auch ein wichtiger Baustein der modernsten physikalischen Feldtheorien wie der Quantenelektrodynamik.
Natürlich ist es in der elektrotechnischen Praxis mit den Maxwell-Gleichungen allein noch nicht getan, denn den konkreten Anwendungen sind noch Materialgleichungen hinzuzufügen. So ist zum Beispiel der Widerstandsfaktor im Ohmschen Gesetz vom Material abhängig. Schließlich werden Lösungen der Maxwell-Gleichungen benötigt, wenn beispielsweise der optimale Aufbau eines neu konstruierten Elektromotors berechnet werden soll. Analytische Lösungen sind hier aber nur in einfachsten Spezialfällen möglich. Die Lösungen der Maxwell-Gleichungen zusammen mit allen Materialgleichungen können nur numerisch aber dennoch beliebig genau mit dem Computer berechnet werden. Dabei wird das stetige System der Maxwell-Gleichungen in ein diskretes System umgewandelt. Aus Differentialquotienten werden Differenzenquotienten.
Bei der täglichen Nutzung von Strom wird man mit Gleichstrom und Wechselstrom bekannt. Alle mit Batterien betriebenen Geräte wie zum Beispiel Heckenscheren, die ohne lästige Stromkabel auskommen, werden von Gleichstrom-Motoren angetrieben. Im Gegensatz dazu wird bei uns die Geschirrspülmaschine oder der Haarföhn mit 230 Volt Wechselstrommotoren betrieben. Warum gibt es die Trennung in Gleichstrom und Wechselstrom überhaupt?
Ursprung der Trennung war um 1890 ein technisch-wirtschaftlicher Stromkrieg zwischen Thomas Edison und George Westinghouse um die geeignete Technik für Beleuchtung. Dabei ging es um viel Geld von Marktanteilen. Edison war für Gleichstrom, Westinghouse für Wechselstrom. Westinghouse gewann diesen Krieg. Bei Gleichstrom bleibt die Stromrichtung konstant, bei Wechselstrom ändert sie sich periodisch. Weltweit ist die Wechselstromfrequenz 50 Hertz, also 50 Wechsel pro Sekunde. 50 Hertz wurden in Europa und dem größten Teil der Welt als bester Kompromiss für alle Anwendungen von Wechselstrom angesehen. Die ebenfalls noch verwendeten 60 Hertz spielen – außer in den USA – nur noch eine untergeordnete Rolle.
Westinghouse setzte sich durch, weil der maßgebende Vorteil von Wechselstrom gegenüber Gleichstrom die Möglichkeit ist, Spannung mit dem relativ einfachen elektrischen Bauelement „Transformator“ auf höhere oder tiefere Spannungen zu transformieren. An der Leistung ändert sich dabei nichts, von Wärmeverlusten abgesehen. Ein Transformator ist im Prinzip ein U-förmiger Eisenkern mit gegenüberliegenden Spulen aus isoliertem Kupferdraht. Damit kann die Spannung von Freileitungen beliebig erhöht werden wie zum Beispiel hierzulande maximal bis auf 380.000 Volt, um die Stromstärken und damit die Kabelquerschnitte für die hohen Leistungen solcher Freileitungen noch wirtschaftlich klein zu halten. Hier begegnet uns wieder die Beziehung Volt-mal-Ampere ist Watt – je höher die Spannung, umso weniger Ampere und Kupfer sind nötig.
Der Transformator und damit das kaufmännische weniger Kupfer bei längeren Stromleitungen war der entscheidende Vorteil, mit dem Westinghouse seinen Punktsieg errang. Bei Verwendung von Gleichstrom ist es dagegen vorteilhaft, dass es keine störende Blindleistung gibt. Wegen Abwesenheit von Blindleistung wird Gleichstrom heute meist bei Energieübertragung durch Seekabel verwendet.
Nach diesem Überblick soll nun die Energie behandelt werden, insbesondere die elektrische Energie. Alle Energie, die auf der Erde vorzufinden ist, ist entweder umgewandelte Sonnenenergie, die in fossilen Brennstoffen schlummert oder Kernenergie aus Kernspaltung. Zur Kernenergie und ihren Gegnern sei eine kurze Anmerkung erlaubt: Die Kernenergie ist keine Erfindung des Leibhaftigen, sondern völlig natürlich und wurde vom modernen Menschen nur wiederentdeckt. Im afrikanischen Gabun fand man fünfzehn natürliche Kernreaktoren, die durch eine Verkettung von ganz natürlichen Umständen kritisch wurden, über eine halbe Millionen Jahre aktiv waren, insgesamt einige hundert Terawattstunden Wärme erzeugten und vor bereits 1,5 Milliarden Jahren erloschen sind. Zurück zu den natürlichen Umgebungsenergien! Zu denen zählt die Strahlungsenergie der Sonne, die ebenfalls aus Kernenergie stammt, hier aber aus Kernfusion. Ferner gibt es noch die Bewegungsenergien von Wind, Meeresströmungen und Gezeiten, die aus der Bewegungsenergie unseres planetarischen Systems Erde und Mond kommen.
Gezeiten, Meeresströmungen und Wind erzeugen Reibungswärme, die letztlich wieder als Strahlung ins Weltall verschwindet. Die Rotationsenergie der Erde wird durch diese Reibungsverluste verringert und als Folge davon wird die Umdrehungsdauer der Erde, also die Tagesdauer, immer länger. Zudem entfernt sich dadurch auch der Mond immer weiter von der Erde und zwar um 3,83 Zentimeter pro Jahr. Die Tageslänge erhöht sich zwar nur um etwa 20 Sekunden über eine Million Jahre, aber das addiert sich mit der Zeit. Seit Aussterben der Dinosaurier vor 65 Millionen Jahren ist unsere Tageslänge immerhin schon 22 Minuten größer geworden.
Energie kann weder erzeugt noch vernichtet, sondern nur von einer Energieform in eine andere umgewandelt werden. Dabei entstehen stets Verluste, in aller Regel als Wärme wie zum Beispiel in Maschinen mit bewegten Teilen als Reibungswärme. Wenn allerdings Wärme in eine andere Energieform wie zum Beispiel in elektrische Energie oder mechanische Energie umgewandelt werden soll, geht das in größerem Maßstab nur mit Wärmekraftmaschinen, wobei physikalisch grundsätzliche Verluste unvermeidbar sind. Der französische Physiker Sadi Carnot hat die physikalische Gesetzmäßigkeit von Wärmekraftmaschinen um 1824 mit seinem berühmten Carnot-Prozess entdeckt und damit ungewollt gleich auch noch die neue physikalische Disziplin Thermodynamik gegründet. Das Prinzip des Carnot-Prozesses ist eine von mehreren Formulierungen des zweiten Hauptsatzes der Wärmelehre und gehört zu einem für die ingenieurtechnische Anwendung wichtigsten Prinzip überhaupt.
Jede Wärmekraftmaschine hat ein Wärmereservoir hoher Temperatur und eines mit tieferer Temperatur. In größeren Anwendungen wird dabei meist Gas oder Wasserdampf genutzt. In einem Gas-und-Dampfkraftwerk, kurz GUD, wird beides kombiniert, wobei übrigens mit dem Begriff Kraftwerk immer die Erzeugung von Strom gemeint ist. Im GUD erzeugen die noch heißen Gase am Ausgang der Gasturbine Dampf für eine parallellaufende Dampfturbine.
Nun zum zweiten Hauptsatz der Thermodynamik: Er besagt, dass in Wärmekraftmaschinen ein theoretischer Bestwirkungsgrad nicht überschritten werden kann. Man erhält seinen Wert, indem man die Temperaturdifferenz der beiden Reservoire durch die Temperatur des wärmeren Reservoirs teilt. Dies zeigt schon, dass für gute Wirkungsgrade die Temperaturdifferenz möglichst hoch sein sollte. Daher vermutet man richtig, dass beispielsweise elektrische Energie aus deutscher Erdwärme dem Verfahren von Kohleverbrennung hoffnungslos unterlegen ist. In Island, wo sich heiße Erdzonen extrem nahe unter der Oberfläche befinden, ist das aber anders. Die elektrische Energie von Island kommt tatsächlich zu 29 Prozent aus Geothermie, die restlichen 71 Prozent aus Wasserkraft – um dieses Geschenk der Natur ist Island zu beneiden.
Zurück zu Carnot. Der Wirkungsgrad eines Benzinmotors ist seine mechanische Antriebsenergie geteilt durch die Verbrennungswärme des Benzins. Er beträgt wegen des Carnot-Prozesses nur ungefähr 0,3 oder 30 Prozent – beim Diesel geht es herauf bis 45 Prozent. Das theoretische Carnot-Prinzip geht über die spezielle Wärmekraftmaschine weit hinaus, denn der zweite Hauptsatz der Thermodynamik besagt auch noch, dass Wärme durch überhaupt keine periodisch arbeitende Maschine vollständig in Arbeit umgesetzt werden kann, und sei sie noch so raffiniert gebaut. Auch wir Menschen unterliegen dem zweiten Hauptsatz der Thermodynamik, denn wenn wir Körperenergie einsetzen, wird es uns warm. Auch unsere Erde muss dem zweiten Hauptsatz gehorchen. Hier ist das warme Reservoir die Sonne und das kalte Reservoir der dunkle Weltraum. Weitere, dem zweiten Hauptsatz unterliegenden Anwendungen sind der Kühlschrank, der aus Strom im Kühlfach Kälte und außen an seiner Rückwand Wärme erzeugt. Die jüngst propagierte Wärmepumpe funktioniert, anschaulich ausgedrückt, wie ein umgekehrt laufender Kühlschrank. Sie ist wesentlich energieeffizienter als die Wärmeerzeugung mit einer simplen elektrischen Widerstandsheizung.
Die Umwandlung von elektrischer Energie in mechanische Energie mittels eines Elektromotors und auch der umgekehrte Vorgang sind dagegen prinzipiell verlustfrei, von unvermeidbaren geringfügigen Reibungsverlusten abgesehen. Elektrische Energie und mechanische Energie zählt man daher zu den wertvollen Energien, weil ihre Umwandlung in andere Energieformen prinzipiell verlustfrei ist. Wärme ist dagegen die am wenigsten wertvolle Energie, weil ihre Umwandlung in andere Energiearten dem grundlegenden Carnot-Verlust unterliegt.
Die Menge an elektrischer Energie, die mit Kohle, Mineralöl oder Erdgas betriebene Kraftwerke weltweit erzeugen, übertrifft bei weitem die aller anderen Methoden. Kernkraftwerke könnte man noch dazuzählen, weil die Kernspaltung Wärmeenergie erzeugt, die dann genauso wie in den fossilen Kraftwerken über Dampfturbinen in elektrische Energie umgewandelt wird. Ferner werden noch Wind, Sonneneinstrahlung und Biomasse zur Stromerzeugung eingesetzt. Wegen der prinzipiellen Carnot-Verluste könnte man annehmen, dass Stromerzeugung aus Wärme generell ungünstiger sei als Strom aus Wind oder Sonne. Dies trifft nicht zu. Es wird sich später noch zeigen, dass die Vorteile fehlender Carnot-Verluste bei der Stromerzeugung aus Wind und Sonne sogar völlig vernachlässigbar sind, wenn man diese Vorteile mit den grundlegenden Nachteilen von Wind und Sonne vergleicht.
Elektrische Energie kann nur in geringen Mengen direkt gespeichert werden. Das erfolgt mit passiven elektrischen Bauelementen wie Kondensatoren. Selbst sogenannte Superkondensatoren können aber nur um 20 Wattstunden Energie pro Kilogramm Kondensatorgewicht speichern. Hier geht es aber jetzt um elektrische Energie, die um mehrere Größenordnungen größer sein muss als die in Powerbanks. Sie wäre zu speichern, um beispielsweise für die Überbrückung eines längeren Blackouts zu sorgen. Das geht nur durch indirekte Speicherung von Energie mit chemischen, hochgewichtigen und kostspieligen Batterien – heute meist Lithium-Ionen-Batterien. Eine andere Lösung wären Pumpspeicheranlagen, die die Lageenergie von Wasser zwischen einem Berg und dem zugehörigen Tal nutzen.
Die Energiekosten von Lithium-Ionen-Batterien werden unterschiedlich angegeben. Sie liegen aktuell am günstigsten bei etwa 100.000 Euro für eine Megawattstunde. Als Anschauungsbeispiel wollen wir verlangen, dass bei einem längeren bundesweiten Blackout, wenigstens für einen Tag die elektrische Energie Deutschlands durch derartige Batterien überbrückt werden sollte und nach den Kosten fragen. Die Realisierbarkeit dieses Szenarios ist mühelos abzuschätzen: Das Umweltbundesamt nennt im Schnitt etwa 550 Terawattstunden benötigter elektrischer Energie in Deutschland pro Jahr. 550-durch-365 Tage sind 1,5 Terawattstunden, die unsere Batterien an einem einzigen Tag ersetzen müssten. Mit 100.000 Euro für eine Megawattstunde kostet der Ersatz aus Batteriestrom 150 Milliarden Euro. Die zusätzlichen Kosten für die Anschlusstechnik der Batterien, ihre Lagerung, ihr Aufladen etc. sind dabei unberücksichtigt, auch nicht die Kosten von Batterieverschleiß durch allmählichen Verlust der Leistung aufgrund von Alterung. Die dramatische Kapazitätsabnahme von Batterien bei Kälte soll ebenfalls keine Rolle spielen. Unsere elementare Abschätzung reicht bereits aus, um zu belegen, dass die Batterielösung aus wirtschaftlichen Gründen völlig unrealistisch ist.
Es bleiben dann in Deutschland nur noch Pumpspeicherwerke übrig wie das hierzulande größte – Goldisthal in Thüringen –, dessen technische Werte wir verwenden wollen. Große Staudämme haben wir nicht, und alle anderen immer wieder einmal vorgeschlagenen Lösungen sind noch teurer. Pumpspeicherwerke verfügen über ein Wasser-Reservoir im Tal und eines auf dem Berg. Ist für das Pumpspeicherwerk ausreichend Strom aus dem Netz verfügbar, wird von der Tal-Pumpturbine in das obere Reservoir Wasser gepumpt, das Pumpspeicherwerk wird sozusagen geladen. Fehlt Strom, wird das Wasser unter Ausnutzung seiner Lageenergie im oberen Reservoir über die 800 Meter lange Wasserleitung von Goldisthal wieder von der Tal-Pumpturbine in elektrische Energie umgewandelt. Die maximal gespeicherte Energiemenge von Goldisthal beträgt 8,5 Gigawatt-Stunden. Die kürzeste Entleerungsdauer beträgt eine Stunde, dabei ist die Maximalleistung ca. 1 Gigawatt. Für den Ausgleich eines vollen Tages Blackout in Deutschland, bräuchte man unter großzügiger Weglassung der nicht mehr zu vernachlässigenden Reibungsverluste der Wasserleitung mindestens 180 Pumpspeicherwerke mit der Leistung von Goldisthal. Deutschland hat für Pumpspeicherwerke aber nicht einmal die topographischen Voraussetzungen.
Vor dem näheren Eingehen auf die Erzeugungsmethoden von elektrischer Energie in Deutschland ist eine aktuelle Bestandsaufnahme sinnvoll, um eine konkrete Vorstellung über die Größenverhältnisse zu erhalten: Elektrische Energie hat, wie schon erwähnt, hierzulande nur einen Anteil von 15 Prozent an der deutschen Primärenergie, weltweit ist der Wert ähnlich. 80 Prozent der Primärenergie Deutschlands kommen immer noch aus Kohle, Erdöl und Erdgas, weltweit ist dieser Anteil etwa gleich groß. Deutschland unterscheidet sich daher in der Primärenergie mit den beiden Werten 15 Prozent elektrischer Energie und 80 Prozent Energie aus fossilen Brennstoffen kaum von der weltweiten Situation.
Ganz anders sieht es dagegen bei den Methoden zur Erzeugung von elektrischer Energie aus. Hier macht Deutschland zusammen mit wenigen Ländern eine auffällige Ausnahme im weltweiten Vergleich. Im Jahr 2024 wurde die elektrische Energie Deutschlands zu etwa 37 Prozent aus Kohle und Erdgas, aber bereits schon zu 31 Prozent aus Windrädern und zu 14 Prozent aus Photovoltaik erzeugt. Weltweit sind dagegen Kohle und Erdgas mit 47 Prozent deutlich stärker, Wind mit 8 Prozent und Photovoltaik mit 7 Prozent viel schwächer. Deutschland betreibt eine deutliche Verschiebung seiner Erzeugungsmethoden von Strom hin zu mehr Wind und Sonne und weg von Kohle und Gas. Ob dieser Sonderweg technisch und wirtschaftlich sinnvoll ist, und welche Konsequenzen er für die Versorgungssicherheit mit Strom nach sich zieht, wird hier noch näher untersucht.
Bezieht man freilich für Deutschland die Anteile von Wind und Photovoltaik nicht auf die elektrische Energie, sondern auf die Primärenergie, bleibt von den eindrucksvollen Zahlen nichts mehr übrig, nämlich nur 4,5 Prozent Primärenergie-Anteile aus Wind- und 1,8 Prozent aus Photovoltaik. Weltweit ist es noch einmal weniger. Nur 1 Prozent der Primärenergie aus Wind und 1 Prozent aus Photovoltaik wurden schon erwähnt. Die stolzen Erfolgsmeldungen in den öffentlich rechtlichen Sendern über deutsche Windenergie von 31 Prozent, wobei dabei oft gerne vergessen wird zu erwähnen, dass diese Zahl sich nur auf elektrische Energie bezieht, sind korrekt. Die wohl wichtigere Zahl von nur 4,5 Prozent Wind an der Primärenergie war dagegen in den Öffentlichrechtlichen noch nie zu vernehmen. Somit ist der Widerspruch der in den Medien genannten Zahlen mit den realen Verhältnissen geklärt.
Die viel wichtigeren wesentlich kleineren Anteile von Wind- und Sonnenstrom an der Primärenergie werden salopp verschwiegen, weil die langfristige Planung über die jetzige Energiewende hinaus die sogenannte Sektorenkoppelung vorsieht. Dabei soll der Einzelsektor „elektrische Energie“ auf alle Sektoren bis hin zur Wärmedämmung von Gebäuden erweitert werden. Sektorenkoppelung ist im Klartext auch Dekarbonisierung, denn so gut wie alle Primärenergie soll dabei nur noch aus CO2-freiem Strom von Wind und Sonne kommen. Dies bei heute mickrigen 4,5 Prozent Windstromanteil trotz 30.000 Windräder. Der Energieexperte Professor André Thess, Institutsleiter der Universität Stuttgart, hat die Kosten von Dekarbonisierung bis 2045 rechnerisch gut nachvollziehbar zu 10 Billionen Euros geschätzt (hier). Diese Summe belegt, dass den politischen Planern des Abersinns Energiewende und auch noch Sektorenkopplung jede Wirklichkeitsnähe, jedes Verständnis von Physik und Technik und jede Beachtung von Verhältnismäßigkeit abgeht.
Will man nun ganz allgemein die in modernen Batterien gespeicherte elektrische Energie mit der aus fossilen Brennstoffen oder Uran vergleichen, benötigt man die hier schon einmal verwendete Energiedichte als Quotient von Energie pro Gewicht. Ihre Maßeinheit ist die Wattsekunde durch Kilogramm. Lehrreich ist der Vergleich der Energiedichte einer modernen Lithium-Ionen-Batterie von 0,2 Kilowattstunden-pro-Kilogramm, mit der Energiedichte von Dieseltreibstoff von 5,3 Kilowattstunden pro Kilogramm, wobei in dieser Zahl die prinzipiellen Carnot-Verluste des Diesels mitberücksichtigt sind. Wir werden diesen Wert später noch einmal brauchen. Die 5,3 Kilowattstunden des Diesel dividiert durch die 0,2 der Batterie ergeben rund 26. Diesel hat also einen 26-fachen Energievorsprung vor einem E-Auto, beim Benziner ist der Vorsprung nur um etwa 20% kleiner. Oder anders ausgedrückt: Ein Diesel-Auto hat bei gleichem Gewicht im Tank wie ein E-Auto 26 Mal mehr Antriebsenergie zur Verfügung. Die geringe Reichweite von E-Autos wird nun besser verständlich. Hinzu kommt, dass E-Autos bei Temperaturen unter Null Grad Celsius dramatisch an verfügbarer Reichweite verlieren.
Wichtiger und interessanter ist dann allerdings der Vergleich der Energieeffizienz von Wind mit Kohle. Er erfordert den Begriff der Leistungsdichte als Leistung pro Fläche, also Watt-pro-Quadratmeter. Die Art der Fläche hängt von der Anwendung ab, hier wird die „verbrauchte Bodenfläche der jeweiligen Methode“ verwendet. Bei Windrädern ist dabei zu beachten, dass sie aus technischen und Kosten-Gründen in Windparks, oder genauer ausgedrückt, in Windrad-Industriegebieten installiert werden. Dort sind Mindestabstände gegen leistungsmindernde gegenseitige Strömungsbeeinflussung erforderlich. Über das Jahr 2024 und ganz Deutschland Onshore gemittelt betrug die mittlere Wind-Leistungsdichte 3,7 Watt-pro-Quadratmeter Bodenfläche. Für Kohle sind es dagegen um die 8000 Watt-pro-Quadratmeter Bodenfläche. Der Flächenverbrauch eines Windrads ist also mehrtausendfach größer als der von einem Kohlekraftwerk. Die 3,7 Watt pro Quadratmeter werden hier später noch einmal benötigt.
Unterschiedliche Leistungsdichten sind für den realen Nutzen der miteinander verglichenen Methoden absolut ausschlaggebend. Je höher die Leistungsdichte einer Methode zur Erzeugung von elektrischer Energie ist, um so effizienter, naturschonender und materialschonender ist sie. Das erkennt man sofort, wenn man die Definition Leistungsdichte ist Leistung-durch-Fläche umkehrt und als Leistung ist Leistungsdichte-mal-Fläche formuliert. Bei zu geringer Leistungsdichte benötigt man eine sehr große Fläche, damit das Produkt Leistungsdichte-mal-Fläche, also die gewünschte Leistung, noch ausreichend groß wird. Große Systemflächen bedeuten zudem noch großen Materialverbrauch des Systems. Man braucht dabei nur an Windrad-Riesenmonster zu denken, bei denen ausschließlich die zu geringe Leistungsdichte der Grund ist, warum sie so riesig sind. In einem schon älteren Artikel der ZEIT wurden Energien aus Wind und Sonne wegen ihrer Sanftheit dagegen als optimal umweltschonend bezeichnet. Das ist bereits absurd, denn es ist genau umgekehrt. Je sanfter eine Methode der Stromerzeugung ist, um so kleiner ist ihre Leistungsdichte, und um so größer ist ihr Flächenverbrauch, ihr Materialaufwand und ihre Umweltschädigung.
Historisch verlief die bisherige Entwicklung aller technischen Energiemethoden grundsätzlich immer von kleineren zu höheren Leistungsdichten. Das Umgekehrte gab es nie. Das Aufkommen von Windrädern verletzt dieses – man ist versucht zu sagen Naturgesetz – weil es den Weg zurück ins energetische Mittelalter beschreitet. Windräder basieren trotz modernster eingebauter Technik auf der mittelalterlichen Methode der Windmühle. Selbst modernste Technik vermag aber nicht die physikalischen Gesetzmäßigkeiten des mittelalterlichen Windmühlenprinzips auszuhebeln. Man kann aus der Wind-Leistungsdichte von den schon erwähnten 3,7 Watt pro Quadratmeter Bodenfläche nun auch den Flächenverbrauch bei hypothetisch allem Strom Deutschlands aus Onshore-Wind abschätzen. Das Ergebnis nähert sich der Gesamtfläche Thüringens. Bei Sektorenkoppelung wären es 15 Mal Gesamtfläche mehr. Das belegt wieder wie schon betont die meilenweite Entfernung der deutschen Energiepolitik von Wirklichkeit und Verhältnismäßigkeit.
Das hier bisher Geschilderte wird von der begutachteten wissenschaftlichen Fachliteratur vollumfänglich bestätigt. Es handelt sich dabei um eine begutachtete Studie von Weißbach und Mitautoren, die im Fachjournal Energy des renommierten Elsevier-Verlags erschien. Um sie zu lesen, tippe man den Titelbeginn der Studie „Energy intensities, energy returned on invested“ ins Suchfenster von Google Scholar und klicke danach rechts unten auf „alle 17 Versionen“ (hier). Dort findet sich ein pdf des papers. Bild 3 auf Seite 219 zeigt die Verhältnisse an gelben Balken mit Schrägstrichen, wobei die Effizienz von acht Methoden von Photovoltaik bis hin zu Kernenergie miteinander verglichen werden. Das Ergebnis ist überdeutlich: Wind, Photovoltaik und Biomasse sind die ungünstigsten Methoden zur Erzeugung von elektrischer Energie überhaupt, sie liegen sogar unter der im Bild 3 eingetragenen ökonomischen Schwelle von OECD-Ländern und kommen daher für die Erzeugung elektrischer Energie großen Maßstabs nicht in Frage. Zu geringe Leistungsdichte bei der Erzeugung von elektrischer Energie mit Wind, Sonne und Biomasse wird hier im Folgenden als ihr „erster Fundamentalmangel“ bezeichnet. Es gibt nun aber noch einen zweiten Fundamentalmangel, der nur Wind- und Sonne betrifft.
Die dringend erforderliche Bekanntheit des ersten Fundamentalmangels von Wind- und Sonnenstrom wird leider durch weitgehende Unkenntnis des Begriffs „Leistungsdichte“ verhindert. Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist dagegen wesentlich anschaulicher und daher besser bekannt. Er hat es schon bis in alle Medien geschafft. Es ist die Wetterabhängigkeit von Wind- und Sonnen-Energie, der die Stromlieferungen dieser beiden Methoden zufällig und zappelig macht.
Zufalls-Strom kann ohne weitere Maßnahmen nicht in das deutsche Wechselstromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund schon für Glättung sorgt, weil irgendwo immer Wind wehen würde, hat eine ausführliche Studie des technischen Fachverbands für Energieanlagenbetreiber VBG widerlegt. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“ Zitatende. Die Studie steht nach eingeben in Ihrem Browser von „VGB-Studie: Windenergie in Deutschland und Europa“ frei im Internet (hier).
Die erwähnten Backup-Systeme sind heute schnell reagierende Gaskraftwerke, Kohlekraftwerke oder auch alte Ölkraftwerke. Diskussionswürdige Stromspeicherlösungen gibt es nicht, wie es hier bereits belegt wurde. Man muss daher für ausfallenden Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, das die Gesamtkosten der Stromversorgung mit Wind- und Photovoltaikanlagen zumindest verdoppelt. Genau dies ist bereits erfolgt, aber unvollständig. Schaut man sich die Grafiken der stündlichen Energieeinspeisungen von Wind- und Sonnenstrom an, fallen die extremen Fluktuationen auf, bei Wind noch wesentlich stärker als bei Sonne.
Das liegt an folgendem physikalischen Gesetz für alle Strömungsmaschinen, so auch für Windräder. Ihre Leistung ist grob proportional zur dritten Potenz der Windgeschwindigkeit. Nur grob, weil die nur für Windräder gültige Betz-Joukowsky-Grenze noch eine Rolle spielt. Ist die Windgeschwindigkeit nur noch halb so groß, halbiert sich nicht die erbrachte Leistung wie man eigentlich vermuten könnte, sondern wird zu ½ hoch drei gleich 1/8 oder 12 Prozent. Windräder in schwachwindigen Wäldern sind daher besonders unsinnig. Der zweite Fundamentalmangel und das v-hoch-3 Gesetz bewirken, dass Onshore-Windräder über Deutschland und das Jahr gemittelt nur etwa 20% ihrer Nennleistung erbringen, Offshore ist es etwa das Doppelte.
Ein Dieselauto zu betanken reicht bereits aus, um die Schwächen von Windrädern zu veranschaulichen. Durch den Zapfhahn einer Tankstelle fließen etwa 0,7 Liter Diesel pro Sekunde, das sind etwa 2000 Kilogramm pro Stunde unter Berücksichtigung des spezifischen Gewichts von Diesel. Multipliziert man dies mit der schon erwähnten Diesel-Energiedichte von 5,3 Kilowattstunden-pro-Kilogramm, ergibt sich für den strömenden Dieseltreibstoff eine Leistung von 12 Megawatt. Im Zahlenwert 5,3 ist der Carnot-Verlust bereits berücksichtigt. Auf der anderen Seite hat ein modernes Windrad wie zum Beispiel die Enercon E-160 EP5 mit 5 Megawatt Nennleistung nur 20 Prozent Realleistung, gemittelt über ganz Deutschland und ein Jahr. Das sind ein Megawatt. Tanken Sie Diesel, so erfolgt dies demnach mit rund der 10-fachen Realleistung eines großen Windrads. Oder anders ausgedrückt: Ein einziger Diesel-Füllhahn hat die gleiche Leistung wie zusammen 10 große deutsche Windräder. Dies macht der Diesel-Füllhahn aber ohne die insgesamt 70.000 Tonnen Material der 10 Windräder inklusive der Fundamente und auch ohne die von den 10 Windrädern belegte Bodenfläche von etwa 270 Hektar zu bemühen. Die fast unwahrscheinlich erscheinenden extremen Zahlen dieses Beispiels sind leider zutreffend und belegen die fatalen Konsequenzen der zu geringen Leistungsdichte von Wind.
Die Photovoltaik zeigt als Besonderheit einen deutlichen Leistungshügel mit dem Gipfel im Sommer. Im Winter kommt nur noch wenig Sonnenstrom an, nachts das ganze Jahr überhaupt nichts.
Noch einmal zurück zum zweiten Fundamentalmangel. Infolge der Abschaltung aller deutschen Kernkraftwerke, der Beseitigung von selbst mit modernsten Filtern ausgestatteten Kohlekraftwerken und infolgedessen zunehmenden Wind- und Sonnenstroms, entsteht immer öfter die Situation von Stromunterdeckung oder umgekehrt von Stromüberschuss – der genauso gefährlich ist. Wenn zu viel Wind herrscht und auch noch die Sonne mithilft, muss Strom ans Ausland verkauft oder sogar gegen Aufpreis verschenkt werden. Im Fall von zu wenig Strom müssen die fossilen Ersatzkraftwerke gestartet oder Strom vom Ausland eingekauft werden. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten. Bereits bei höheren Abweichungen als ± 0,2 Hertz droht ein großflächiger Blackout wie er erst jüngst im einem Großbereich von Spanien Portugal und Südfrankreich vorkam. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihren problemlos dem schwankenden Verbrauch anpassbaren Grundlaststrom unbekannt. Wetterabhängiger Zufallsstrom ist ohne Ersatzkraftwerke oder die Mithilfe französischer Kernkraftwerke nicht in der Lage, immer den Strombedarf zu decken. Fossile Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und daher wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben kein Interesse sie zu bauen.
Inzwischen sind zur Aufrechterhaltung sicherer Stromversorgung sogenannte dispatch-Maßnahmen in drei Regelungsstufen erforderlich. Primäre Stufe sind Störungen im Sekundbereich, sekundäre im Bereich mehrerer Minuten und tertiäre ab 15 Minuten aufwärts. Von Hand können meist nur im Tertiärbereich Ersatzstromquellen zugeschaltet oder vom Netz genommen werden. Solche Maßnahmen gab es bis Ende des zwanzigsten Jahrhunderts nur in einstelliger Anzahl pro Jahr. Heute liegt die Anzahl der jährlichen dispatch-Eingriffe – automatisch oder von Hand – bei rund Zwanzigtausend (hier), und ihre jährlichen Kosten gehen in die Milliarden Euro.
Wegen ihrer extrem kurzen Reaktionszeit ist die Primärregelung kritisch und entscheidend. Sie kann weder durch Eingreifen per Hand noch durch automatische dispatch-Regelung erfolgen. Fällt beispielsweise ein großer Umspannungstransformator durch einen Defekt, Terroranschlag, oder Blitzschlag aus, ist dies ein Vorgang im Sekundenbereich. Die inzwischen vorliegenden Fachuntersuchungen der Gründe des jüngsten großen Blackouts in Spanien deuten tatsächlich auf das Fehlen ausreichender Primärregelung. Zu wenige Grundlastkraftwerke liefen und zu viel Sonnenstrom wurde eingespeist.
Die einzige Abhilfe bei Sekundenstörungen vermag nur die Physik zu liefern. Es sind die extrem hohen Rotationsenergien der Dampfturbinen-Rotoren aller Grundlastkraftwerke mit Kohle und ehemals Uran. Plötzliche Leistungsungleichgewichte durch Störungen im Sekundenbereich werden durch Abbremsen oder Beschleunigen dieser riesigen Rotoren verzögerungsfrei ausgeglichen. Ihre Rotorwellen sind bis 40 m lang, können bis 300 Tonnen wiegen und drehen sich mit genau der Netzfrequenz von 50 Hertz pro Sekunde oder 3000 Umdrehungen pro Minute. Bei plötzlichem Leistungsabfall infolge einer schnellen Netzstörung springen sie ohne jedwedes Zutun ein und bügeln die Störung ausreichend lang weg bis die Sekundärregelung eingreifen kann. Kurz, die einzige Lösung der Primärregelungsproblematik ist die ausreichende Rotationsenergie aller Stromerzeuger im deutschen Stromnetz. Sie gibt es nur mit ausreichend vielen Grundlastkraftwerken. Kommt der Strom nur noch aus Wind und Sonne, ist das deutsche Wechselstromnetz grundsätzlich instabil und nicht mehr regelbar.
Daraus ergibt sich die dringende Frage wie viele Grundlastkraftwerke unabdingbar vorhanden sein müssen. Die Mindestanzahl an Grundlastkraftwerken hängt von der aktuellen Netzstruktur und davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW ging dieser überlebenswichtigen Frage in einer Fachstudie nach. Sie ist nach Eingabe des Titels „Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb“ (hier) in Ihren Browser als pdf verfügbar. Als Ergebnis wird eine Mindestregelleistung von 20 Gigawatt für den Regelblock Deutschland angegeben, was einem Drittel der mittleren Gesamtleistung von etwa 60 Gigawatt an deutschem Strom entspricht. Mit den momentan noch vorhandenen Rotationsmassen der Grundlastkraftwerke und zusätzlichem Einkauf von Strom im Ausland scheint die erforderliche Sicherheit gegen Blackout vielleicht gerade noch vorhanden zu sein. Man bewegt sich aber auf stark schwankendem Terrain. Tatsächlich trägt die aktuelle Energiewende Deutschlands nicht nur zur maßgeblichen Schädigung seiner Industrie bei. Die Versorgung mit Heizenergie ist in einem wirklich kalten Winter nicht mehr sicher. Und zu all dem wird auch noch durch das weiter geplante Abschalten von Kohlekraftwerken in unverantwortlicher Weise das Blackout-Risiko erhöht.
Der Beitrag Strom: Kampf gegen die Physik – warum die deutsche Energiewende scheitert erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Polarwirbel kollabiert – sowie ausführliche Anmerkungen dazu
Cap Allon
Der boreale „Polarwirbel“ ist im November so stark zusammengebrochen wie noch nie zuvor.
Die 10-hPa-Daten der NOAA bestätigen, dass die Zonalwinde auf tief negative Werte gefallen sind, die weit außerhalb des klimatologischen Bereichs liegen:
Abb. 1
Abb. 1
Ein so schwacher Wirbel lässt arktische Luft nach Süden strömen, was bedeutet, dass es im nächsten Monat wahrscheinlich zu Kälteeinbrüchen auf den nördlichen Kontinenten kommen wird.
Weiße Weihnachten gefällig?
Link: https://electroverse.substack.com/p/a-meter-of-snow-hits-the-alps-thanksgiving?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Anmerkungen zu dieser MeldungDipl.-Met. Christian Freuer
Diese Anmerkungen sind in gewisser Weise eine Aktualisierung einer ersten Anmerkung von mir zu diesem Thema in diesem Beitrag.
Ich bekenne, dass ich obige Meldung von Cap Allon auf den ersten Blick nicht ganz nachvollziehen kann. In seiner Graphik ist zwar tatsächlich früher in diesem Monat (November 2025) ein „Zusammenbruch“ der Zonalwinde im 10-hPa-Niveau erkennbar, jedoch gefolgt von einer kräftigen Erholung zum Ende dieses Monats.
Nun bezieht sich meine Erfahrung als Synoptiker nicht so sehr auf die Stratosphäre. Das derzeitige Bild im 10-hPa-Niveau zeigt zwar aktuell eine ziemlich beachtliche Deformierung des Polarwirbels in jener Höhe:
Abb. 2: Aktuelle Analyse des 10-hPa-Niveaus vom 26. November 2025, 00 UTC. Quelle
Aber schon nach 10 Tagen soll sich den Simulationen der NOAA zufolge diese Deformierung wieder abschwächen und so aussehen, wie wir es aus den vergangenen Wintern kennen:
Abb. 3: Simulation des 10-hPa-Niveaus für den 6. Dezember 2025 (10 Tage). Quelle
Der Polarwirbel scheint zwar weiterhin etwas deformiert, aber längst nicht so wie heute. Die Schlussfolgerung von Cap Allon oben steht also in dieser Hinsicht zunächst auf tönernen Füßen.
Aber kommt da noch was?
Schauen wir, wie es derzeit in der Troposphäre aussieht. Nun, verglichen mit dem, was ich im oben verlinkten Beitrag beschrieben hatte, hat sich das Bild doch ziemlich gewandelt bzw. soll es in absehbarer Zeit tun. In meiner Anmerkung hatte ich ja schon erwähnt, dass Ende November / Anfang Dezember „der Winter gebacken“ wird.
Abb. 4: Aktuelle GFS-Analyse vom 26. November 2025, 00 UTC. LINKS: 500-hPa-Niveau, RECHTS: 850-hPa-Niveau.
Abb. 5: Simulation beider Druckflächen für den 6. Dezember 2025 (10 Tage; GFS): LINKS: 500 hPa, RECHTS: 850 hPa
Einzelheiten spielen bei einer Simulation für 10 Tage im Voraus keine Rolle. Aber: ALLE Mittelfristmodelle (EZMW, GEM) zeigen das gleiche großräumige Bild: Nämlich die Verlagerung des Kältezentrums aus dem atlantisch-europäischen Raum zum kanadischen Sektor der Arktis. Das Kältezentrum dort dient in der Regel als Auslöser der Bildung gigantischer Orkanwirbel über dem Atlantik. Die vorderseitige Strömung aus südwestlichen Richtungen macht winterliche Witterung hier in Mitteleuropa zumindest für die nächsten 10 Tage unwahrscheinlich.
Aber man kann dieses Spielchen noch weiter treiben, z. B. in dem man versucht, Präzedenzfälle aus früheren Jahren zu finden und zu sehen, wie es danach weiterging. (Im Folgenden sollte man aber nie vergessen: Ähnliche Wetterlagen sind nicht gleiche Wetterlagen!).
Als Präzedenzfall soll hier mal das Jahr 1986 herangezogen werden.
Abb. 6: Re-Analyse 26. November 1986, 00 UTC LINKS: 500 hPa, RECHTS: 850 hPa
Man sieht auf den ersten Blick eine frappierende Ähnlichkeit mit der heutigen Lage in Abb. 4. Auch damals hatte sich über der kanadischen Arktis ein Kältezentrum gebildet ohne eine Entsprechung im europäisch-asiatischen Sektor. Das heißt: die gleichen schlechten Aussichten für einen echten Winter 1986/87 wie heute.
Mitte Dezember kam es in jenem Jahr 1986 dann im Zuge eines solchen Kältezentrums über der kanadischen Arktis sogar noch zu einem Exzess, den man als eingefleischter Synoptiker nicht so schnell vergisst:
Abb. 7: Re-Analyse 15. Dezember 1986, 00 UTC LINKS: 500 hPa, RECHTS: 850 hPa
Es bildete sich nämlich der stärkste nordatlantische Orkanwirbel vermutlich des gesamten vorigen Jahrhunderts: Sein Kerndruck lag unter 920 hPa! In einem starken Hurrikan ist das normal, nicht aber für ein solches Gebilde im außertropischen Bereich. (Kleine Parallele zu einem Hurrikan: Obwohl es sich durchweg um ein baroklines Gebilde handelt [d. h. eine Entwicklung aus dem horizontalen Temperaturgegensatz zwischen warm und kalt] zeigt sich doch rudimentär im 850-hPa-Niveau ein warmer Kern.) Eine detailliertere Analyse zeigt das Eingangsbild.
Es fällt aber damals etwas auf, was durchaus wieder passieren kann – insofern ist die Spekulation von Cap Allon in seiner Meldung oben nicht aus der Luft gegriffen: Natürlich entwickelte sich im Zuge eines solchen Giganten eine Südwestströmung über Mitteleuropa, jeder Gedanke an Winter war also Mitte Dezember nicht angebracht.
Aber, und das ist jetzt ein ziemlich dickes aber: Bis dahin hatte sich über Nordrussland / Nordskandinavien ein sehr beachtliches zweites Kältezentrum gebildet, von dem Ende November 1986 noch keine Spur erkennbar war! Dieses Kältezentrum übernahm dann ziemlich rasch die Regie auch in Mitteleuropa – mit der Folge des sehr kalten Winters 1986 / 1987. Zumindest in Berlin gab es dabei eine Bilderbuch-weiße Weihnacht: mit 26 cm Höhe hatte sich die höchste Schneedecke an einem Heiligabend seit Beginn der Berliner Messreihe im Jahr 1908 gebildet!
Fazit: Winterfans sollten die Hoffnung nicht aufgeben – wobei es diskutabel ist, ob man sich beim derzeitigen Zustand unseres Landes wirklich einen kalten Winter wünschen sollte.
——————————
Schlussbemerkung: Leider ist es mir nicht gelungen, eine Re-Analyse der Stratosphäre, genauer des 10-hPa-Niveaus zu finden. Ich möchte an realistische Kommentatoren appellieren, ob diese in dieser Hinsicht fündig werden.
Der Beitrag Polarwirbel kollabiert – sowie ausführliche Anmerkungen dazu erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Amerikanisch-japanisches Abkommen signalisiert Aufstieg des Energierealismus‘
Vijay Jayaraj
Die USA und Japan überwinden die Lähmung durch irrationale Klimapolitik mit einem strategischen Pakt über Seltenerdmetalle, wichtige Komponenten für Halbleiter und Kernreaktoren der nächsten Generation.
Das unter der Führung zweier pragmatischer Politiker – Präsident Donald Trump und der japanischen Premierministerin Sanae Takaichi – geschmiedete Abkommen beendet mehr als ein Jahrzehnt der Energieunsicherheit, das durch unvorhersehbare Lieferketten, unrealistische Netto-Null-Versprechen und eine übermäßige Abhängigkeit von unzuverlässiger Wind- und Solarenergie gekennzeichnet war. Damit wird die Energie- und Industriestrategie zu Recht in den Mittelpunkt des Schutzes der nationalen Souveränität gestellt.
Angesichts der Instrumentalisierung der Lieferketten durch Peking, das über 90 % der verarbeiteten Seltenen Erden kontrolliert, legt das Abkommen der USA mit Japan den Schwerpunkt auf den Zugang zu Materialien und Technologien, strategische Widerstandsfähigkeit und Wirtschaftswachstum und nutzt ein bestehendes Investitionspaket zwischen den beiden Ländern in Höhe von 550 Milliarden US-Dollar.
Laut einem Informationsblatt des Weißen Hauses werden Japan und verschiedene japanische Unternehmen bis zu 332 Milliarden US-Dollar in die US-Energieinfrastruktur, einschließlich Kernreaktoren, sowie bis zu 50 Milliarden US-Dollar in Energieanlagen investieren, und zwar im Rahmen von Vereinbarungen, an denen sowohl US-amerikanische als auch japanische Unternehmen beteiligt sind. Japan soll Berichten zufolge einen besseren Zugang zu den US-Märkten für den Verkauf von Technologien und eine günstige Zollbehandlung erhalten.
Diese Investitionen dienen nicht dem Bau weiterer Windkraftanlagen, die Vögel zerfetzen, oder Solarpaneelen, welche die Wüste ersticken, sondern der Schaffung praktischer und zuverlässiger Stromerzeugungskapazitäten.
Die USA werden 75 Milliarden Dollar für die Infrastruktur von Rechenzentren ausgeben, die von drei japanischen Unternehmen bereitgestellt wird: Mitsubishi Electric für Stromversorgungssysteme und -ausrüstung, TDK Corp. für fortschrittliche elektronische Leistungskomponenten und Fujikura, Ltd. für Glasfaserkabel.
Das Abkommen zwischen den USA und Japan umfasst auch einen Mehrjahresvertrag im Wert von über 100 Millionen Dollar zwischen der Global Coal Sales Group und Tohoku Electric Power über amerikanische Kraftwerkskohle. Dies ist eine rationale Entscheidung eines fortgeschrittenen Industrielandes, um eine erschwingliche und zuverlässige Stromversorgung für seine Bevölkerung sicherzustellen. Kohle bleibt eine unverzichtbare Energiequelle für Nationen, die sich weigern, ihr Wirtschaftswachstum auf dem Altar des Dogmas der „Dekarbonisierung” zu opfern.
Der Vertrag sieht japanische Investitionen in Höhe bis 3 Milliarden US-Dollar für den Bau einer Produktionsanlage für Ammoniak und Harnstoffdünger in den Vereinigten Staaten sowie weitere 2 Milliarden US-Dollar für den Bau einer Kupferhütte und -raffinerie im Westen der USA vor.
Auf der anderen Seite des Pazifiks wird Japan seine Energieversorgung durch den Import von 66 Millionen Tonnen Flüssigerdgas (LNG) aus den USA pro Jahr stärken und damit nach China zum zweitgrößten LNG-Abnehmer aufsteigen.
Dennoch wäre Japan gut beraten, weitere Bestimmungen in das Abkommen aufzunehmen – wie beispielsweise die Beteiligung von JERA Co. in Höhe von 1,5 Milliarden US-Dollar an Erdgasvorkommen in den Haynesville-Schieferlagerstätten in Louisiana und den Kauf von Alaska LNG durch Tokyo Gas –, die dazu beitragen, strategisch riskante Lieferungen aus Russland zu ersetzen, die 9 % des japanischen Gasbedarfs ausmachen.
Was die Kernenergie betrifft, so hat die politische Feigheit Japans nach der Katastrophe von Fukushima im Jahr 2011 dazu geführt, dass nur 14 der 54 vor dem Unfall in Betrieb befindlichen Kernreaktoren des Landes wieder in Betrieb genommen wurden. Japan muss die Geister von Fukushima austreiben, welche die politischen Entscheidungsträger seit 14 Jahren lähmen, und seine Führungsposition in einem Bereich zurückerobern, der derzeit von China, Frankreich, Südkorea und Russland dominiert wird.
Zum Glück für Japan und andere Länder hat die Trump-Regierung in den USA den Weg für eine intensive Erschließung von Ressourcen geebnet, indem sie sich von den Fesseln des Pariser Abkommens befreit und die Mittel für Energiearmut fördernde globale Klimapolitik gestrichen hat.
Das Rahmenwerk zwischen den USA und Japan stärkt die strategische Widerstandsfähigkeit durch Partnerschaften mit großen Unternehmen wie Mitsubishi und Toshiba, die sich in amerikanische Projekte einbringen, Arbeitsplätze und Handel schaffen und minimalistischen „grünen“ Illusionen trotzen.
Beide Mächte sind nun gegen Störungen gewappnet, ihre Volkswirtschaften basieren auf Kohlenwasserstoffen und atomarer Macht und beweisen, dass echte Stärke darin besteht, das zu nutzen, was funktioniert, anstatt sich vor erfundenen Krisen zu ducken.
[Hervorhebung vom Übersetzer]
Was Washington und Tokio erreicht haben, ist mehr als ein Handelsabkommen. Es ist eine Unabhängigkeitserklärung vom Klimakatastrophismus, der eine Generation lang die rationale Politikgestaltung gelähmt hat. Andere Nationen werden folgen. Das Blatt wendet sich. Der Energierealismus ist auf dem Vormarsch.
Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.
This commentary was first published at RealClear Markets November 17.
Link: https://clintel.org/american-japanese-pact-signals-ascent-of-energy-realism/
Übersetzt von Christian Freuer für das EIKE
Freispruch für CO2
Der Beitrag Amerikanisch-japanisches Abkommen signalisiert Aufstieg des Energierealismus‘ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
UNO schließt „wegweisendes“ Abkommen zur Informationsintegrität, um lästige Leugner zum Schweigen zu bringen
Jo Nova
[Alle Hervorhebungen im Original]
Achtung! Klimaleugnung ist jetzt eine „Sicherheitsbedrohung”.
Da die Net-Zero-Fantasie zerbröckelt und sich das politische Blatt wendet, hat der Blob den Einsatz erhöht und den Knopf „Sicherheitsbedrohung” gedrückt. Klimaleugner sind jetzt eine so tödliche Bedrohung (für die Pfründe der Blobcrats), dass sie eingedämmt werden müssen.
David Archibald sagt: „Wenn sie die Debatte verloren haben, ändern sie die Regeln.“
Länder unterzeichnen wegweisende Erklärung auf der COP30 – damit wird zum ersten Mal die Informationsintegrität auf einer UN-Klimakonferenz priorisiert (Link)
Die Erklärung wurde in Zusammenarbeit mit Mitgliedern der Zivilgesellschaft aus der Global Initiative Advisory Group verfasst und bisher von zehn Ländern unterzeichnet – Brasilien, Kanada, Chile, Dänemark, Finnland, Frankreich, Deutschland, Spanien, Schweden und Uruguay.
„Der Klimawandel ist keine Bedrohung der Zukunft mehr, sondern eine Tragödie der Gegenwart“, sagte der brasilianische Präsident Luiz Inácio Lula da Silva in Belém. „Wir leben in einer Zeit, in der Obskurantisten wissenschaftliche Erkenntnisse ablehnen und Institutionen angreifen. Es ist an der Zeit, den Leugnern eine weitere Niederlage zuzufügen.“
Oh, diese schrecklichen Obskurantisten! Die Menschheit wird gerettet werden, aber nur, wenn die Regierungen regieren können, ohne schwierige Fragen beantworten zu müssen.
Die UNO muss sich wohl unsicher fühlen, denn der Begriff „Leugnung“ ist eindeutig unwissenschaftlich – er stammt aus dem politischen und religiösen Kampf, nicht aus der Atmosphärenphysik.
Vielleicht befürchten sie, dass die Welt erkennen könnte, dass die UNO ein überflüssiger, blutsaugender Schmarotzer ist? Um sich nützlich zu machen, liefert die UNO sympathisierenden (sozialistischen) Regierungen eine Ausrede, um Kommissionen für Informationsintegrität einzurichten oder „Forschung“ zu Falschinformationen im Internet zu finanzieren.
Der neue Schlüssel-Terminus ist „Informations-Integrität“Man konnte es nicht wieder „Ministerium für Wahrheit“ nennen, also lautet das neue Schlagwort der Zensur nun „Informationsintegrität“. Die Frage, von der die UNO hofft, dass sie nicht gestellt wird lautet: „Wer definiert Integrität?“, denn sie sind die Könige.
Seltsamerweise sprachen die australischen Grünen bereits vor fünf Monaten diese Sprache. Die neue Globale Initiative für Informationsintegrität klingt unheimlich ähnlich wie der Sonderausschuss für Informationsintegrität, den die australischen Grünen im August eingerichtet haben. Es ist fast so, als hätte die UNO die Grünen im Juli angerufen und ihnen gesagt, was sie tun sollen.
Google Trends zeigt, dass es seit Juli dieses Jahres plötzlich ein mysteriöses globales Interesse an „Informationsintegrität“ gibt.
Die UN sprechen mit gespaltener ZungeBeobachten Sie, wie die Meister der Wortkunst ihre Opfer hypnotisieren (siehe unten). Sie fordern die Regierungen auf, Kritiker der UNO zu unterdrücken. Aber die Meister der Manipulation stellen diese Kritik als „Angriffe auf Wissenschaftler und Journalisten” dar, obwohl die meisten Kritiker selbst Wissenschaftler und Journalisten sind. Für jeden, der nicht genau hinschaut, hat die UNO stillschweigend die Annahme vermittelt, dass alle Wissenschaftler auf ihrer Seite stehen und die Kritiker keine Wissenschaftler sind.
Am Ende stellen sie sich selbst als Helden der freien Meinungsäußerung dar – mit den Worten: „Wissenschaftler und Forscher sollten niemals Angst haben, die Wahrheit zu sagen.”
Die Erklärung fordert Regierungen, den privaten Sektor, die Zivilgesellschaft, die Wissenschaft und Geldgeber auf, konkrete Maßnahmen zu ergreifen, um den wachsenden Auswirkungen von Desinformation, Fehlinformationen, Leugnung und gezielten Angriffen auf Umweltjournalisten, Umweltschützer, Wissenschaftler und Forscher entgegenzuwirken, die Klimaschutzmaßnahmen untergraben und die gesellschaftliche Stabilität gefährden.
„Wir müssen gegen Fehlinformationen, Desinformation, Online-Belästigung und Greenwashing vorgehen“, sagte UN-Generalsekretär António Guterres im Vorfeld der COP30. „Im Rahmen der Globalen Initiative für Informationsintegrität zum Klimawandel arbeiten Regierungen und Organisationen zusammen, um Forschung und Maßnahmen zur Förderung der Informationsintegrität in Klimafragen zu finanzieren. Wissenschaftler und Forscher sollten niemals Angst haben, die Wahrheit zu sagen.“
Vor allem aber ist es einfach nur schön und nett. Schauen Sie sich die kitschigen, weichen Fotos an. Die UNO ist einfach eine nette 25-jährige Frau, die nette, harmlose Dinge tut, um Ihnen zu helfen. Sicher.
Deutsche Übersetzung (Google translate):
Die wichtigsten Verpflichtungen sind reine Wortklauberei. Beispiele:
Im Rahmen der Erklärung verpflichten sich die Unterzeichner,…
• die Integrität von Informationen zum Klimawandel im Einklang mit den internationalen Menschenrechtsgesetzen zu fördern, einschließlich der Standards zur Meinungsfreiheit,
• fundierte und inklusive Klimaschutzmaßnahmen zu fördern, indem sie einen gerechten Zugang zu genauen, evidenzbasierten und verständlichen Informationen für alle vorantreiben.
Die UN fordert also die reichen Länder auf, die Forschung zu Klimafehlinformationen in Entwicklungsländern zu finanzieren, weil diese Menschen keine Lebensmittel und keinen Strom brauchen, sondern Schutz vor NASA-Astronauten und Nobelpreisträgern, die über nicht anerkannte Wissenschaft sprechen?
„Angesichts der weltweit knappen Ressourcen fordert die Erklärung die Regierungen auf, Mittel für die Erforschung der Integrität von Klimainformationen bereitzustellen, insbesondere in Entwicklungsländern.“
Es ist von Anfang bis Ende eine Wand aus Wortspielereien und Lügen: Diejenigen, die Ihnen Ihr Menschenrecht auf freie Meinungsäußerung rauben behaupten, sie würden es schützen.
Jo Nova is science presenter, writer, speaker & former TV host; author of The Skeptic’s Handbook. This article was previously on her website joannenova.com.au.
Link: https://clintel.org/un-makes-landmark-deal-on-information-integrity-to-shut-up-annoying-denialist/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag UNO schließt „wegweisendes“ Abkommen zur Informationsintegrität, um lästige Leugner zum Schweigen zu bringen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Ein Blick hinter die Kulissen der desaströsen UN-Klimakonferenz
Audrey Streb, DCNF-Energiereporterin, 24. November 2025
Die jährliche Klimaparty der Vereinten Nationen ging am Samstag zu Ende, und einige Anwesende sagten der Daily Caller News Foundation, dass es sich um eine chaotische Veranstaltung gehandelt habe.
Nachdem ein Brand am Donnerstag eine Evakuierung erzwungen und die Verhandlungen vorübergehend unterbrochen hatte, wurde die COP30 um einen Tag verlängert. Medienunternehmen und Umweltorganisationen kritisierten das am Samstag erzielte Abkommen und argumentierten, es reiche nicht aus, um die CO₂-Emissionen zu begrenzen. Die Umweltgruppen bemängelten, die Resolution weiche von der Erklärung der COP28 ab , die ein Ende der Nutzung fossiler Brennstoffe gefordert hatte.
Die COP30, die in Belém, Brasilien, stattfand, löste heftige Kritik aus, nachdem Bauunternehmen im Vorfeld der Klimaverhandlungen den Amazonas-Regenwald gerodet hatten und China in der Abwesenheit der USA die Aufmerksamkeit auf sich zog . Craig Rucker, Mitbegründer und Präsident der konservativen Non-Profit-Organisation „ Committee for a Constructive Tomorrow“ ( CFACT ), erklärte gegenüber dem DCNF, die diesjährigen UN-Klimaverhandlungen seien besonders chaotisch und unorganisiert verlaufen.
„Ich habe 27 der 30 Konferenzen besucht. … Was man vor Ort sieht, ist das pure Chaos. Es gab zwar auch in der Vergangenheit schon ein gewisses Durcheinander, aber dieses Mal war es besonders unorganisiert, weil sie einen Veranstaltungsort gewählt haben, der meiner Meinung nach für all die anreisenden Delegierten völlig ungeeignet war“, sagte Rucker in einem Interview mit dem DCNF. „Sie wollten den Regenwald in den Vordergrund stellen, aber in heuchlerischer Weise roden sie ihn, um Delegierte unterzubringen, die mit Privatjets einfliegen.“
Die UN reagierte nicht auf die Anfrage des DCNF nach einer Stellungnahme.
Bloomberg News: Die starken Regenfälle in Belém haben laut Stiell auch im Inneren der Baustelle Probleme verursacht. Wasser sei durch die Decke eingedrungen… https://t.co/a9Zsps3HTR pic.twitter.com/nMuow4n8pM
Marc Morano von Climate Depot berichtet über die „Wettermanipulation in Innenräumen“ der UN und gravierende Infrastrukturprobleme, darunter Wassereintritt bei der COP30.
— Marc Morano (@ClimateDepot) 20. November 2025
Rucker und Marc Morano , Herausgeber von CFACTs ClimateDepot.com , besuchten den Amazonas-Regenwald, um die vierspurige Autobahn zu besichtigen, über die die BBC erstmals im März berichtet hatte . Rucker sagte gegenüber dem DCNF, dass in Brasilien „immer noch abgeholzt und abgebrannt wird. Wir haben die Kettensägen selbst gehört, und das ist etwas, was sie [der brasilianische Staat] zu vertuschen versuchen.“
Die Autobahn Avenida Liberdade wurde in der Vergangenheit aufgrund von Umweltbedenken mehrfach auf Eis gelegt, aber im Zuge umfassenderer Modernisierungsmaßnahmen für Belém im Vorfeld der COP30 wieder aufgenommen, wie berichtet wird. Laut staatlichen Beamten werden die Entwicklungsmaßnahmen nachhaltiges Erbe hinterlassen, darunter ein erweiterter Flughafen, neue Hotels und ein unbefestigter Hafen für Kreuzfahrtschiffe.
Der brasilianische Staat dementierte, dass die Autobahn für die Klimakonferenz gebaut worden sei, und wies darauf hin, dass die Planungen für die Straße bereits im Jahr 2020 begonnen hätten – also lange bevor Brasilien als Gastgeber der COP30 ausgewählt wurde, berichtete Reuters im März.
Präsident Donald Trump kritisierte die Konferenz scharf, weil Teile des Amazonas abgeholzt würden, um die Anreise für die Teilnehmer zu erleichtern. Die USA entsandten dieses Jahr keine offizielle Delegation.
Der kalifornische Gouverneur Gavin Newsom (Demokraten) und der Senator Sheldon Whitehouse (Demokraten) aus Rhode Island nahmen an den Gesprächen teil und verurteilten dabei die Energiepolitik und Abwesenheit der Trump-Regierung.
Einem Bericht von Bloomberg News zufolge wies ein hochrangiger UN-Beamter die brasilianischen Behörden an, Mängel wie undichte Lampen, drückende Hitze und unzureichende Sicherheitsvorkehrungen bei der Konferenz zu beheben. Tage später brach das Feuer aus.
Morano dokumentierte außerdem, dass Wasser aus Lüftungsschächten strömte , und Rucker teilte dem DCNF mit, dass es den Besuchern nicht gestattet war, Toilettenpapier herunterzuspülen, da der Veranstaltungsort „keine Klärgrube hatte“.
Rucker erinnerte sich auch an das, was er als Elitarismus bezeichnete, und merkte an, dass sich die Delegierten in der „blauen Zone“ befanden, während andere Teilnehmer und indigene Gruppen in die „grüne Zone“ verbannt wurden.
„In der blauen Zone halten sich die offiziellen Delegierten auf, die Leute aus Spanien, Portugal, Brasilien … Und diese Leute treffen die Entscheidungen“, sagte Rucker. „Die indigenen Völker, so heißt es, haben dort kein Mitspracherecht. Das ist mit ein Grund für ihren störenden-Auftritt.“
Obwohl auf der COP30 mehrere Veranstaltungen stattfanden , bei denen indigene Stimmen zu Wort kamen, stürmten einige indigene Gruppen in der ersten Woche den Veranstaltungsort der COP30 und forderten, dass ihre Stimme von den Vereinten Nationen gehört werde.
Rucker sagte gegenüber dem DCNF, dass China auf der Klimakonferenz anscheinend zu einem „neuen Vorreiter“ im Bereich Umweltschutz und grüne Energie geworden sei, obwohl das asiatische Land „zwei Kohlekraftwerke pro Woche in Betrieb nimmt“.
Jüngste Medienberichte loben China als Giganten beim Ausbau der „ erneuerbaren Energien “, obwohl China alles andere als von intermittierenden Ressourcen wie Solar- und Windenergie abhängig ist, da es auch neue Kohlekraftwerke baut und der weltweit größte Emittent ist .
„Sie betrachteten China tatsächlich als Weltmarktführer beim Kampf gegen den Klimawandel“, bemerkte Rucker und bezeichnete dies als „völlig bizarr“.
Rucker erinnerte sich, dass sich am Eingang der „blauen Zone“ ein „sehr beeindruckender chinesischer Stand“ befand.
Reuters berichtete über eine Statue, die Trump verunglimpfte vor dem COP30-Gelände, sowie eine gehörnte Jaguar-Drachen-Hybridstatue, deren Hände die Weltkugel umklammerten. Dieses mit Reißzähnen versehene Gebilde sollte angeblich die Partnerschaft Chinas und Brasiliens zum Schutz des Regenwaldes symbolisieren.
„Die Statuen sind rein politische Statements: Die eine symbolisiert, wie lebendig und präsent der Kommunismus in Brasilien und China ist, die andere ist ein fehlgeleiteter Versuch, Trump zu beschämen oder zu kritisieren“, erklärte Sterling Burnett, Direktor des Arthur B. Robinson Center on Climate and Environmental Policy am Heartland Institute, gegenüber dem DCNF. „Trumps Förderung der Entwicklung und des breiteren Einsatzes fossiler Brennstoffe – insbesondere die Ermutigung von Entwicklungsländern, auf bezahlbare Energie zuzugreifen – wird Kindern in armen Ländern mehr helfen als alle Klimaabkommen und dubiosen Versprechen im Bereich der grünen Energie zusammen.“
Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Medienunternehmen mit großer Reichweite kostenlos zur Verfügung. Alle wiederveröffentlichten Artikel müssen unser Logo, den Namen des/der jeweiligen Reporters/Reporterin und dessen/deren Zugehörigkeit zur DCNF enthalten. Bei Fragen zu unseren Richtlinien oder einer möglichen Partnerschaft kontaktieren Sie uns bitte unter licensing@dailycallernewsfoundation.org.
https://dailycaller.com/2025/11/24/united-nations-un-cop30-climate-change-disaster-brazil/
Der Beitrag Ein Blick hinter die Kulissen der desaströsen UN-Klimakonferenz erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Belém: Lebensversicherungen fürs Klimageschäft
Die neue Klima-Angst ist die Angst der Klima-Industrie vor dem Verlust ihres Marktes. Das Geschäft soll durch eine Orgie von neuen Institutionen, Überwachungs- und Geldverteilungsmechanismen „unumkehrbar“ gemacht werden.
Von Martina BinnigDer Klima-Drops ist längst noch nicht gelutscht. Das wird einem klar, wenn man den täglichen Newsletter „Earth Negotiations Bulletin“ abonniert hat, der über die Umwelt- und Entwicklungsverhandlungen der Vereinten Nationen berichtet. Zwar dreht sich darin momentan alles um die UN-Klimakonferenz (COP30), die gerade im brasilianischen Belém stattgefunden hat, doch auch unabhängig davon ist rund ums Jahr eine gigantische Maschinerie auf supranationaler Ebene damit beschäftigt, die Ideologie der Klimaneutralität aufrechtzuerhalten.
Daran wird sich auch so bald nichts ändern. Denn selbst wenn ein allmählicher Richtungswechsel festzustellen ist und sich kein Staatschef der vier größten CO2-emittierenden Nationen (China, USA, Indien und Russland) bei der COP hat blicken lassen, geht das Geschäft mit der Klimaideologie weiter. Zwar hat nur rund ein Drittel der Staaten die von der UN geforderte Erklärung über ihre zukünftige Verwendung von fossilen Brennstoffen abgegeben, doch die Europäische Union und allen voran Deutschland halten eisern Kurs auf die vermeintliche Klimaneutralität von Wirtschaft und Gesellschaft. Und das, obwohl die EU-Staaten für lediglich sechs Prozent der globalen Kohlendioxid-Emissionen verantwortlich sind.
Die Vereinten Nationen verkaufen die COP30 denn auch ungeniert als Erfolg. So sagte Simon Stiell, Exekutivsekretär der UN-Klimarahmenkonvention, in seiner Abschlussrede am 22. November: „Die COP30 hat gezeigt, dass die Zusammenarbeit im Klimabereich lebendig und dynamisch ist und die Menschheit im Kampf für einen lebenswerten Planeten nicht nachlässt.“ Dabei musste die Konferenz um einen Tag verlängert werden, weil das Ergebnis sonst allzu mau ausgefallen wäre. Der ursprünglich auf der UN-Klimakonferenz 2023 in Dubai vorgeschlagene Fahrplan für die Abkehr von fossilen Energieträgern war von China, Indien, Saudi-Arabien, Nigeria und Russland schlichtweg ignoriert worden.
Obwohl daraufhin rund 30 Staaten – darunter selbstverständlich auch Deutschland! – in einem gemeinsamen Schreiben das Festhalten an einem konkreten Ausstiegs-Konzept forderten, einigten sich die Staaten nun nur auf einen verwässerten Plan, der es den Ländern erlaubt, den Ausstieg entsprechend ihrer Möglichkeiten zu vollziehen, ohne eine festgelegte Frist. Entsprechend vage fiel die gemeinsame Abschlusserklärung aus: Die Vereinten Nationen bekräftigen darin ihr Bekenntnis zum Multilateralismus und zum Ziel des Pariser Abkommens, den Anstieg der globalen Durchschnittstemperatur auf deutlich unter 2°C über dem vorindustriellen Niveau zu halten und möglichst auf 1,5°C zu begrenzen. Der globale Übergang zu einer Entwicklung mit geringen Treibhausgasemissionen sei daher unumkehrbar.
„Global Implementation Accelerator“Außerdem wird in der Abschlusserklärung die Rolle der UN-Organisationen und der multilateralen Entwicklungsbanken betont. Auch die nichtstaatlichen Akteure wie NGOs, Stiftungen, der „Privatsektor“, Finanzinstitutionen, Städte und Behörden werden gewürdigt und darauf eingeschworen, die Klimaschutzmaßnahmen weltweit zu beschleunigen. Um die Länder bei der Umsetzung ihrer national festgelegten Beiträge zu unterstützen, soll ein „Global Implementation Accelerator“ ins Leben gerufen werden. Nicht zuletzt werden die „entwickelten Länder“ ermahnt, finanzielle Mittel bereitzustellen, um die Entwicklungsländer bei ihrer Klima-Anpassung zu fördern. Die globalen Finanzströme sollen mit niedrigen Treibhausgasemissionen in Einklang gebracht werden. Konkret heißt das, dass die Finanzierung von Klimaschutzmaßnahmen für Entwicklungsländer aus allen öffentlichen und privaten Quellen bis 2035 auf mindestens 1,3 Billionen US-Dollar pro Jahr aufgestockt werden soll.
Und genau um diesen Markt geht es beim Klimazirkus natürlich in Wirklichkeit: Es sind bereits viel zu viele Investitionen in den Klimamarkt getätigt worden – gerade auch in der und durch die EU –, die nun nicht plötzlich vergeblich sein dürfen. Und auch Bill Gates hat in seiner viel zitierten Aussage, dass künftig der Wohlstand im Mittelpunkt der Klimatrategie stehen müsse, den Klimakurs nicht aufgegeben, sondern lediglich relativiert. Was den simplen Hintergrund hat, dass Digitalisierung und Künstliche Intelligenz nun mal Energie benötigen. Und so beteiligt sich Gates selbstverständlich als Sponsor an den aktuellen digitalen Klima-Initiativen der UN. Bei der COP30 wurde nämlich zum Beispiel eine neue digitale Klima-Plattform (Green Digital Action Hub) ins Leben gerufen, die Tools, Fachwissen und Daten für den Kampf gegen den Klimawandel bereitstellen soll. Sie soll den Nationen dabei helfen, grüne Technologien auszubauen, den ökologischen Fußabdruck von Technologien zu verringern und den Zugang zu nachhaltigen digitalen Lösungen für alle zu gewährleisten.
Auch das AI Climate Institute (AICI) ist eine neue globale Initiative, die auf der COP30 gestartet wurde. Sie hat das Ziel, Menschen und Institutionen in Entwicklungsländernmit den notwendigen Fähigkeiten auszustatten, um künstliche Intelligenz (KI) für Klimaschutzmaßnahmen zu nutzen. Das Institut soll unter anderem Schulungsprogramme für politische Entscheidungsträger und technische Fachkräfte sowie ein digitales Lernarchiv zu Klimaanwendungen anbieten. Die Gates-Stiftung engagiert sich konkret beim Aufbau einer digitalen öffentlichen Infrastruktur (DPI) für „Klimaschutz und soziale Resilienz“. Im Rahmen einer „DPI for People and Planet Innovation Challenge“ wurden fünf Innovatoren ausgewählt, die jeweils 100.000 US-Dollar an Fördermitteln enthielten. Es steht zu befürchten, dass eine derartige Infrastruktur unter dem Tarnmantel des Klimaschutzes zu einem „allsehenden Auge“ ausgebaut wird, mit dem die Menschheit nahezu komplett überwacht werden könnte.
Kontrolle und SelbstbedienungDarüber hinaus hat die Gates Foundation in Zusammenarbeit mit Brasilien und den Vereinigten Arabischen Emiraten das weltweit erste Open-Source-KI-Large-Language-Model (LLM) für die Landwirtschaft eingeführt, das als „Durchbruch auf dem Weg zu einem widerstandsfähigeren und gerechteren globalen Ernährungssystem“ gepriesen wird. Dabei geht es um die Verarbeitung von enorm großen Datensätzen. Auch ein neues landwirtzentriertes KI-Prognosetool soll bis 2028 über 100 Millionen Landwirte mit Echtzeit-Einblicken versorgen und so klimafreundliche Entscheidungsfindungen, Risikovorsorge und Innovationen in landwirtschaftlichen Systemen weltweit stärken. Dass mit dieser gigantischen Datenerhebung ebenfalls jede Menge Kontrollmöglichkeiten verbunden sind, wird nicht thematisiert. Und im Rahmen einer Landwirtschaftlichen Innovationsschau (Agricultural Innovation Showcase) kündigte die Gates Foundation 1,45 Milliarden US-Dollar zur Förderung klimaresistenter Ernährungssysteme in Subsahara-Afrika und Südasien an.
Im Vorfeld der COP30 war bereits ein Bericht veröffentlicht worden, den deren Präsident – der brasilianische Diplomat André Corrêa do Lago – in Auftrag gegeben hatte und der von Ronaldo Lemos als Vorsitzendem des COP-Technologiebeirats verfasst wurde. Der brasilianische Jurist wurde im Jahr 2015 in das Programm „Young Global Leaders“ des Weltwirtschaftsforum aufgenommen. Sein Bericht trägt den Titel „Digitale öffentliche Infrastruktur für den Klimaschutz“ und umfasst 106 Seiten. Darin wird die Notwendigkeit einer globalen digitalen Klimaplattform ausgeführt, die mit den nationalen Systemen der digitalen Identitäten verknüpft sein soll. Diese öffentliche digitale Infrastruktur für den Klimaschutz (Climate DPI) soll „transformative Klimaschutzmaßnahmen“ vereinheitlichen. Durch die Integration von digitaler Identifizierung, Zahlungsplattformen und offenem Datenaustausch könne eine derartige Climate DPI die Eindämmung des Klimawandels erheblich beschleunigen, so Lemos. Eine globale Climate DPI würde gemeinsame Standards und Schnittstellen schaffen, damit Daten, Modelle und Finanzmechanismen nahtlos weltweit zusammenarbeiten könnten.
Dazu müsste allerdings eine gemeinsame Datenbank für Erdbeobachtungsdaten geschaffen werden, begleitet von Echtzeit-Systemen zur Überwachung von Klimarisiken, digitalen Plattformen für die Klimafinanzierung sowie der Integration künstlicher Intelligenz sowohl für das Klima (zur Verbesserung von Klimalösungen) als auch für die KI selbst (um die Nachhaltigkeit der digitalen Infrastruktur zu gewährleisten). Der Bericht empfiehlt daher die Einrichtung einer internationalen Governance, um die Entwicklung der Climate DPI zu steuern – unterstützt durch eine Allianz aus Regierungen, Technologiepartnern und der Zivilgesellschaft. Der Klima-Markt wird also lediglich Richtung Digitalisierung und KI umgestaltet. Er stellt nach wie vor einen äußerst attraktiven Selbstbedienungsladen für Investoren dar.
Nachhaltigkeit für BlackRockWer einen Blick auf die Website des International Institute for Sustainable Development(IISD) wirft, das die „Earth Negotiations Bulletin“ veröffentlicht, kommt aus dem Staunen nicht heraus. Dieses in Kanada beheimatete Internationale Institut für nachhaltige Entwicklung gibt vor, unabhängig zu sein, führt als Unterstützer jedoch gleich sech UN-Organisationen auf: Food and Agriculture Organization of the United Nations (FAO), United Nations Environment Programme (UNEP), United Nations Development Programme (UNDP), United Nations Industrial Development Organization (UNIDO), United Nations Office for Disaster Risk Reduction sowie United Nations Office for Project Services. Dazu kommen zum Beispiel die Europäische Kommission und die Europäische Investitionsbank, die als einer der weltweit größten Geldgeber für den Klimaschutz fungiert. Auch die deutsche Bundesregierung, das Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit und die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) fehlen nicht. Nicht zu vergessen Stiftungen wie die Open Society Foundations, die Rockefeller Philanthropy Advisors, der Wellcome Trust, die Qatar Foundation – die auch als Geldgeber der Hamas gilt – und die European Climate Foundation (ECF), die von Laurence Tubiana geleitet wird, der Architektin des Pariser Klimaabkommens.
In seinem letzten Jahresbericht für 2023/24 gibt das Institut genaue Fördersummen an. Demnach hat es allein von den UN-Agenturen 4.462.000 Dollar erhalten. Von Deutschland sogar 8.649.000 Dollar und von der European Climate Foundation 492.000 Dollar. Die Laudes-Stiftung mit Sitz in der Schweiz, die den Wandel zu einer „grünen“ Wirtschaft vorantreiben will, steuerte gleich 1.300.000 Dollar bei. Insgesamt bezog das IISD 92.632.000 Dollar an Zuwendungen. Wie „unabhängig“ agiert ein derartiges Institut wirklich? Darüber hinaus betreibt es Büros in Winnipeg, Genf, Ottawa und Toronto und beschäftigt über 250 Mitarbeiter. Vorstandsvorsitzende ist Michelle Edkins, die zuvor Karriere als Geschäftsführerin im Investment Stewardship-Team von BlackRock gemacht hat, dem größten Vermögensverwalter der Welt. Edkins versteht es als Anlagen-Verwalterein, die spezifischen Ziele und Vorgaben ihrer Kunden zu erfüllen. An dieser Personalie zeigt sich einmal mehr, dass es dem angeblich unabhängigen Institut für nachhaltige Entwicklung vor allem um „Nachhaltigkeit“ als Geschäftsfeld geht.
Und so lesen sich auch die täglichen Beiträge im „Earth Negotiations Bulletin“ des IISD: Es geht in erster Linie um die Erreichung der Nachhaltigkeitsziele der UN-Agenda 2030, also um den Totalumbau von Wirtschaft und Gesellschaft zu Klimaneutralität, der Märkte für entsprechende Technologien verspricht. In diesem Zusammenhänge existieren derart viele Arbeitsgruppen, Kongresse, Berichte und Projekte, dass es einem schwindelig werden kann. Seien es Jugendprogramme, Neuigkeiten vom Weltklimarat (Intergovernmental Panel on Climate Change, kurz: IPCC), der globale Dialog über die Governance künstlicher Intelligenz, ein Bericht zur Bedeutung privater Finanzmittel für Klimastrategien, das UN-Wasser-Meeting, die Biennale für eine nachhaltige, inklusive und widerstandsfähige Weltwirtschaft, der Chinesische Rat für internationale Zusammenarbeit im Bereich Umwelt und Entwicklung (China Council for International Cooperation on Environment and Development, kurz: CCICED) oder der Klima-Stellenmarkt: Im Grunde kann man sich rund um die Uhr mit irgendeinem Aspekt des Klima-Marktes beschäftigen.
Allerdings geht neuerdings eine Angst umher. Nämlich die Angst, dass der Kurswechsel von Donald Trump den gesamten Klimamarkt erfassen wird. Es herrscht also weniger Angst vor dem Klimawandel an sich bei den NGOs, Denkfabriken und Stiftungen, die vom Kampf gegen den Klimawandel leben, sondern die ganz reale Angst vor dem Verlust des Klima-Marktes mit seinen zahlreichen Geschäftsmöglichkeiten. Diese neue Form der Klima-Angst ist vergleichbar mit der aktuellen „Friedensangst“, die die Nutznießer der militärischen Aufrüstung wegen des Ukraine-Friedensplans ergriffen hat: die ganz banale Angst vor Marktverlusten.
Der Beitrag erschien zuerst bei ACHGUT hier
Freispruch für CO2
Der Beitrag Belém: Lebensversicherungen fürs Klimageschäft erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Phantom-Kraftwerke
Während munter weiter Kohle-Kraftwerke zerstört werden, sollen dafür Gaskraftwerke als „Brückentechnologie“ einspringen. Die sind jedoch ein reines Phantasieprodukt, da sie weder genehmigt noch rechtzeitig lieferbar sind. Deutschland ist komplett verrückt geworden.
Von Manfred HaferburgDrei Wortschöpfungen der Energiewende sind „Dunkelflaute“, „Versorgungslücke“ und „Brückentechnologie“. Die Dunkelflaute ist Schicksal, die Versorgungslücke ist Resultat des Pechs beim Denken und Brückentechnologie heißt, mit der Wurst nach dem Schinken werfen.
Deutschland hat 2025 knapp 20 Prozent bei der Umsetzung der Energiewende erreicht und schon bei der Stromerzeugung durch Wind und Sonne, die ja 2038 abgeschlossen sein soll, tauchen ganz erhebliche Schwierigkeiten auf, die daraus resultieren, dass es abends dunkel wird und gelegentlich ein paar Tage Windstille auftreten. Das konnte ja keiner ahnen. Bei Flaute und Dunkelheit kommt es nämlich nach dem Kernenergie- und Kohleausstieg zu einer sogenannten „Versorgungslücke“. Da man unverdrossen weiter Kohlekraftwerke zerstört, wächst die Stromlücke an. Solche Mengen Strom kann man auch nicht importieren, das schaffen die Grenzkuppelstellen nicht.
Man hatte bei der Konzeption der Energiewende irgendwie nicht daran gedacht, dass es bei Dunkelflauten noch Kraftwerke braucht und hat die existierenden feierlich und unter Jubel in die Luft gesprengt. Etwa die Hälfte ist schon weg. Weil es so schön war, möchte man gern an dieser Tradition festhalten. Nun müssen für die zerstörten und noch zu zerstörenden Kohlekraftwerke neue Gaskraftwerke gebaut werden, die man Brückentechnologie nennt, weil die nur bis 2045 ab und zu produzieren dürfen – bei Dunkelflauten. Wenn man dann 2045 über die Brücke am rettenden Ufer der erfolgreichen Energiewende angekommen ist, können die Brückengaskraftwerke auch noch gesprengt werden.
Jetzt entbrannte ein erbitterter Streit, ob – und wenn ja – wie viele Gaskraftwerke gebraucht werden. Je weniger jemand von Energieversorgung versteht, umso lauter führt er die Diskussion über die Energiepolitik. Fachleute werden längst nicht mehr gehört. Unter den Klängen des Bordorchesters bewegt sich die Energietitanic mit immer schnellerer Fahrt auf den Eisberg zu.
Deutschland wäre nicht das Land der Energiewende-Vorreiter, wenn nicht auch hierbei die Interessenvertreter der verschiedenen Macht- und Geldlobbys eine wilde Kakophonie aufführen und wie die Kesselflicker streiten würden, wie viele Gaskraftwerke es denn nun sein sollen. Auffällig ist, dass bei der Propagandaschlacht sichtbar wird, je weiter links sich ein Energiewender verortet, desto weniger Gaskraftwerke werden gebraucht. Echte Hardcore-Energiewender wie Claudia Kemfert brauchen gar keine. Wenn kein Wind weht und keine Sonne scheint, dann regeln wir das mit „Bedarfsflexibilität“, dann brauchen wir eben keinen Strom. Das bedeutet aber nichts anderes als die Aufgabe des Konzeptes der „Netzsicherheit“. Wer braucht schon zu jeder Zeit Strom? Wenn eine Versorgungslücke entsteht, dann ist sie halt da.
Die BesserwissendenHauptzuständig für die Planung von Gaskraftwerken ist das Bundeswirtschaftsministerium, geführt von Katharina Reiche, mit der Bundesnetzagentur, geführt von dem Grünen Klaus Müller. Im Ministerium und der Netzagentur arbeiten 3.600 Beamte an Themen wie der Energieversorgung. Erforderliche Gaskraftwerke werden seit 2020 in den Versorgungssicherheits-Monitorings zum Thema. 2021 lag der Fokus noch stark auf Versorgungssicherheit und dem Kohleausstieg. Gaskraftwerke wurden als Übergangstechnologie erwähnt, aber kein klarer Neubau-Bedarf beziffert. 2022 wurde im Versorgungssicherheitsmonitoring erstmals ein konkreter Bedarf 17–21 GW an zusätzlicher steuerbarer Kapazität bis 2030 genannt. Hintergrund waren Absicherung der Energiewende und ein Ersatz für abzuschaltende Kohlekraftwerke. Im Jahre 2023 bestätigte der Monitoringbericht 2023 die steigende Bedeutung von Gaskraftwerken. Eine Prognose für 2025 und 2030 sollte „zeitnah“ veröffentlicht werden. Kapazität der bestehenden Gaskraftwerke lag 2022 bei 33,8 GW. 2024 wurde ein neues Versorgungssicherheitsmonitoring vorgelegt und ein Bedarf bis 2035 zwischen 22,4 GW (Zielszenario) und 35,5 GW (bei verzögerter Energiewende) prognostiziert. Nun lag die Betonung auf Flexibilisierung des Verbrauchs und Speichertechnologien, aber Gaskraftwerke blieben zentral. Der nächste Bericht der Bundesnetzagentur im September 2025 bestätigte die Spannbreite 22–35,5 GW bis 2035. 36 GW entspricht 71 neuen Gaskraftwerken à 500 MW.
Finnisch ist eine für uns Deutsche recht schwierige Sprache. Allerdings kennen die meisten Deutschen das finnische Wort für „Besserwisser“, ohne es zu ahnen. Dabei ist es ganz einfach: „Besserrwisserr“. Die Vorreitenden glauben fest daran, dass die Völker dieser Erde ihnen nacheifern werden, wenn sie erst erkennen, wie die deutsche Energiewende nicht nur das Weltklima rettet, sondern die deutsche Wirtschaft an die Weltspitze katapultiert.
Ganze Bataillone von Energieexperten erfinden täglich neue Wunderwaffen, um die immer größer werdende Versorgungslücke kleinzureden. Da schulte jüngst der ehemalige CDU-Gesundheitsminister Jens Spahn zum Energieexperten der CDU um. Von Beruf ist er Bankkaufmann. Auch Professor Karl Lauterbach outete sich als SPD Experte für Energie und Klima. Der ist von Beruf Medizinökonom. Auch einige andere, mit wohlklingenden Professorentiteln bestückte Experten erklären mit Inbrunst, das mittels „Sektorenkopplung“ das Problem auch ohne Kraftwerke gelöst werden kann. So zum Beispiel Professorin Claudia Kemfert, die in einer Gegendarstellung zu Vorwürfen in der Presse zu fragwürdigen Aussagen ihrerseits bezüglich der Gaskraftwerke behauptet: „Wir brauchen keine Brücken mehr; wir haben das rettende Ufer der erneuerbaren Energien längst erreicht.“ Ein anderer Professor namens Volker Quaschning will die Kohlekraftwerke länger laufen lassen – was durchaus Sinn macht –, die Gaskraftwerke mit Biogas betreiben oder durch Batterien ersetzen – was kapazitätsmäßig Unfug ist – und setzt auf „Flexibilität“ im Netz, das heißt, Strom gibt es, wenn die Sonne scheint und der Wind weht.
Eines eint all die Experten: Sie wissen besser als die dafür zuständigen Stellen, wie viele Gaskraftwerke benötigt werden. Die Regierungspartei SPD stimmt in den Chor der Besserwissenden ein und findet es „gut“, wenn jetzt nur zwanzig statt der nötigen 40 Kraftwerke gebaut werden, so der stellvertretende Vorsitzende der SPD-Bundestagsfraktion, Armand Zorn, der von Beruf ein Politikwissenschaftler ist: „Es ist gut, dass die Volumina jetzt auf einen für die Versorgungssicherheit realistischeren Wert reduziert werden.“ Die SPD hofft auf Batteriespeicher und „Netzflexibilität“. Sie fürchtet in Eintracht mit den grünen Umweltverbänden und der Erneuerbaren-Lobby, dass etwas von dem Energiewende-Geldsegen in andere Kanäle umgeleitet werden könnte. Mich würde mal interessieren, welche Bundestagsabgeordnete in Erneuerbare Aktien investiert haben? Sie streuen die Befürchtung, dass „dadurch die Energiewende zu Gunsten der Gaslobby abgewürgt würde“. Da trappst die Nachtigall aber gehörig. Ob die Energiewender dabei das Wohl des Landes im Sinne haben? Oder sind es nur Dilettanten, die ein Schneeballsystem, basierend auf dem Prinzip Hoffnung, betreiben? Immerhin führt eine Versorgungslücke zu unkontrollierbaren Strompreisen, Deindustrialisierung, Brownouts und womöglich zum Blackout mit allen furchtbaren Folgen.
Es wird bis 2030 gar kein neues Gaskraftwerk gebaut werdenEs gibt allerdings auch ein paar Protagonisten, die den Bedarf an Gaskraftwerken dramatisch höher einschätzen als das Bundesministerium. Der Umwelt-Thinktank Agora Energiewende – sicherlich über jedem Populismusverdacht stehend – hält 61 GW für nötig, das wären dann 122 Gaskraftwerke von je 500 MW. Die haben unterstellt, dass die ambitionierten Pläne der Großen Transformation realisiert werden und eine durchelektrifizierte Gesellschaft sich aufbaut. Der Bau so vieler Gaskraftwerke würde etwa 100 Milliarden Euro kosten. Eine Diskussion, wie viel Betriebskosten dies für den Steuerzahler verursachen würde, wird noch gar nicht geführt. Sie wäre auch sinnlos, da das LNG dafür gar nicht zur Verfügung steht.
Da die vorgesehenen Gaskraftwerke im EEG-Gestrüpp als Lückenbüßer für die Volatilität der Erneuerbaren nicht wirtschaftlich betrieben werden, sollen sie auf Kosten der Steuerzahler als „Kapazitätsreserve“ subventioniert werden. Seltsamerweise muss so etwas von der EU „genehmigt“ werden. Die Bundesregierung plante 2025 eine Ausschreibung für 20 GW neue Kapazitäten zur Absicherung der Energiewende und stellte entsprechende Anträge bei der EU. Die EU-Kommission reduzierte dies auf 10 GW, da größere Mengen als Beihilfe kritisch gesehen werden, davon 8 GW neue wasserstofffähige Gaskraftwerke und 2 GW technologieoffen, z.B. Batteriespeicher oder andere flexible Lösungen. Maßgeblich zuständig für die Genehmigung neuer Gaskraftwerkskapazitäten in Deutschland ist auf EU-Ebene die EU-Kommissarin für Wettbewerb, Margrethe Vestager, eine Dänin von der Partei „radikale Venstre“ (Radikale Linke).
Damit wird die Bundesnetzagentur-Prognose ignoriert, dass bis 2035 22–36 GW neue steuerbare Kapazitäten gebraucht werden, um Kohleausstieg, Dunkelflauten und steigenden Strombedarf (Wärmepumpen, E-Mobilität) abzusichern. Es ist, als ob Deutschland sagt: „Wir brauchen 20 Feuerwehrwagen, sonst brennt die Stadt.“ Die EU antwortet: „Ihr dürft nur 10 Feuerwehrwagen kaufen – mehr wäre eine Wettbewerbsverzerrung.“ Wenn in der Folge in Deutschland die Hütten brennen – die Lichter ausgehen –, dann aber im Rahmen eines fairen europäischen Wettbewerbs.
Die Diskussion um die benötigte Kapazität der Gaskraftwerke erscheint Fachleuten recht obsolet, egal ob nun 12 oder 61 GW bis 2030 gebaut werden sollen. Denn es wird bis 2030 gar kein neues Gaskraftwerk gebaut werden. Deutschland verfügt aktuell über rund 30 GW installierte Gaskraftwerkskapazität. Und mehr wird es auch 2030 nicht geben, weil die politischen Kesselflicker sich nach wie vor um ein „Ausschreibungsdesign“ streiten. Die Investoren für die Gaskraftwerke warten seit vier Jahren auf das „Ausschreibungsdesign“. Die Frage steht im Raum – wer soll das bezahlen?
Die neuen Gaskraftwerke sollen nur laufen, wenn Wind und Sonne schwächeln. Das sind so um 1.400 Stunden im Jahr, das aber 8.760 Stunden hat. Also mit einer geplanten „Verfügbarkeit“ von 16 Prozent. Sie können also gar nicht rentabel arbeiten, da der Stillstand genauso viel kostet wie der Betrieb abzüglich des Brennstoff-Gases. Beim „Ausschreibungsdesign“ geht es um die Subventionen, mit denen der „Gaskraftwerks-Kapazitätsmarkt“ bezahlt wird. Nur wenn der Steuerzahler für die nächsten 15 Jahre die Kosten als „Anschubfinanzierung“ schultert, werden die Subventionsabgreifer Gaskraftwerke bauen. Danach „übernimmt der Markt“, sagen die Politiker und meinen, dass danach die Zusatzkosten über Netzentgelte oder Umlagen auf die Strompreise verteilt werden. Das heißt: Am Ende zahlen statt der Steuerzahler die Stromkunden die Kapazitätsprämien, ähnlich wie heute bei der EEG‑Umlage oder Netzentgelte. Liebe Leser, merken Sie etwas?
Die Wartezeit für eine Gasturbine liegt derzeit bei vier JahrenDie Bundesregierung hat im Jahr 2025 den Neubau von bis zu 12 Gigawatt beschlossen, um Versorgungslücken nach dem Kohleausstieg zu schließen. Aber es gibt noch nicht einmal laufende Ausschreibungen – nur die politische Entscheidung. Die eigentlichen Ausschreibungen sollen 2026 beginnen. Danach sollen Genehmigungsverfahren beginnen und die Aufträge an die Hersteller vergeben werden. Sagen wir mal, im optimalen Falle dauert das drei Jahre. Dann können die Hersteller angefragt werden.
Da viele Länder gleichzeitig neue Gaskraftwerke planen (z. B. Vietnam, Indien), sind die Auftragsbücher voll. Die Wartezeit auf eine 500 MW‑Gasturbine liegt aktuell bei etwa 4 Jahren, abhängig von Hersteller, Projektgröße und Lieferketten. Große Gasturbinen der 500 MW Klasse gehören zu den komplexesten Industrieprodukten überhaupt. Hersteller wie GE Vernova, Siemens Energy oder Mitsubishi Power fertigen sie nur in wenigen spezialisierten Werken weltweit. Allein die Fertigung und Montage einer solchen Turbine dauert 12–18 Monate. Hinzu kommen Transport, Installation und Testbetrieb. Das führt zu Lieferzeiten von 24–48 Monaten. Hinzu kommen Lieferkettenprobleme. Nach der Pandemie und durch geopolitische Spannungen (z. B. Rohstoffengpässe, Logistikprobleme) verlängern sich die Wartezeiten. Und es geht ja nicht nur darum, eine Gasturbine in die Landschaft zu stellen, sondern um ein richtiges Gaskraftwerk. So ein 500 MW Gasblock ist eine Großbaustelle. Auch zwei Großtransformatoren gehören zum Bauumfang. Die Wartezeit auf solche Transformatoren beträgt derzeit ebenfalls vier Jahre. Da ein Land nicht 50 oder 70 Kraftwerke gleichzeitig bauen kann, werden die letzten Gasblöcke eventuell kurz vor 2045 fertig.
Kurz gesagt – mit viel Glück und noch mehr Geld werden die ersten Gaskraftwerke Mitte der dreißiger Jahre in Betrieb gehen. Die „Brückenterchnologie“ soll aber bis 2045 – also weniger als 10 Jahre nach ihrem Bau – entweder mit Wasserstoff laufen – den es nicht gibt und auch nicht geben wird, weil Deutschland bis dahin längst pleite ist – oder auch gesprengt werden.
Ein gutes Beispiel für das Gaskraftwerksdilemma ist das Gaskraftwerk Irsching in Voburg an der Donau in Bayern. Das Kraftwerk Ulrich Hartmann (Block 4) hat eine Leistung von 561 MW und ging 2011 in Betrieb. Mit einem Wirkungsgrad von 60,4 Prozent ist es eine der effizientesten GuD-Anlagen weltweit. Trotzdem wollten die Betreiber ihn mehrfach stilllegen, da er sich am Markt nicht rechnete. Die Bundesnetzagentur untersagte dies jedoch und stellte ihn als „systemrelevant“ unter Netzreserve. Der Block ist jetzt das, was die neuen Gaskraftwerke alle werden sollen. Die Betreiber erhalten eine vollständige Kostenerstattung für den Betrieb der Anlage, solange sie als Netzreserve vorgehalten wird: Fixkosten (Personal, Wartung, Instandhaltung), Betriebskosten (Brennstoff, wenn die Anlage tatsächlich eingesetzt wird) und Kapitalkosten (Abschreibungen, Finanzierungskosten). Die Kosten werden über die Netzentgelte auf die Stromkunden umgelegt – also letztlich von allen Verbrauchern bezahlt. Genaue Summen sind vertraulich, aber es werden so um 30 Millionen Euro pro Jahr für diesen einen Block sein.
Die Energiewende in ihrem Lauf, hält keine Dunkelflaute und Versorgungslücke auf. Das Ganze ist so grotesk, dass man es sich nicht ausdenken kann. Es werden munter und unverdrossen weiter die existierenden Kraftwerke zerstört. Von derzeit noch 44 GW Kohlekapazität (Braun- und Steinkohle zusammen) bleiben bis 2031 nur noch etwa 17 GW übrig. Das heißt: rund 27 GW Kohlekapazität sind bis dahin stillzulegen. Und für die wegzusprengenden Kraftwerke sollen neue Kraftwerke gebaut werden, die man kurz nach ihrer Fertigstellung dann auch wieder wegsprengen kann. Sollten tatsächlich 60 Blöcke gebaut werden, können sich die Deutschen im Jahr 2045 auf monatlich fünf Kraftwerkssprengungen mit Volksfestcharakter, Bier und Bratwurst freuen.
Der Beitrag erschien zuerst bei ACHGUT
Freispruch für CO2
Der Beitrag Die Phantom-Kraftwerke erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
