«Der Staat ist eine Institution, die von Banden geführt wird, die aus Mördern, Plünderern und Dieben besteht, umgeben von willfährigen Handlangern, Propagandisten, Speichelleckern, Gaunern, Lügnern, Clowns, Scharlatanen, Blendern und nützlichen Idioten - eine Institution, die alles verdreckt und verdunkelt, was sie berührt.» (– Prof. Hans-Hermann Hoppe).
EIKE - Europäisches Institut für Klima und Energie e.V.
Meine Anmerkungen zum Klima-Report des Energieministeriums
H. Sterling Burnett
In Climate Change Weekly 553 habe ich darüber berichtet, wie der jüngste Klimabericht des US-Energieministeriums die weitgehend ruhende Debatte über die möglichen Ursachen und Folgen des Klimawandels wiederbelebt hat. Fast 20 Jahre lang war die Debatte für die Medien beendet: Der katastrophale, vom Menschen verursachte Klimawandel stand außer Frage, war eine bewiesene Tatsache – als ob alles, was erst in Zukunft sichtbare Auswirkungen haben wird, als aktuelle Tatsache bewiesen werden könnte.
Der Bericht des Energieministeriums hat diese Darstellung widerlegt und die Forscher und Medien, die lange Zeit behauptet hatten, es gebe einen wissenschaftlichen Konsens, die Wissenschaft sei sich einig und wir müssten die industrielle Entwicklung stören, dazu gezwungen, sich erneut auf eine wissenschaftliche Debatte einzulassen.
In meiner früheren Diskussion des Berichts habe ich ihn nur allgemein behandelt. Der Bericht des DOE muss jedoch, wie andere Regierungsberichte, Vorschriften, Regeln und Empfehlungen auch, eine öffentliche Kommentierungsphase durchlaufen. Nachfolgend finden Sie die Kommentare, die ich im Namen des Heartland Institute eingereicht habe:
Die „Kritische Überprüfung der Auswirkungen von Treibhausgasemissionen auf das Klima der Vereinigten Staaten“ des US-Energieministeriums (im Folgenden DOECR) widerlegt eindrucksvoll die oft wiederholten Behauptungen, dass die Wissenschaft sich über die Rolle des Menschen beim aktuellen Klimawandel einig sei und dass der derzeitige Klimawandel eine existenzielle Krise darstelle, die eine umfassende, von der Regierung gelenkte Umgestaltung der Wirtschaft erforderlich mache, wobei auf die Nutzung von Kohlenwasserstoffen verzichtet werden müsse, um einen gefährlichen Anstieg der Treibhausgasemissionen zu verhindern.
Diese Kommentare konzentrieren sich auf einige wenige Kernpunkte, die in der DOECR diskutiert werden und die in der etablierten wissenschaftlichen Darstellung der anthropogenen Klimakatastrophe weitgehend ignoriert oder unterdrückt wurden, und schlagen einige Themen vor, die einer weiteren Betrachtung bedürfen.
Die Kommentare von DOE-Sekretär Chris Wright im Vorwort sind es wert, wiederholt zu werden, da sie die relativen Gefahren des Klimawandels im Vergleich zu den erheblichen Schäden treffend umreißen, die durch Vorschläge zur vorzeitigen Einstellung der Nutzung von Kohlenwasserstoffen entstehen würden, bevor kommerziell verfügbare, vergleichbare Technologien und Materialien entwickelt sind, die sie wirtschaftlich und zuverlässig ersetzen können. Wright stellt zu Recht fest:
Der Klimawandel ist real und verdient Aufmerksamkeit. Aber er ist nicht die größte Bedrohung für die Menschheit. Diese Auszeichnung gebührt der globalen Energiearmut. Als jemand, der Daten schätzt, weiß ich, dass die Verbesserung der Lebensbedingungen der Menschen vom Ausbau des Zugangs zu zuverlässiger, bezahlbarer Energie abhängt. Der Klimawandel ist eine Herausforderung – keine Katastrophe. Aber fehlgeleitete Politik, die eher auf Angst als auf Fakten basiert, könnte das Wohlergehen der Menschen tatsächlich gefährden.
Die Autoren des DOE-Berichts sind allesamt renommierte Experten für Klima und/oder Wetter. Ihr Ruf und ihre Qualifikationen sind über jeden Zweifel erhaben.
Was den Inhalt betrifft, so erkennt der DOECR im Gegensatz zu den Arbeiten des IPCC und vieler Wissenschaftler der „etablierten Wissenschaft” erhebliche Unsicherheiten hinsichtlich des Ausmaßes an, in dem Treibhausgasemissionen den gegenwärtigen Klimawandel vorantreiben, und erkennt weiter an, dass andere natürliche Faktoren solche Veränderungen in der Vergangenheit verursacht haben. Es bestehen erhebliche Unsicherheiten hinsichtlich der Reaktion des Klimas auf Kohlendioxidemissionen (CO₂), sowohl hinsichtlich der Physik der Reaktion angesichts von Fragen zur CO₂-Sättigung als auch hinsichtlich der Frage, ob physikalische Einflüsse durch CO₂ andere großräumige Systeme beeinflussen, die sich auf den Klimawandel auswirken, und welche positiven und negativen Rückkopplungen oder Auswirkungen als Reaktion auf höhere CO₂-Konzentrationen in der Atmosphäre auftreten könnten.
Im Gegensatz zu den üblichen Diskussionen über CO₂ wird im DOECR-Bericht ausdrücklich und zu Recht anerkannt, dass CO₂ kein Schadstoff im herkömmlichen Sinne ist und in absehbaren Konzentrationen keine direkte Gefahr für das Leben oder Wohlergehen des Menschen darstellt.
[Hervorhebung vom Übersetzer]
Der DOECR-Bericht beschreibt detailliert die erheblichen Diskrepanzen zwischen den modellierten Auswirkungen einerseits, unter anderem auf die Erwärmung der Erdoberfläche, die Schneebedeckung, die Abkühlung der Stratosphäre und die prognostizierten regionalen Auswirkungen auf den Maisgürtel der USA andererseits sowie den tatsächlich aufgezeichneten oder gemessenen Werten.
Im Gegensatz zu typischen Diskussionen über den Klimawandel untersucht der DOECR die anhaltenden Vorteile sowohl der CO₂-Düngung für Nutzpflanzen und andere Pflanzen als auch für die menschliche Gesundheit, den lebensrettenden Nutzen einer moderat wärmeren Welt und die erheblichen sozialen Vorteile fossiler Brennstoffe. Jedes dieser Themen wird in typischen Diskussionen über den anthropogenen Klimawandel in den Mainstream-Medien und allzu oft auch in Regierungsberichten und von Wissenschaftlern, die die etablierte wissenschaftliche Konsensposition vertreten, weitgehend ignoriert, heruntergespielt oder direkt falsch dargestellt.
Der Abschnitt 3.3 über den Einfluss der Urbanisierung auf Temperaturtrends ist wohl nicht so aussagekräftig, wie er sein könnte. Konkret gesagt, ist es nicht nur die Urbanisierung, die die gemessenen Temperaturen verzerrt. Solche verzerrten Messungen werden auch in ländlichen oder relativ ländlichen Gebieten aufgezeichnet, wo die Temperatur-Messpunkte schlecht gelegen sind, die Standards des National Weather Service für Datenqualität nicht erfüllen und weil die Temperaturen von Stationen „gemeldet” werden, die geschlossen oder stillgelegt wurden. Das erstgenannte Problem wurde in zwei Berichten des Heartland Institute mit dem Titel „Corrupted Climate Stations (2022)” (hier) und “Is the U.S. Surface Temperature Record Reliable?” (2009; hier) ausführlich behandelt. Letzteres wurde in einem Bericht eines investigativen Journalisten der Epoch Times diskutiert, der herausfand, dass die National Oceanic and Atmospheric Administration aus Gründen der Kontinuität Temperaturmessungen von mehr als 30 Prozent der 1.218 USHCN-Messstationen meldet, die nicht mehr existieren. Diese Messungen sind nichts anderes als Schätzungen, die einem Standort auf der Grundlage der Temperaturen benachbarter Stationen zugewiesen werden, die möglicherweise nicht repräsentativ für die Temperaturen sind, die an dem stillgelegten Standort gemessen worden wären, wenn er noch in Betrieb gewesen wäre.
Wie der Bericht hervorhebt, ist es der Klimaforschungsgemeinschaft trotz jahrelanger Arbeit immer noch nicht gelungen, den geschätzten Bereich der Gleichgewichts-Klimasensitivität (ECS) einzugrenzen. Dabei handelt es sich um die entscheidende Kennzahl, die für gefährliche Klimaveränderungen verantwortlich sein soll. Wenn unser Verständnis der ECS unvollständig oder unzureichend ist, sind durch Treibhausgase verursachte ECS-Veränderungen auf der Grundlage von Klimaprognosen nicht für wissenschaftliche Aussagen geeignet, geschweige denn für die Durchsetzung von Maßnahmen, welche die persönlichen Freiheiten der Menschen und den wirtschaftlichen Wohlstand von Einzelpersonen und Gesellschaften beeinträchtigen. Die gesamte Klimapropaganda basiert auf Behauptungen, dass die ECS gefährliche Temperaturanstiege verursacht.
Eines der Hauptprobleme bei der Erstellung eines ECS mit einem gewissen Maß an Zuverlässigkeit ist, wie im Bericht dargelegt, die Komplexität der Wolkendecke und deren Veränderungen sowie der Wolkentypen als Reaktion auf kosmische Strahlung und CO₂-Forcing. In Bezug auf Wolken räumt der IPCC zwei Tatsachen ein: Er kann Wolken nicht gut modellieren und hat nur ein unzureichendes Verständnis davon, wie sich die Wolkendecke verändern könnte und wie sich dies auf die globalen Temperaturen auswirken könnte. Trotz dieser Eingeständnisse behauptet der IPCC auf der Grundlage von Klimamodellen, die zu hohe Temperaturen vorhersagen, dass Wolken keine bedeutenden Antriebsfaktoren für den Klimawandel sind.
Ein weiterer wichtiger Punkt, den der DOECR-Bericht identifiziert und der von Mitgliedern der sogenannten Konsensgemeinschaft oft übersehen oder heruntergespielt wird, ist die Tatsache, dass für wichtige Merkmale der Atmosphäre „die beobachteten Erwärmungstrends so gering sind, dass sie mit den Ergebnissen von Modellen übereinstimmen, die kein anthropogenes CO₂ berücksichtigen, und nicht mit dem gesamten Spektrum der Erwärmungstrends übereinstimmen, die von Modellen mit erhöhtem CO₂-Ausstoß generiert werden.“ (S. 37) Wenn man einen erwarteten oder prognostizierten Effekt nicht von einer Situation ohne Veränderung, einem Nullfall, Hintergrundrauschen oder Zufälligkeit unterscheiden kann, gibt es keine Rechtfertigung dafür anzunehmen, dass die Ursache-Wirkungs-Beziehung wahr ist, genau modelliert oder gut verstanden wird.
Der vielleicht größte Beitrag des DOECR zur Verbesserung unseres Verständnisses des tatsächlichen Klimazustands und zur Eröffnung einer fairen Debatte über die Ursachen und Folgen des Klimawandels sind seine Erörterungen zu folgenden Punkten: 1) Die Tatsache, dass das IPCC tatsächlich wenig Vertrauen in seine Erkennung von Klimasignalen für die meisten atmosphärischen Phänomene und sich verändernden Trends bei extremen Wetterereignissen hat und noch zurückhaltender oder weniger zuversichtlich ist, was seine Fähigkeit angeht, festgestellte Veränderungen menschlichen Handlungen zuzuordnen. 2) dass es trotz wiederholter gegenteiliger Behauptungen in Mainstream-Medienberichten und Attributionsstudien keinen erkennbaren Verschlechterungstrend für die meisten extremen Wetterereignisse gibt, weder in Bezug auf die Anzahl noch auf die Intensität; und 3) seine Anerkennung und Untersuchung der enormen Vorteile einer moderaten Erwärmung, eines höheren CO₂-Gehalts und eines durch die Nutzung von Kohlenwasserstoffen gestützten Wirtschaftswachstums für die Landwirtschaft und das menschliche Leben.
In Bezug auf die Wirtschaft kommt die Literaturrecherche des DOECR zu folgendem Schluss:
Ökonomen haben das Klima lange Zeit als einen relativ unwichtigen Faktor für das Wirtschaftswachstum angesehen, eine Ansicht, die auch vom IPCC selbst im AR5 geteilt wird. Die Mainstream-Klimawissenschaft hat anerkannt, dass die durch CO₂ verursachte Erwärmung zwar einige negative wirtschaftliche Auswirkungen haben könnte, diese jedoch zu gering sind, um aggressive Maßnahmen zur Emissionsreduzierung zu rechtfertigen, und dass der Versuch, die globale Erwärmung selbst auf einem Niveau weit über dem Pariser Ziel zu „stoppen“ oder zu begrenzen, schlimmer wäre als nichts zu tun.
Kurz gesagt kommen die meisten fundierten Wirtschaftsanalysen zu dem Schluss, dass die vorgeschlagenen Maßnahmen zur Bekämpfung des Klimawandels, die eine erzwungene oder durch Anreize motivierte Reduzierung des Kohlenwasserstoffverbrauchs in der gesamten Wirtschaft vorsehen, wahrscheinlich größere Schäden für die menschliche Gesundheit und das Wohlergehen zur Folge haben werden als die realistisch zu erwartenden negativen Auswirkungen des Klimawandels selbst. Aus wirtschaftlicher Sicht sind Klimamaßnahmen für die Welt schädlicher als der fortschreitende Klimawandel selbst in Verbindung mit der Nutzung von Kohlenwasserstoffen.
[Hervorhebung vom Übersetzer]
Der in diesem Bericht empfohlene „… differenzierte und evidenzbasierte Ansatz zur Gestaltung der Klimapolitik, der
Unsicherheiten ausdrücklich anerkennt“, hätte von Beginn der Klimapanik an Standard sein müssen, als James Hansen 1988 in einer Anhörung vor dem Senat aussagte, dass der Mensch einen „erkennbaren“ und gefährlichen Einfluss auf den Klimawandel habe. Hansens Aussage war damals ungerechtfertigt und ist es auch heute noch. Der Mensch beeinflusst das Klima wahrscheinlich in gewissem Maße auf globaler und regionaler Ebene, aber das Ausmaß dieses Einflusses, ob er insgesamt gefährlich oder vorteilhaft ist und wie wir reagieren sollten, um den Nutzen zu maximieren und die Kosten zu minimieren, sind alles Fragen, die nach wie vor sehr umstritten sind. Eine Debatte, die dieser Bericht anstoßen und ans Tageslicht und in die öffentliche Diskussion bringen sollte.
Quellen:U. S. Department of Energy; Climate Change Weekly
Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Meine Anmerkungen zum Klima-Report des Energieministeriums erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
118 neue Gaskraftwerke bis 2035 nötig: Bundesnetzagentur alarmiert über fehlende Kapazitäten
Um Deutschlands Stromversorgung auch in Zukunft sicherzustellen, sind viele neue steuerbare Kraftwerke nötig. Das steht im neuen Bericht zur Versorgungssicherheit der Bundesnetzagentur. Der Bedarf ist gewaltig und vermutlich dennoch nicht ausreichend.
von Maurice ForgengUm Deutschlands Stromversorgung auch in Zukunft sicherzustellen, sind viele neue steuerbare Kraftwerke nötig. Das steht im neuen Bericht zur Versorgungssicherheit der Bundesnetzagentur. Der Bedarf ist gewaltig und vermutlich dennoch nicht ausreichend.
Laut Bundesnetzagentur sollen Gaskraftwerke in Deutschland künftig die Versorgungssicherheit garantieren.
In Kürze:
- Die Bundesnetzagentur veröffentlichte Anfang September den Bericht zur Versorgungssicherheit.
- Die binnen zehn Jahren erforderlichen bis zu 35,5 Gigawatt Reservekapazität entsprechen einem neuen Gaskraftwerk pro Monat.
- Ein Solarverband kritisiert, dass Potenziale von Batterieparks nicht ausreichend erwähnt wurden, und fordert die Überarbeitung des Berichts.
- Der aktuelle Systemstabilitätsbericht der Übertragungsnetzbetreiber zeigt seinerseits, wie viele Aspekte im Stromnetz „nicht ausgereift“ sind.
- Erneut wird ein Kapazitätsmechanismus genannt, der bereits mit einer neuen Stromsteuer in Verbindung gebracht wurde.
Dieser Frage hat sich die Bundesnetzagentur mit dem Bericht zu Stand und Entwicklung der Versorgungssicherheit im Bereich der Versorgung mit Elektrizität gewidmet. Im Juni 2025 erschien dazu auch der Systemstabilitätsbericht der deutschen Übertragungsnetzbetreiber TenneT, 50 Hertz, Ampiron und TransnetBW.
Riesige neue Kraftwerkskapazitäten benötigtDas am 3. September 2025 erschienene Monitoring der Bundesnetzagenturanalysiert die Entwicklung im Stromsystem bis zum Jahr 2035. Klaus Müller, Präsident der Bundesnetzagentur, teilte zusammenfassend dazu mit:
„Die Stromversorgung ist auch in Zukunft sicher, wenn zusätzliche steuerbare Kapazitäten errichtet werden.“
Damit teilte der Bundesnetzagentur-Chef klar mit, dass das deutsche Stromsystem dringend mehr grundlastfähige Kraftwerke benötigt. Diese müssen auch dann Strom liefern können, wenn die Windkraft und Photovoltaik aufgrund schlechter Wetterbedingungen zu wenig Strom bereitstellen. Da die aktuelle Regierung am Atomausstieg festhält und die Kohlekraftwerke ebenfalls bis spätestens 2038 vom Netz gehen sollen, bleibt nur die Verstromung von Erdgas.
Konkret müssen laut der Energiebehörde bis 2035 zusätzliche Reservekraftwerke mit bis zu 22,4 Gigawatt (GW) elektrischer Leistung entstanden sein, sofern das Zielszenario eintritt. In diesem werde Deutschland künftig alle energiewirtschaftlichen und energiepolitischen Ziele erreichen.
Ausbauziele der installierten Leistung von hauptsächlich Wind- und Photovoltaikanlagen in Deutschland (interpoliert).
Foto: Bundesnetzagentur
Neben dem starken Ausbau von Wind und Solar beinhalten diese „hohe Flexibilitätspotentiale bei neuen Verbrauchern“ ebenso wie Wärmepumpen, Stromspeicher, Elektroautos oder Elektrolyseure. Die Bundesnetzagentur nennt zudem die Installation geeigneter Messsysteme. Für E-Autos ist in diesem Rahmen angedacht, dass sie ihren Strom dem Netz in Mangelzeiten teilweise zur Verfügung stellen. Auch die Industrie solle ihren Stromverbrauch flexibel anpassen, ihn also bei Strommangel herunterfahren.
Falls die Zubauziele verfehlt werden und die Flexibilität zu gering ausfällt, hat die Bundesnetzagentur zusätzlich das Szenario „verzögerte Energiewende“ errechnet. Dabei wären steuerbare Kapazitäten von bis zu 35,5 GW nötig. Da ein einfaches Gasturbinenkraftwerk im Schnitt rund 300 Megawatt (MW) an Leistung bringen kann, wären dafür 118 Gaskraftwerke nötig. Selbst beim Zielszenario wären noch 75 solcher Kraftwerke nötig.
Beachtenswert ist zudem, dass die Ausbauziele in Deutschland im Jahr 2035 mehr als 500 GW an installierter Leistung durch „erneuerbare“ Energien vorsehen. Trotz der erheblichen Überkapazität der Erneuerbaren fordert die Energiebehörde damit, dass neue Grundlastkraftwerke ein Drittel bis über die Hälfte des jetzigen Strombedarfs decken können müssen.
Bereits berücksichtigt hat die Energiebehörde in ihrer Rechnung geplante Stilllegungen bestehender Kraftwerke. Würde keines der bestehenden Kraftwerke stillgelegt werden, wären im Zielszenario noch 42 und bei der „verzögerten Energiewende“ 85 der genannten Gaskraftwerke nötig.
Zugleich gibt die Behörde für das Jahr 2035 einen Jahresstromverbrauch von 941 Terawattstunden an, also fast das Doppelte wie aktuell.
Ereignet sich dann eine Dunkelfraute, also das Fehlen von Wind und Sonnen, wie vom 11. bis 14. Dezember 2024 wäre laut der Simulation des Portals „Energy Charts“die Zusatzstromerzeugung bei Weitem nicht ausreichend. Auch bei Erreichen der Ausbauziele wären in diesem Fall bis über 116 GW steuerbare Kapazität nötig.
Simulierte Stromerzeugung für Deutschland mit den geplanten Windkraft- und Solarwerten und der von der Behörde geschätzte Jahresstromverbrauch von 941 Terawattstunden. Als Relevanz dienen die Wind- und Solarwerte von Kalenderwoche 50 aus dem Jahr 2024.
Foto: Bildschirmfoto/energy-charts.info/Fraunhofer ISE
Verzögerte Energiewende wahrscheinlicher?Wahrscheinlicher dürfte jedoch das Eintreten des Szenarios „verzögerte Energiewende“ sein. Wie Bundeswirtschaftsministerin Katherina Reiche (CDU) bereits angekündigt hat, will sie Betreiber von Windkraft- und Solaranlagen künftig mehr zur Verantwortung ziehen, indem sie sich beispielsweise an den Netzausbaukosten beteiligen sollen. Das könnte die Attraktivität dieser „erneuerbaren“ Kraftwerke spürbar reduzieren und den bisweilen gut laufenden Ausbau abbremsen.
Zudem soll in Kürze das Ergebnis der Prüfung der deutschen Energiewende folgen. Wie Reiche bereits andeutete, müsse sich der Zubau der „Erneuerbaren“ am Netz orientieren und nicht umgekehrt. Das lässt vermuten, dass die Regierung den Fokus bald weniger auf den Zubau der Erneuerbaren und mehr auf den Netzausbau legt, um die Versorgungssicherheit zu erhöhen.
Die Versorgungssicherheit ist im Zielszenario laut Bundesnetzagentur nur dann gewährleistet, wenn etwa der Netzausbau wie geplant verwirklicht wird. Wie der Bundesrechnungshof im vergangenen Jahr festgestellt hat, liegt dieser rund sieben Jahre im Rückstand.
Umsetzung der Reserve fragwürdigDiese neue Kraftwerkskapazität müsste innerhalb der kommenden zehn Jahre betriebsbereit sein. Gemessen an der reinen Bauzeit wäre dies ein mehr als realistischer Rahmen. Der Bau des Gaskraftwerks Leipheim mit 300 MW hat knapp 24 Monate beansprucht. Allerdings müssen im Vorfeld Kraftwerksstandorte festgelegt und genehmigt werden, was zusätzlich Zeit benötigt.
Um bis 2035 besagte 118 Gaskraftwerke zur Verfügung zu haben, müsste jeden Monat ein solches Kraftwerk fertiggestellt werden. Um eine mehrtägige Dunkelflaute zu überbrücken, sind 387 Gaskraftwerke nötig und es müssten – parallel zum Ausbau der Erneuerbaren – mindestens drei Gaskraftwerke pro Monat entstehen.
Dass eine politische Ankündigung nicht zu einer schnellen Umsetzung führt, zeigte bereits die Forderung des früheren Wirtschaftsministers Robert Habeck (Grüne). Bereits vor zwei Jahren sprach er davon, umgehend 8,8 GW an neuen Kraftwerken, möglichst wasserstofffähige Gaskraftwerke, auszuschreiben. Dem folgte bis heute kein Realisierungsansatz. Die aktuelle Bundeswirtschaftsministerin Katherina Reiche (CDU) spricht von Ausschreibungen von „mindestens 20 Gigawatt Gaskraftwerken“.
Ausgangsbestand der steuerbaren Kraftwerke und Speicher in Deutschland am 01.02.2024.
Foto:, Bundesnetzagentur
Systemstabilitätsbericht zeigt massive SicherheitslückenMit dem Systemstabilitätsbericht 2025 wollten die deutschen Übertragungsnetzbetreiber den aktuellen Stand der einzelnen Stabilitätsaspekte unserer Stromnetze darstellen. Das soll die eingangs gestellte Frage ebenso beantworten.
Entwicklungsstand der Bedarfsermittlung der einzelnen Stabilitätsaspekte.
Foto: Bundesnetzagentur, Systemstabilitätsbericht 2025
Die beiden Aspekte Frequenz- und Spannungsstabilität schneiden bei der Untersuchung noch am besten ab. Die Netzfrequenz liegt im europäischen Verbundnetz bei 50 Hertz. Diesen Wert müssen die Netzbetreiber möglichst konstant halten. Dazu muss die Stromerzeugung jederzeit genauso groß sein wie der Stromverbrauch. Die Spannungsstabilität beschreibt das Aufrechterhalten der Netzspannung.
Sowohl Frequenz- als auch Spannungsstabilität können die Übertragungsnetzbetreiber ermitteln und den Systembedarf definieren. Ebenso können sie bei Abweichungen Gegenmaßnahmen entwickeln, um diese stabil zu halten. Allerdings ist bei beiden Aspekten der Systembedarf noch nicht gedeckt. Sprich, TenneT und Co. können im Netz nicht die benötigten Strommengen halten, um das Netz stabil zu halten.
Das liegt unter anderem an der zunehmend fehlenden Momentanreserve, also mechanisch rotierende Schwungmassen von Turbinen in Großkraftwerken. Sie stabilisieren das Netz, da sie Spannungs- und Frequenzstörungen kompensieren können. Photovoltaik- und Windkraftanlagen können dies nicht. Sie speisen elektronisch über Wechselrichter ihren Strom in die Netze ein und sind vielmehr auf ein stabiles Netz angewiesen. Je mehr Wechselrichter und je weniger Momentanreserve, desto instabiler die Netze. Das führte im April letztlich zum Stromausfall auf der iberischen Halbinsel.
Noch „nicht ausgereift“Deutlich kritischer sieht es bei der sogenannten „Transienten Stabilität“ aus, also wie sich das Netz bei Schwankungen verhält. Hier ist noch kein Bereich ausgereift. Die Methodik zur Ermittlung befindet sich noch „in Entwicklung“, die übrigen Bereiche sind noch „nicht ausgereift“. Auch hier spricht der Bericht von den rotierenden Massen:
„Die Analyse zeigt eine Verbesserung der Systemstabilität bei Erhöhung der Momentanereserve, wohingegen eine Reduktion der Momentanereserve zu einer Verschlechterung führt.“
Die Bilanz der allgemeinen „Netzstärke“ gleicht der „Transienten Stabilität“. So steht im Systemstabilitätsbericht: „Netzfolgende Stromrichter [Wechselrichter von Wind und Solar] tragen unter konservativen Annahmen hingegen nicht zur Netzstärke bei.“ Das bedeutet: Je mehr einspeisende Wechselrichter am Netz sind, umso instabiler wird das System.
Der letzte Aspekt, die „Harmonische Stabilität“, schneidet von allen Aspekten am schlechtesten ab. Hier ist jeder Bereich bisher „nicht ausgereift“. Die „Harmonische Stabilität“ beschreibt, wie gut es Wechselrichtern gelingt, „keine unzulässigen Schwingungen auszubilden“. Wechselrichter erzeugen solche Schwingungen. Das bedeutet, wenn ein Wechselrichter eine Oberschwingung aussendet, darf ein andere diese nicht auffangen und verstärken. Ein Netz mit viel Momentanreserve kann Oberschwingungen gut abfangen.
In Spanien haben diese Schwingungen zu einer erhöhten Netzspannungen geführt, was wiederum den Blackout auslöste.
Der Bundesverband Solarwirtschaft (BSW-Solar) begrüßt, dass der neue Bericht zur Versorgungssicherheit den Ausbau der „Erneuerbaren“ betont. Gleichzeitig kritisiert der Verband die mangelnde Erwähnung der Potenziale von Batteriespeichern für die Versorgungssicherheit.
Zwar schrieb die Bundesnetzagentur unter anderem: „Speicher werden eine immer wichtigere Funktion einnehmen. Schon heute können sich besonders Batteriespeicher im Strommarkt refinanzieren, wie die aktuelle Ausbaudynamik beweist. In bestimmten Marktsituationen können Speicher den Bedarf an zusätzlichen Kraftwerkskapazitäten reduzieren.
Dennoch forderte BSW-Solar die Überarbeitung des Berichts. Laut dem Verband habe die Bundesnetzagentur die Potenziale von Batteriegroßspeichern unzureichend abgebildet. Damit sei eine zentrale Realität der Energiewende ausgeblendet.
Dazu erklärte Carsten Körnig, Hauptgeschäftsführer des Bundesverbandes Solarwirtschaft: „Während Netzbetreiber bereits heute Zusagen für viele Gigawatt[stunden] an Speicherkapazitäten erteilt haben und bundesweit Anschlussanfragen in dreistelliger Gigawatt-Höhe vorliegen, bleibt der Bericht bei den Zahlen von gestern stehen und geht sogar realitätsfern von einem Rückbau stationärer Batteriespeicher aus.“ Körnig warf der Energiebehörde eine systematische Unterschlagung der Großspeicher vor.
Hierbei ist jedoch zu beachten, dass Batteriespeicher selbst keinen Strom erzeugen können. Sie speichern diesen nur zwischen. Daher können sie Kraftwerke nicht ersetzen.
Aktuell liegt die installierte Kapazität aller deutschen Batteriespeicher bei 20,7 Gigawattstunden (GWh), die der netzdienlichen Großspeicher bei nur knapp 3 GWh. Es besteht ein akuter Anschlussstau, sodass viele, die einen Batteriepark errichten wollen, teilweise zehn Jahre und länger warten müssen. Das liegt wiederum an der mangelnden Netzinfrastruktur.
Kommt ein Kapazitätsmechanismus?Im Bericht der Bundesnetzagentur sagte Müller: „Unser Monitoring unterstreicht die Bedeutung der von der Bundesregierung geplanten Kraftwerksstrategie. Die weiteren notwendigen Kapazitäten sollten über einen Kapazitätsmechanismus bereitgestellt werden. Außerdem ist es wichtig, dass immer mehr Stromverbraucher flexibel auf Strompreise reagieren.“
Das bedeutet: Um den zusätzlichen Bedarf an neuen Kraftwerkskapazitäten zu finanzieren, ist ein sogenannter Kapazitätsmechanismus nötig. Dies soll laut dem Bericht eine technologieneutrale Finanzierungsmethode sein.
Dazu kursierte Anfang August das Gerücht einer neuen Stromsteuer. Das Wirtschaftsministerium hat dies allerdings nicht bestätigt. Stattdessen gebe es bei den „Möglichkeiten der Finanzierung“ noch „keine Festlegungen“. Auch der aktuelle Bericht zur Versorgungssicherheit bestätigt, dass der Kapazitätsmechanismus „zurzeit von der Bundesregierung erarbeitet“ wird.
Bis ausreichend Reservekraftwerke errichtet sind, bleibt die Versorgungssicherheit im deutschen Stromnetz ein Fragezeichen. Verzögerungen beim Ausbau der „Erneuerbaren“ würden laut der Energiebehörde die Versorgungssicherheit beeinflussen. Je mehr Strom aus Erneuerbaren erzeugt wird, desto wichtiger aber auch und rentabler werden Speicher und Nachfrageflexibilitäten.
Das Monitoring bestätigt, dass die zu transportierenden Energiemengen in den kommenden Jahren weiter ansteigen. Um diesen Veränderungen gerecht zu werden, bedarf es eines weiteren raschen Netzausbaus. Die Ergebnisse zeigen auch, dass Redispatchmaßnahmen in den kommenden Jahren notwendig bleiben. Diese haben in den vergangenen Jahren immer wieder neue Rekordwerte erreicht. Auch für 2025 wird ein neuer erwartet.
Der Beitrag erschien zuerst bei EPOCH Times hier
Laut Bundesnetzagentur sollen Gaskraftwerke in Deutschland künftig die Versorgungssicherheit garantieren.
Foto: Ruediger Fessel/iStock, Canva, Collage: Epoch Times
13. September 2025
Lesedauer: 14 Min.
In Kürze:
- Die Bundesnetzagentur veröffentlichte Anfang September den Bericht zur Versorgungssicherheit.
- Die binnen zehn Jahren erforderlichen bis zu 35,5 Gigawatt Reservekapazität entsprechen einem neuen Gaskraftwerk pro Monat.
- Ein Solarverband kritisiert, dass Potenziale von Batterieparks nicht ausreichend erwähnt wurden, und fordert die Überarbeitung des Berichts.
- Der aktuelle Systemstabilitätsbericht der Übertragungsnetzbetreiber zeigt seinerseits, wie viele Aspekte im Stromnetz „nicht ausgereift“ sind.
- Erneut wird ein Kapazitätsmechanismus genannt, der bereits mit einer neuen Stromsteuer in Verbindung gebracht wurde.
Wie stabil ist das deutsche Stromnetz im Rahmen der Energiewende?
Dieser Frage hat sich die Bundesnetzagentur mit dem Bericht zu Stand und Entwicklung der Versorgungssicherheit im Bereich der Versorgung mit Elektrizität gewidmet. Im Juni 2025 erschien dazu auch der Systemstabilitätsbericht der deutschen Übertragungsnetzbetreiber TenneT, 50 Hertz, Ampiron und TransnetBW.
MEHR DAZU
Stromversorgung „sehr zuverlässig“? – Mr. Blackout: „Instabilstes Netz seit 50 Jahren“
Riesige neue Kraftwerkskapazitäten benötigt
Das am 3. September 2025 erschienene Monitoring der Bundesnetzagenturanalysiert die Entwicklung im Stromsystem bis zum Jahr 2035. Klaus Müller, Präsident der Bundesnetzagentur, teilte zusammenfassend dazu mit:
„Die Stromversorgung ist auch in Zukunft sicher, wenn zusätzliche steuerbare Kapazitäten errichtet werden.“
Damit teilte der Bundesnetzagentur-Chef klar mit, dass das deutsche Stromsystem dringend mehr grundlastfähige Kraftwerke benötigt. Diese müssen auch dann Strom liefern können, wenn die Windkraft und Photovoltaik aufgrund schlechter Wetterbedingungen zu wenig Strom bereitstellen. Da die aktuelle Regierung am Atomausstieg festhält und die Kohlekraftwerke ebenfalls bis spätestens 2038 vom Netz gehen sollen, bleibt nur die Verstromung von Erdgas.
Konkret müssen laut der Energiebehörde bis 2035 zusätzliche Reservekraftwerke mit bis zu 22,4 Gigawatt (GW) elektrischer Leistung entstanden sein, sofern das Zielszenario eintritt. In diesem werde Deutschland künftig alle energiewirtschaftlichen und energiepolitischen Ziele erreichen.
Ausbauziele der installierten Leistung von hauptsächlich Wind- und Photovoltaikanlagen in Deutschland (interpoliert).
Foto: FfE, Bundesnetzagentur
Neben dem starken Ausbau von Wind und Solar beinhalten diese „hohe Flexibilitätspotentiale bei neuen Verbrauchern“ ebenso wie Wärmepumpen, Stromspeicher, Elektroautos oder Elektrolyseure. Die Bundesnetzagentur nennt zudem die Installation geeigneter Messsysteme. Für E-Autos ist in diesem Rahmen angedacht, dass sie ihren Strom dem Netz in Mangelzeiten teilweise zur Verfügung stellen. Auch die Industrie solle ihren Stromverbrauch flexibel anpassen, ihn also bei Strommangel herunterfahren.
MEHR DAZU
Bundesnetzagentur: Industrie soll sich jetzt an schwankende Stromerzeugung anpassen
118 neue Gaskraftwerke – trotz 500 GW „Erneuerbare“
Falls die Zubauziele verfehlt werden und die Flexibilität zu gering ausfällt, hat die Bundesnetzagentur zusätzlich das Szenario „verzögerte Energiewende“ errechnet. Dabei wären steuerbare Kapazitäten von bis zu 35,5 GW nötig. Da ein einfaches Gasturbinenkraftwerk im Schnitt rund 300 Megawatt (MW) an Leistung bringen kann, wären dafür 118 Gaskraftwerke nötig. Selbst beim Zielszenario wären noch 75 solcher Kraftwerke nötig.
Beachtenswert ist zudem, dass die Ausbauziele in Deutschland im Jahr 2035 mehr als 500 GW an installierter Leistung durch „erneuerbare“ Energien vorsehen. Trotz der erheblichen Überkapazität der Erneuerbaren fordert die Energiebehörde damit, dass neue Grundlastkraftwerke ein Drittel bis über die Hälfte des jetzigen Strombedarfs decken können müssen.
Bereits berücksichtigt hat die Energiebehörde in ihrer Rechnung geplante Stilllegungen bestehender Kraftwerke. Würde keines der bestehenden Kraftwerke stillgelegt werden, wären im Zielszenario noch 42 und bei der „verzögerten Energiewende“ 85 der genannten Gaskraftwerke nötig.
Zugleich gibt die Behörde für das Jahr 2035 einen Jahresstromverbrauch von 941 Terawattstunden an, also fast das Doppelte wie aktuell.
MEHR DAZU
Rauf oder runter? Rätsel um Entwicklung des deutschen Strombedarfs
Ereignet sich dann eine Dunkelfraute, also das Fehlen von Wind und Sonnen, wie vom 11. bis 14. Dezember 2024 wäre laut der Simulation des Portals „Energy Charts“die Zusatzstromerzeugung bei Weitem nicht ausreichend. Auch bei Erreichen der Ausbauziele wären in diesem Fall bis über 116 GW steuerbare Kapazität nötig.
Simulierte Stromerzeugung für Deutschland mit den geplanten Windkraft- und Solarwerten und der von der Behörde geschätzte Jahresstromverbrauch von 941 Terawattstunden. Als Relevanz dienen die Wind- und Solarwerte von Kalenderwoche 50 aus dem Jahr 2024.
Foto: Bildschirmfoto/energy-charts.info/Fraunhofer ISE
Verzögerte Energiewende wahrscheinlicher?
Wahrscheinlicher dürfte jedoch das Eintreten des Szenarios „verzögerte Energiewende“ sein. Wie Bundeswirtschaftsministerin Katherina Reiche (CDU) bereits angekündigt hat, will sie Betreiber von Windkraft- und Solaranlagen künftig mehr zur Verantwortung ziehen, indem sie sich beispielsweise an den Netzausbaukosten beteiligen sollen. Das könnte die Attraktivität dieser „erneuerbaren“ Kraftwerke spürbar reduzieren und den bisweilen gut laufenden Ausbau abbremsen.
Zudem soll in Kürze das Ergebnis der Prüfung der deutschen Energiewende folgen. Wie Reiche bereits andeutete, müsse sich der Zubau der „Erneuerbaren“ am Netz orientieren und nicht umgekehrt. Das lässt vermuten, dass die Regierung den Fokus bald weniger auf den Zubau der Erneuerbaren und mehr auf den Netzausbau legt, um die Versorgungssicherheit zu erhöhen.
Die Versorgungssicherheit ist im Zielszenario laut Bundesnetzagentur nur dann gewährleistet, wenn etwa der Netzausbau wie geplant verwirklicht wird. Wie der Bundesrechnungshof im vergangenen Jahr festgestellt hat, liegt dieser rund sieben Jahre im Rückstand.
MEHR DAZU
Nicht mehr zeitgemäß? Ministerin Reiche denkt über Ende der Solarförderung nach
Keine Windräder auf der Schwend: Anwohner stimmen gegen neuen Windpark
Umsetzung der Reserve fragwürdig
Diese neue Kraftwerkskapazität müsste innerhalb der kommenden zehn Jahre betriebsbereit sein. Gemessen an der reinen Bauzeit wäre dies ein mehr als realistischer Rahmen. Der Bau des Gaskraftwerks Leipheim mit 300 MW hat knapp 24 Monate beansprucht. Allerdings müssen im Vorfeld Kraftwerksstandorte festgelegt und genehmigt werden, was zusätzlich Zeit benötigt.
Um bis 2035 besagte 118 Gaskraftwerke zur Verfügung zu haben, müsste jeden Monat ein solches Kraftwerk fertiggestellt werden. Um eine mehrtägige Dunkelflaute zu überbrücken, sind 387 Gaskraftwerke nötig und es müssten – parallel zum Ausbau der Erneuerbaren – mindestens drei Gaskraftwerke pro Monat entstehen.
Dass eine politische Ankündigung nicht zu einer schnellen Umsetzung führt, zeigte bereits die Forderung des früheren Wirtschaftsministers Robert Habeck (Grüne). Bereits vor zwei Jahren sprach er davon, umgehend 8,8 GW an neuen Kraftwerken, möglichst wasserstofffähige Gaskraftwerke, auszuschreiben. Dem folgte bis heute kein Realisierungsansatz. Die aktuelle Bundeswirtschaftsministerin Katherina Reiche (CDU) spricht von Ausschreibungen von „mindestens 20 Gigawatt Gaskraftwerken“.
Ausgangsbestand der steuerbaren Kraftwerke und Speicher in Deutschland am 01.02.2024.
Foto: FfE, Bundesnetzagentur
Systemstabilitätsbericht zeigt massive Sicherheitslücken
Mit dem Systemstabilitätsbericht 2025 wollten die deutschen Übertragungsnetzbetreiber den aktuellen Stand der einzelnen Stabilitätsaspekte unserer Stromnetze darstellen. Das soll die eingangs gestellte Frage ebenso beantworten.
Entwicklungsstand der Bedarfsermittlung der einzelnen Stabilitätsaspekte.
Foto: Bundesnetzagentur, Systemstabilitätsbericht 2025
Die beiden Aspekte Frequenz- und Spannungsstabilität schneiden bei der Untersuchung noch am besten ab. Die Netzfrequenz liegt im europäischen Verbundnetz bei 50 Hertz. Diesen Wert müssen die Netzbetreiber möglichst konstant halten. Dazu muss die Stromerzeugung jederzeit genauso groß sein wie der Stromverbrauch. Die Spannungsstabilität beschreibt das Aufrechterhalten der Netzspannung.
Sowohl Frequenz- als auch Spannungsstabilität können die Übertragungsnetzbetreiber ermitteln und den Systembedarf definieren. Ebenso können sie bei Abweichungen Gegenmaßnahmen entwickeln, um diese stabil zu halten. Allerdings ist bei beiden Aspekten der Systembedarf noch nicht gedeckt. Sprich, TenneT und Co. können im Netz nicht die benötigten Strommengen halten, um das Netz stabil zu halten.
Das liegt unter anderem an der zunehmend fehlenden Momentanreserve, also mechanisch rotierende Schwungmassen von Turbinen in Großkraftwerken. Sie stabilisieren das Netz, da sie Spannungs- und Frequenzstörungen kompensieren können. Photovoltaik- und Windkraftanlagen können dies nicht. Sie speisen elektronisch über Wechselrichter ihren Strom in die Netze ein und sind vielmehr auf ein stabiles Netz angewiesen. Je mehr Wechselrichter und je weniger Momentanreserve, desto instabiler die Netze. Das führte im April letztlich zum Stromausfall auf der iberischen Halbinsel.
MEHR DAZU
Überspannung führte zu Spainout – was führte zur Überspannung?
Energiewende am Limit? Stromeinspeisung durch „Erneuerbare“ im ersten Halbjahr gefallen
Noch „nicht ausgereift“
Deutlich kritischer sieht es bei der sogenannten „Transienten Stabilität“ aus, also wie sich das Netz bei Schwankungen verhält. Hier ist noch kein Bereich ausgereift. Die Methodik zur Ermittlung befindet sich noch „in Entwicklung“, die übrigen Bereiche sind noch „nicht ausgereift“. Auch hier spricht der Bericht von den rotierenden Massen:
„Die Analyse zeigt eine Verbesserung der Systemstabilität bei Erhöhung der Momentanereserve, wohingegen eine Reduktion der Momentanereserve zu einer Verschlechterung führt.“
Die Bilanz der allgemeinen „Netzstärke“ gleicht der „Transienten Stabilität“. So steht im Systemstabilitätsbericht: „Netzfolgende Stromrichter [Wechselrichter von Wind und Solar] tragen unter konservativen Annahmen hingegen nicht zur Netzstärke bei.“ Das bedeutet: Je mehr einspeisende Wechselrichter am Netz sind, umso instabiler wird das System.
Der letzte Aspekt, die „Harmonische Stabilität“, schneidet von allen Aspekten am schlechtesten ab. Hier ist jeder Bereich bisher „nicht ausgereift“. Die „Harmonische Stabilität“ beschreibt, wie gut es Wechselrichtern gelingt, „keine unzulässigen Schwingungen auszubilden“. Wechselrichter erzeugen solche Schwingungen. Das bedeutet, wenn ein Wechselrichter eine Oberschwingung aussendet, darf ein andere diese nicht auffangen und verstärken. Ein Netz mit viel Momentanreserve kann Oberschwingungen gut abfangen.
In Spanien haben diese Schwingungen zu einer erhöhten Netzspannungen geführt, was wiederum den Blackout auslöste.
MEHR DAZU
Deutschland ist wieder Strompreis-Europameister
Solarwirtschaft kritisiert Speicherlücke im Bericht
Der Bundesverband Solarwirtschaft (BSW-Solar) begrüßt, dass der neue Bericht zur Versorgungssicherheit den Ausbau der „Erneuerbaren“ betont. Gleichzeitig kritisiert der Verband die mangelnde Erwähnung der Potenziale von Batteriespeichern für die Versorgungssicherheit.
Zwar schrieb die Bundesnetzagentur unter anderem: „Speicher werden eine immer wichtigere Funktion einnehmen. Schon heute können sich besonders Batteriespeicher im Strommarkt refinanzieren, wie die aktuelle Ausbaudynamik beweist. In bestimmten Marktsituationen können Speicher den Bedarf an zusätzlichen Kraftwerkskapazitäten reduzieren.“
MEHR DAZU
Zu viel Wind- und Solarstrom? Drosselungen erreichen neuen Rekordwert
Diese drei Stromerzeuger können eine weltweite Energiekrise verhindern
Dennoch forderte BSW-Solar die Überarbeitung des Berichts. Laut dem Verband habe die Bundesnetzagentur die Potenziale von Batteriegroßspeichern unzureichend abgebildet. Damit sei eine zentrale Realität der Energiewende ausgeblendet.
Dazu erklärte Carsten Körnig, Hauptgeschäftsführer des Bundesverbandes Solarwirtschaft: „Während Netzbetreiber bereits heute Zusagen für viele Gigawatt[stunden] an Speicherkapazitäten erteilt haben und bundesweit Anschlussanfragen in dreistelliger Gigawatt-Höhe vorliegen, bleibt der Bericht bei den Zahlen von gestern stehen und geht sogar realitätsfern von einem Rückbau stationärer Batteriespeicher aus.“ Körnig warf der Energiebehörde eine systematische Unterschlagung der Großspeicher vor.
Hierbei ist jedoch zu beachten, dass Batteriespeicher selbst keinen Strom erzeugen können. Sie speichern diesen nur zwischen. Daher können sie Kraftwerke nicht ersetzen.
Aktuell liegt die installierte Kapazität aller deutschen Batteriespeicher bei 20,7 Gigawattstunden (GWh), die der netzdienlichen Großspeicher bei nur knapp 3 GWh. Es besteht ein akuter Anschlussstau, sodass viele, die einen Batteriepark errichten wollen, teilweise zehn Jahre und länger warten müssen. Das liegt wiederum an der mangelnden Netzinfrastruktur.
MEHR DAZU
Philippsburg: Kernkraftwerk weicht Megabatteriepark – Verein: „Ein Rückschritt“
Boom der Batterieparks – eingebremst durch Anschlussstau
Kommt ein Kapazitätsmechanismus?
Im Bericht der Bundesnetzagentur sagte Müller: „Unser Monitoring unterstreicht die Bedeutung der von der Bundesregierung geplanten Kraftwerksstrategie. Die weiteren notwendigen Kapazitäten sollten über einen Kapazitätsmechanismus bereitgestellt werden. Außerdem ist es wichtig, dass immer mehr Stromverbraucher flexibel auf Strompreise reagieren.“
Das bedeutet: Um den zusätzlichen Bedarf an neuen Kraftwerkskapazitäten zu finanzieren, ist ein sogenannter Kapazitätsmechanismus nötig. Dies soll laut dem Bericht eine technologieneutrale Finanzierungsmethode sein.
Dazu kursierte Anfang August das Gerücht einer neuen Stromsteuer. Das Wirtschaftsministerium hat dies allerdings nicht bestätigt. Stattdessen gebe es bei den „Möglichkeiten der Finanzierung“ noch „keine Festlegungen“. Auch der aktuelle Bericht zur Versorgungssicherheit bestätigt, dass der Kapazitätsmechanismus „zurzeit von der Bundesregierung erarbeitet“ wird.
MEHR DAZU
Wirbel um neue Steuer für alle Stromkunden: Wirtschaftsministerium verweist auf Prüfstatus
Blackout-Angst: Deutliche Mehrheit sieht Stromausfall als größtes Infrastrukturrisiko
Bis ausreichend Reservekraftwerke errichtet sind, bleibt die Versorgungssicherheit im deutschen Stromnetz ein Fragezeichen. Verzögerungen beim Ausbau der „Erneuerbaren“ würden laut der Energiebehörde die Versorgungssicherheit beeinflussen. Je mehr Strom aus Erneuerbaren erzeugt wird, desto wichtiger aber auch und rentabler werden Speicher und Nachfrageflexibilitäten.
Das Monitoring bestätigt, dass die zu transportierenden Energiemengen in den kommenden Jahren weiter ansteigen. Um diesen Veränderungen gerecht zu werden, bedarf es eines weiteren raschen Netzausbaus. Die Ergebnisse zeigen auch, dass Redispatchmaßnahmen in den kommenden Jahren notwendig bleiben. Diese haben in den vergangenen Jahren immer wieder neue Rekordwerte erreicht. Auch für 2025 wird ein neuer erwartet.
Dieser Artikel hat mich besonders interessiert!
Stellen Sie eine Frage zum Artikel
Maurice Forgeng
Der Beitrag erschien zuerst bei EPOCH Times hier
Der Beitrag 118 neue Gaskraftwerke bis 2035 nötig: Bundesnetzagentur alarmiert über fehlende Kapazitäten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Nehmen Waldbrände wirklich zu?
Laut Harald Lesch droht die „Mega-Katastrophe“, auch bei uns in Deutschland. Denn Waldbrände würden immer mehr, immer schlimmer, immer heftiger, so das gängige Bild in deutschen Leitmedien. Und Tatsache: Spanien erlebte 2025 eine außergewöhnlich heftige Waldbrandsaison. Ist das wirklich der Klimawandel, der sich da zeigt, wie in vielen Medien behauptet?
von Marco Pino TronberendAuch andernorts kam es in den vergangenen Jahren zu starken Waldbränden. Doch ob Kalifornien, Australien oder bei uns in Europa – überall gilt: Die Schwankungen bei Waldbränden sind enorm, zwischen waldbrandschwachen und waldbrandstarken Jahren liegt ein Vielfaches. Diesen Umstand nutzen Leitmedien aus, das Prinzip dabei: Selektive Berichterstattung. Das Rekordjahr in Kalifornien wird zur Megastory im Spiegel, das rekordschwache Jahr hingegen ist nicht mal eine Randnotiz wert.
Mit diesen und anderen Methoden entsteht medial das Bild sich stetig verschlimmernder Zustände. Ein Blick auf Zahlen, Daten und Fakten hingegen führt zu ganz anderen Eindrücken, umso mehr, wenn dabei größere, also klimarelevante Zeiträume betrachtet werden. In dieser Folge nehmen wir das Thema Waldbrände genauer unter die Lupe – und werden sehen, wie viel am Ende von der klimabedingten „Mega-Katastrophe“ des Herrn Lesch übrig bleibt…
Marco Pino’s Adlerauge Folge 2: Nehmen Waldbrände wirklich zu?
unter diesem Link: https://youtu.be/RIoDP4VG9AI
Der Beitrag Nehmen Waldbrände wirklich zu? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Matthäus-Effekt, Monokulturen und die natürliche Auslese schlechter Wissenschaft
John Ridgway
Jeder Politiker, der vor der Herausforderung steht, die Öffentlichkeit vor einer natürlichen Bedrohung wie einer Pandemie oder dem Klimawandel zu schützen, wird gerne betonen, wie sehr er sich „an die Wissenschaft hält“ – womit er meint, dass er sich von der vorherrschenden wissenschaftlichen Meinung des Tages leiten lässt. Wir würden uns wünschen, dass dies der Fall ist, weil wir der wissenschaftlichen Methode als einem selektiven Prozess vertrauen, der sicherstellt, dass schlechte Wissenschaft nicht lange überleben kann. Das ist keine Realität, die ich hier ignorieren möchte, aber ich möchte sie auf jeden Fall in den richtigen Kontext stellen. Das Problem ist, dass die wissenschaftliche Methode nicht das einzige Auswahlkriterium ist, und wenn man alle anderen berücksichtigt, ergibt sich ein viel undurchsichtigeres Bild – sicherlich keines, das klar genug ist, um ein vorherrschendes Narrativ auf einen erkenntnistheoretischen Sockel zu stellen.
Rückkopplung ist allesVon allen Auswahlkriterien, die innerhalb einer wissenschaftlichen Gemeinschaft gelten, ist das vielleicht grundlegendste nicht die Begutachtung wissenschaftlicher Arbeiten durch Fachkollegen, sondern eines, das sich wie folgt zusammenfassen lässt:
„Denn wer hat, dem wird gegeben, und er wird im Überfluss haben; wer aber nicht hat, dem wird auch noch genommen, was er hat.“ (Matthäus 25:29, RSV).
Dies ist der sogenannte Matthäus-Effekt [1], auch bekannt als „kumulativer Vorteil“. Es handelt sich um eine positive Rückkopplung, die dazu dient, Ruhm und Einfluss in die Hände einiger weniger Auserwählter zu legen. Dies gilt im Allgemeinen für das Leben, aber auch speziell für die Wissenschaft. Beispielsweise werden Arbeiten, die bereits eine beträchtliche Anzahl von Zitaten erhalten haben, tendenziell noch öfter zitiert werden, schon allein deshalb, weil eine derzeit große Anzahl von Zitaten die Wahrscheinlichkeit weiterer Verweise erhöht, die sich aus einer zufälligen Auswahl aus bestehenden Zitierlisten ergeben. Dieses bibliometrische Phänomen, bei dem Erfolg weiteren Erfolg nach sich zieht, wurde erstmals vom Physiker Derek de Solla Price untersucht, der dessen im Wesentlichen stochastische Eigenschaften hervorhob:
„Es zeigt sich, dass ein solches stochastisches Gesetz durch die Beta-Funktion bestimmt wird, die nur einen freien Parameter enthält, und dies wird durch eine schiefe oder hyperbolische Verteilung approximiert, wie sie in der Bibliometrie und verschiedenen sozialwissenschaftlichen Phänomenen weit verbreitet ist.“ [2]
In der Praxis wird die Auswahl jedoch alles andere als zufällig sein, da Faktoren wie Einfluss und Prestige ebenfalls die Wahrscheinlichkeit bestimmen, mit der die Arbeit einer Person zitiert wird. So oder so, der bekanntere Wissenschaftler wird noch erfolgreicher werden.
Der Matthäus-Effekt hat auch Einfluss auf die Chancen, dass ein Artikel überhaupt veröffentlicht wird. Wenn ein Herausgeber oder Gutachter mit der Qualität der bisherigen Veröffentlichungen eines Autors vertraut ist, fällt es ihm leichter, den latenten Wert eines eingereichten Artikels zu beurteilen, was die Chancen des Autors erhöht, seine Publikationsliste zu erweitern. Ein weniger bekannter Autor hat diesen Vorteil nicht. Dies führt zu einer positiven Rückkopplung, die zu einer Monokultur führen kann, welche auf den Arbeiten einer relativ kleinen Anzahl dominanter Autoren basiert. Auch hier kann der Matthäus-Effekt rein statistischer Natur sein und erfordert keine besonderen Vorurteile oder Voreingenommenheit. Die Wissenschaftsphilosophen Remco Heesen und Jan-Willem Romeijn, die diesen Effekt untersucht haben, drücken es so aus:
Dieser Artikel befasst sich mit Vorurteilen, die nicht auf den Vorurteilen von Herausgebern oder Gutachtern beruhen, sondern vielmehr auf den statistischen Merkmalen der redaktionellen Entscheidungsfindung… Selbst wenn es Herausgebern gelingt, ihre Entscheidungsprozesse von unbewussten Vorurteilen zu befreien, bleiben ihnen dennoch Vorurteile rein statistischer Natur. Die statistischen Vorurteile tragen zur bereits bestehenden Tendenz hin zu einer Monokultur in der Wissenschaft bei: einem rein statistischen Matthäus-Effekt. [3]
Es gibt tatsächlich eine Reihe von Möglichkeiten, wie sich Monokulturen entwickeln können, wobei jede davon mit dem Matthäus-Effekt einhergeht. Ein Beispiel dafür ist die Rückkopplung, bei der Finanzierung zu Erfolg führt, was wiederum zu mehr Finanzierung führt. Auch die Forschungsinteressen eines hochrangigen Fakultätsmitglieds beeinflussen die Einstellungspolitik und verstärken damit das Interesse der Fakultät an diesen Forschungsbereichen [4]. Nehmen wir zum Beispiel die wissenschaftliche Monokultur, die sich innerhalb der Grundlagenphysik schnell entwickelt hat. Der Physiker Lee Smolin erklärte dies bereits 2006:
„Die aggressive Förderung der Stringtheorie hat dazu geführt, dass sie zum wichtigsten Ansatzpunkt für die Erforschung der großen Fragen der Physik geworden ist. Fast alle Teilchenphysiker mit einer Festanstellung am renommierten Institute for Advanced Study, einschließlich seines Direktors, sind Stringtheoretiker; die einzige Ausnahme ist eine Person, die vor Jahrzehnten eingestellt worden ist.“ [5]
Diese Dominanz ist nicht das Ergebnis der wissenschaftlichen Methode, da das entscheidende Element auffällig fehlt, mit welchem Theorien experimentell überprüft werden. Es handelt sich nicht um eine Theorie, die ihre Konkurrenten verdrängt hat, indem sie sich als besser überprüfbar erwiesen hat oder eine bessere experimentelle Verifizierbarkeit aufweist. Ihre anfängliche Anziehungskraft beruhte auf einigen frühen und recht spektakulären theoretischen Erfolgen, aber seitdem ist die Stringtheorie in einer Reihe von obskuren und völlig unüberprüfbaren mathematischen Vermutungen versunken, die nicht einmal als Theorie im üblichen Sinne gelten können. Im Gegenteil, die letztendliche Dominanz der Stringtheorie scheint das Ergebnis positiver Rückkopplungen zu sein, bei denen akademischer Erfolg weitaus wichtiger wurde als wissenschaftliche Leistungen. Lee Smolin schreibt dazu:
„Auch wenn die Stringtheorie auf wissenschaftlicher Seite zu kämpfen hat, hat sie innerhalb der akademischen Welt triumphiert.“
Der Aufstieg der Stringtheorie zur Dominanz ist ein klassisches Beispiel dafür, was der Matthäus-Effekt bewirken kann, wenn die wissenschaftliche Methode kompromittiert wird. Als solches ist sie eine warnende Geschichte für jeden wissenschaftlichen Bereich, in dem Theoriebildung und Modellierung letztendlich die Möglichkeiten der experimentellen Bestätigung übersteigen.
Ein weiteres Problem von Monokulturen besteht darin, dass sie zu einer potenziell unzuverlässigen Darstellung führen können, die als gesellschaftlicher Leuchtturm für normatives Denken fungiert. Je stärker diese Darstellung wird und je mehr sich gesellschaftliche Einstellungen verfestigen, desto größer wird auch die Macht, innerhalb der wissenschaftlichen Gemeinschaft ein höheres Maß an Übereinstimmung zu erzwingen. Der Konsens wird zu einer sich selbst verstärkenden sozialen Dynamik, im Guten wie im Schlechten. Dies ist ein Beispiel für eine Klasse von Phänomenen, die von den Organisationswissenschaftlern Jörg Sydow und Georg Schreyögg untersucht worden sind:
„In den meisten Fällen sind Organisationen und auch organisationsübergreifende Netzwerke, Märkte oder Bereiche durch eine Dynamik gekennzeichnet, die weitgehend außerhalb der Kontrolle der Akteure zu liegen scheint… Unter dieser meist verborgenen und sich herausbildenden Dynamik scheinen sich selbst verstärkende Prozesse von besonderer Bedeutung zu sein; sie entfalten ihre eigene Dynamik und verwandeln einen möglicherweise positiven Kreislauf in einen negativen (Masuch, 1985).“ [6]
Natürlich muss niemand, der in eine solche Dynamik geraten ist, von einer Täuschung ausgehen. Allerdings sind Politik und Manipulation der Menschheit nicht fremd, sodass Voreingenommenheit und Betrug weiterhin optionale Extras bleiben. Insbesondere muss man befürchten, dass das Wachstum der KI die Wahrscheinlichkeit der Entwicklung problematischer Monokulturen erhöht. David Comerford, Professor für Wirtschaft und Verhaltenswissenschaften an der Universität Stirling, betont:
„Noch vor wenigen Jahren dauerte es Monate, um eine einzige wissenschaftliche Arbeit zu verfassen. Heute kann eine einzelne Person mithilfe von KI innerhalb weniger Stunden mehrere wissenschaftliche Arbeiten erstellen, die gültig erscheinen.“ [7]
Da es sich beim Matthäus-Effekt um ein Zahlenspiel handelt, muss alles, was wissenschaftliche Arbeiten im industriellen Maßstab generieren kann, Anlass zur Sorge geben. Und es gibt Hinweise darauf, dass solche Artikel zunehmend von Ghostwritern im Auftrag von Unternehmen verfasst werden – sogenanntes „Resmearch“. David Comerford erklärt:
„Während die überwiegende Mehrheit der Forscher motiviert ist, die Wahrheit aufzudecken und ihre Ergebnisse gründlich zu überprüfen, geht es bei Resmearch nicht um die Wahrheit – es geht nur darum zu überzeugen.“
Und das noch bevor man die Möglichkeit in Betracht zieht, dass Einzelpersonen KI nutzen könnten, um ihre Produktivität zu steigern und so den Matthäus-Effekt zu ihren Gunsten auszunutzen. So oder so hat KI die Kosten für die Erstellung solcher Arbeiten auf praktisch null reduziert und damit den Druck auf die wissenschaftliche Methode erhöht, dem Entstehen potenziell unzuverlässiger Monokulturen entgegenzuwirken.
Die natürliche Auslese schlechter WissenschaftMonokulturen sind zwar zu vermeiden, aber sie basieren in der Regel nicht auf schlechter Wissenschaft. Tatsächlich gibt es in der Wissenschaft immer eine leitende Hand, die dies verhindern soll. Die Arbeit wird routinemäßig von Fachkollegen auf ihre Qualität und ihren Wert hin bewertet, und eine solche Überprüfung sollte der guten Wissenschaft zugute kommen. Nur scheinen die Beweise darauf hinzudeuten, dass schlechte Wissenschaft trotz dieser Überprüfung immer noch gedeihen kann. Es gibt noch eine weitere Auswahlinstanz, die jedoch keineswegs als korrigierende Kraft wirkt, schlechte Arbeiten herausfiltert und sowohl rein statistische als auch durch Voreingenommenheit bedingte positive Rückmeldungen entfernt, sondern vielmehr schlechte Wissenschaft fördern kann. Die Erklärung für diesen problematischen Effekt wurde von Paul E. Smaldino und Richard McElreath geliefert. Die Einleitung ihrer Zusammenfassung gibt einen Überblick über die Situation:
„Ein schlechtes Forschungsdesign und eine mangelhafte Datenanalyse begünstigen falsch-positive Ergebnisse. Trotz ständiger Forderungen nach Verbesserungen werden solche mangelhaften Methoden weiterhin angewendet, was darauf hindeutet, dass sie nicht nur auf Missverständnissen beruhen. Die Beibehaltung mangelhafter Methoden ist zum Teil auf Anreize zurückzuführen, die diese begünstigen und zu einer natürlichen Selektion schlechter Wissenschaft führen. Diese Dynamik erfordert keine bewusste Strategie – kein absichtliches Betrügen oder Faulenzen – seitens der Wissenschaftler, sondern lediglich, dass Veröffentlichungen ein wesentlicher Faktor für den beruflichen Aufstieg sind.“ [8]
Das hier angesprochene mangelhafte Forschungsdesign und die unzureichenden Datenanalysen beziehen sich auf den Missbrauch von p-Werten und Variationen zum Thema Datenmanipulation, die in den Verhaltenswissenschaften seit vielen Jahren weit verbreitet sind. Das Problem entsteht dadurch, dass Veröffentlichungen die wichtigste Form der Belohnung darstellen, für Veröffentlichungen jedoch positive Ergebnisse erforderlich sind, was wiederum Verfahren fördert, die zu falsch positiven Ergebnissen führen. Richard Horton, Herausgeber von The Lancet, weist auf die Notwendigkeit geeigneter Anreize hin:
„Ein Teil des Problems besteht darin, dass niemand einen Anreiz hat, richtig zu liegen. Stattdessen werden Wissenschaftler dazu angeregt, produktiv und innovativ zu sein.“ [9]
Smaldino und McElreath betonen, dass keine Strategie erforderlich ist:
„In diesem Artikel wird argumentiert, dass einige der stärksten Anreize in der heutigen Wissenschaft schlechte Forschungsmethoden und den Missbrauch statistischer Verfahren aktiv fördern, belohnen und verbreiten. Wir bezeichnen diesen Prozess als natürliche Selektion schlechter Wissenschaft, um darauf hinzuweisen, dass er weder bewusste Strategien noch Betrug seitens der Forscher erfordert. Stattdessen entsteht er aus der positiven Auswahl von Methoden und Gewohnheiten, die zu Veröffentlichungen führen.“
Sie weisen weiterhin auf die offensichtliche Tatsache hin, dass „Methoden, die mit größerem Erfolg in der akademischen Laufbahn verbunden sind, sich bei sonst gleichen Bedingungen tendenziell verbreiten“. Man möchte gerne glauben, dass sich nur die guten Verfahren verbreiten, aber das ist eindeutig nicht der Fall. Es verbreiten sich diejenigen, die am stärksten mit beruflichem Erfolg verbunden sind, und dazu gehört leider eine Reihe von Kriterien, die nur teilweise mit der Qualität der Arbeit korrelieren. In diesem Fall gilt: Je geringer die statistische Aussagekraft der Daten, desto größer die Chancen auf eine Veröffentlichung – und eine Veröffentlichung scheint jeder zu wollen.
Glücklicherweise ist dies kein Problem, bei dem die wissenschaftliche Methode tatenlos zusieht. Replikation und Reproduzierbarkeit sind ihre Eckpfeiler, und infolgedessen hat sich das Fehlverhalten in der berüchtigten „Reproduzierbarkeitskrise“ innerhalb der Wissenschaft manifestiert. Die Meinungen darüber, wie ernst das Problem ist, gehen auseinander; einige behaupten, die Krise sei existenziell, während andere das Problem für etwas übertrieben halten. Niemand behauptet jedoch, dass das Problem leicht zu beheben sei, was nicht verwunderlich ist, da es seine Wurzeln in den Belohnungsstrukturen hat, welche die akademische Welt stützen [10].
Wohin führt uns das nun?Die sozialen Strukturen und Belohnungsmechanismen innerhalb der Wissenschaft sind so beschaffen, dass sowohl gute als auch schlechte Wissenschaft von einer natürlichen Selektion profitieren kann, und für Laien kann es sehr schwierig sein zu erkennen, in welche Richtung die Selektion bei der Schaffung eines vorherrschenden Narrativs gewirkt hat. Die Stärke des Konsens‘ zu kennen ist bei weitem nicht so wichtig wie das Verständnis der zugrunde liegenden Prozesse, und es wäre naiv anzunehmen, dass diese ausschließlich von der wissenschaftlichen Methode bestimmt werden. Hinzu kommen statistische Effekte, die die akademische Welt für die Entstehung potenziell schädlicher Monokulturen prädisponieren, was einen weiteren Grund darstellt, der Versuchung zu widerstehen, die vorherrschende Darstellung automatisch zu akzeptieren.
Es sollte jedoch beachtet werden, dass dies keine anti-wissenschaftliche Haltung ist. Gerade weil soziale Dynamik Ideen unabhängig von ihrer epistemologischen Gültigkeit festigen kann, ist die wissenschaftliche Methode so wichtig. Dennoch sollte eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes das Verständnis mit sich bringen, dass die wissenschaftliche Methode nicht hoffen kann, die Launen und Zufälligkeiten der Konsensbildung hundertprozentig zu beseitigen. Insbesondere kann sie nicht hoffen, die Auswirkungen des statistischen Matthäus-Effektes und dessen Neigung zur Schaffung von Monokulturen vollständig zu vermeiden. Eine reife Wertschätzung der Bedeutung des wissenschaftlichen Ansatzes sollte daher auch das Verständnis beinhalten, dass es wirklich nicht notwendig ist, sich auf die Idee eines wissenschaftlichen Vorwands zu berufen. Es gibt keine Verschwörung, sondern nur Wissenschaftler, die ihre Arbeit tun.
Anmerkungen:[1] Der Begriff wurde erstmals im Zusammenhang mit der Wissenschaftssoziologie von Robert K. Merton und Harriet Anne Zuckerman geprägt. Siehe Merton R.K. 1968 “The Matthew effect in science”, Science, New Series, Vol 159, No. 3810, pp. 56-63. https://repo.library.stonybrook.edu/xmlui/bitstream/handle/11401/8044/mertonscience1968.pdf?sequence=1&isAllowed=y.
[2] de Solla Price, Derek J. 1976, “A general theory of bibliometric and other cumulative advantage processes”, J. Amer. Soc. Inform. Sci., 27 (5): 292–306, https://doi.org/10.1002/asi.4630270505.
[3] Heesen R., Romeijn JW. 2019 “Epistemic Diversity and Editor Decisions: A Statistical Matthew Effect”, Philosophers’ Imprint, Vol. 19, No. 39, pp. 1-20. http://hdl.handle.net/2027/spo.3521354.0019.039.
[4] Tatsächlich hat der Respekt vor älteren Fakultätsmitgliedern einen großen Anteil daran, wenn es darum geht, einen Konsens zu erzielen. Siehe Perret C. and Powers S. T. 2022, “An investigation of the role of leadership in consensus decision-making”, Journal of Theoretical Biology, Vol 543, 111094, https://doi.org/10.1016/j.jtbi.2022.111094.
[5] Smolin L. 2006 “The Trouble With Physics”, page xx, ISBN 978-0-141-01835-5.
[6] Sydow, J., Schreyögg, G. 2013 “Self-Reinforcing Processes in Organizations, Networks, and Fields — An Introduction”. In: Sydow, J., Schreyögg, G. (eds) Self-Reinforcing Processes in and among Organizations. Palgrave Macmillan, London. https://doi.org/10.1057/9780230392830_1.
[7] Comerford D. 2025 “We risk a deluge of AI-written ‘science’ pushing corporate interests – here’s what to do about it”. The Conversation. https://theconversation.com/we-risk-a-deluge-of-ai-written-science-pushing-corporate-interests-heres-what-to-do-about-it-264606.
[8] Smaldino P.E., McElreath R. 2016 “The natural selection of bad science”, R. Soc. Open Sci., 3: 160384, http://doi.org/10.1098/rsos.160384.
[9] Horton R. 2015 “Offline: What is medicine’s 5 sigma?”, The Lancet, Volume 385, Issue 9976 p1380. https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(15)60696-1/fulltext.
[10] Leyser O., Kingsley D., Grange J. 2017, “Opinion: The science ‘reproducibility crisis’ – and what can be done about it”. University of Cambridge – Research News. https://www.cam.ac.uk/research/news/opinion-the-science-reproducibility-crisis-and-what-can-be-done-about-it.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Der Matthäus-Effekt, Monokulturen und die natürliche Auslese schlechter Wissenschaft erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue Studie: Keine Beschleunigung des Meeresspiegel-Anstiegs
H. Sterling Burnett
Eine neue Studie niederländischer Forscher findet keine Hinweise auf eine globale Beschleunigung des Meeresspiegelanstiegs aufgrund des Klimawandels. Die Autoren sagen, dass ihr Ansatz zur Untersuchung des Meeresspiegelanstiegs bisher noch nicht verfolgt worden ist. Anstatt Extrapolationen aus Klimamodellen oder kurzfristigen Satellitendaten vorzunehmen, führten sie eine Untersuchung von Pegelmessstationen auf der ganzen Welt durch, die über mindestens 60 Jahre hinweg Daten in der Datenbank des Permanent Service for Mean Sea Level erfasst haben. Von 1.500 Stationen erfüllten 200 die Kriterien.
Die von Fachkollegen begutachtete Arbeit „A Global Perspective on Local Sea Level Changes” wurde im Journal of Marine Science and Engineering veröffentlicht.
Die Langzeitdaten der Gezeitenmessstationen zeigten, dass die durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs bis 2020 nur etwa 1,5 mm pro Jahr oder 15 cm pro Jahrhundert betrug – weniger als die Hälfte des Anstiegs, den der Weltklimarat (IPCC) und ein Großteil der Fachliteratur angibt.
„Das ist deutlich weniger als die 3 bis 4 mm/Jahr, die Klimawissenschaftler in wissenschaftlichen Publikationen und den Medien oft angeben“, sagte Hessel G. Voortman, der Hauptautor der Studie, gegenüber dem unabhängigen Journalisten Michael Shellenberger, berichtet National Review. „Es ist verrückt, dass das noch nicht gemacht wurde.
Ich habe 2021 mit dieser Forschung begonnen, indem ich die Literatur durchgesehen habe und mich fragte: ‚Wer hat die Prognosen mit den Beobachtungen verglichen?‘ Antwort: tatsächlich niemand!“, sagte Voortman zu Shellenbeger.
Als Wasserbauingenieur mit 30 Jahren Erfahrung, der weltweit an Projekten zum Hochwasserschutz und zur Anpassung der Küsteninfrastruktur beteiligt ist, hatte ihm seine Erfahrung bereits gezeigt, dass die Prognosen eines signifikanten Anstiegs der Geschwindigkeit des Meeresspiegelanstiegs falsch waren.
„Aus der Praxis kannte ich bereits die Situation, dass die Prognosen zum Meeresspiegelanstieg die Beobachtungen übertrafen“, erklärte Voortman gegenüber Shellenberger.
Im Jahr 2023 veröffentlichte Voortman eine Studie über die Küste der Niederlande, die zeigte, dass sich der Meeresspiegelanstieg dort in den letzten Jahrzehnten nicht beschleunigt hatte.
In Bezug auf die Forschung, die sich auf Satellitenbilder stützt und behauptet, dass sich der Anstieg des Meeresspiegels seit 1993, also seit Beginn der Satellitenmessungen, deutlich beschleunigt habe, sagt Voortman, dass diese Daten die periodischen Schwankungen, die in den Langzeitaufzeichnungen auftreten, nicht berücksichtigen: „Wenn man dies berücksichtigt, verschwindet die beschleunigte Rate als Folge des jüngsten Klimawandels.“
Die Geschwindigkeit des Meeresspiegelanstiegs befand sich 1993 in einer ihrer periodischen Tiefphasen, während sie 2020 einen Höchststand erreichte, sagt Voortman.
Ein kleiner Prozentsatz der 200 untersuchten Stationen zeigte „bemerkenswerte, manchmal statistisch signifikantes Ansteigen oder Absinken des Meeresspiegels“, erklärte Voortman gegenüber Shellenberger, aber da diese Stationen in der Regel in der Nähe anderer Stationen lagen, die keine beschleunigten Veränderungen aufwiesen, ist es „unwahrscheinlich, dass ein globales Phänomen wie die durch CO₂ verursachte globale Erwärmung die Ursache ist“.
Für Standorte, an denen die Anstiegsrate entweder zugenommen oder sogar abgenommen hat, und zwar in einem Maße, das nicht mit den langfristigen Trends der nahe gelegenen Stationen übereinstimmt, sagt Voortman, dass lokale Faktoren wie Erdbeben, umfangreiche Bauarbeiten, Grundwasserentnahme, Bodensenkungen oder -verdichtungen oder postglaziale Effekte „fast immer“ die lokalen Trends erklären.
Die modellbasierten Schätzungen des IPCC überschätzen die tatsächliche durchschnittliche Geschwindigkeit des Meeresspiegelanstiegs „erheblich“ um bis zu 2 mm pro Jahr, was mehr als doppelt so viel ist wie die Geschwindigkeit des Meeresspiegelanstiegs, die sich in den Gezeitenmessdaten zeigt, heißt es in der Studie.
Aus praktischer Sicht ist es laut Voortman entscheidend, diese Differenz zu berücksichtigen.
„Bei der Planung von Küsteninfrastrukturen berücksichtigen Ingenieure seit langem den Anstieg des Meeresspiegels”, erklärt Voortman im Interview mit Shellenberger. „Sowohl Messungen als auch Prognosen sind wichtige Informationsquellen, und für die praktische Anwendung ist es entscheidend, die Unterschiede zwischen ihnen zu verstehen.”
Obwohl Voortman und sein Kollege möglicherweise die ersten waren, die eine systematische Untersuchung der Daten von Langzeit-Gezeitenmessstationen durchgeführt haben, haben andere, darunter das Heartland Institute, bereits zuvor noch längerfristige Daten aus einer Stichprobe von Stationen untersucht und sind zu einem ähnlichen Ergebnis gekommen. Von den vom Heartland Institute untersuchten Stationen, von denen einige über Daten aus mehr als 100 Jahren verfügten, hatten einige nur einen sehr geringen oder gar keinen Anstieg der Hintergrundrate des Meeresspiegelanstiegs verzeichnet, einige verzeichneten einen weit über dem Durchschnitt liegenden Anstieg, während andere Stationen sogar einen Rückgang des Meeresspiegels verzeichneten. Die unterschiedlichen Veränderungsraten zwischen den Stationen lassen sich nur durch Veränderungen der lokalen Bedingungen erklären und nicht durch Trends, die durch den globalen Klimawandel verursacht werden.
Quellen: National Review; Journal of Marine Science and Engineering; The Heartland Institute; Nongovernmental International Panel on Climate Change
Link: https://heartland.org/opinion/climate-change-weekly-555-my-comments-on-the-doe-climate-report/, zweite Meldung
——————————————–
Auch bei Cap Allon findet sich am 12. September eine Kurzmeldung zum Meeresspiegel:
Meeresspiegel: Kein Runaway-AnstiegDie Satellitenaufzeichnungen der NASA zeigen, dass der globale mittlere Meeresspiegel seit Ende 2023 um 3 mm gesunken ist – von 100,7 mm auf 97,6 mm bis September 2025. Bei der oft zitierten Anstiegsrate von 3,4 mm/Jahr hätten wir einen Anstieg von fast +7 mm erwarten müssen. Stattdessen hat sich die Kurve abgeflacht, ja ist sogar rückläufig.
Kurze Zeiträume ändern nichts am langfristigen Kontext, aber natürliche Zyklen dominieren eindeutig.
Während des La Niña-Ereignisses 2010–11 führten starke Regenfälle dazu, dass so viel Wasser an Land gelangte, dass der Meeresspiegel in weniger als einem Jahr um etwa 5 mm sank.
Gezeitenmessgeräte mit Aufzeichnungen, die 150 Jahre zurückreichen, zeigen Gleiches: einen langsamen, stetigen Anstieg von ~1–2 mm/Jahr, der im 19. Jahrhundert mit dem Ende der Kleinen Eiszeit begann. Satelliten wurden erst 1993 eingesetzt (Höhenmessung des Meeresspiegels) und stützen sich auf „Anpassungen”, die die Rate auf 3,4 mm/Jahr erhöhen, doch selbst sie zeigen Pausen und Einbrüche, die der Darstellung einer unaufhaltsamen Beschleunigung widersprechen.
Eine statistische Auswertung von 204 Pegelmesspunkten weltweit aus dem Jahr 2025 ergab, dass 95 % keine statistisch signifikante Beschleunigung des modernen Anstiegs aufweisen. Die wenigen, die eine Beschleunigung aufweisen, reflektieren lokale geologische Gegebenheiten (Landbewegungen, Bodensenkungen) – nicht das globale Klima.
Im Durchschnitt beträgt die beobachtete Anstiegsrate nur 1,5–1,9 mm/Jahr und liegt damit deutlich unter den von den IPCC-Modellen angenommenen ~3,4 mm/Jahr.
Es gibt keine Anzeichen für eine globale Beschleunigung, keinen unaufhaltsamen Anstieg und keine drohende „versinkende Welt”. Die Daten zeigen eine unvorhersehbare, aber moderate Veränderung, die mit natürlichen Schwankungen und einer leichten Erholung von der Kleinen Eiszeit im Einklang steht.
Quellen: NASA, CSIRO, PSMSL, Voortman & De Vos (2025)
Link: https://electroverse.substack.com/p/stanleys-cold-august-snow-forecast?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Neue Studie: Keine Beschleunigung des Meeresspiegel-Anstiegs erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
UK vor Stromausfällen: Net Zero-Desaster zeichnet sich ab
Cap Allon
Innerhalb von nur fünf Jahren wird ein Drittel der britischen Gaskraftwerke – die in den 1990er Jahren gebaut worden sind – zusammen mit den meisten Kernreaktoren stillgelegt werden.
„Unter diesen Umständen wären wir nicht in der Lage, die Nachfrage zu decken“, warnt die Energieberaterin Katherine Porter. „Wir müssten rationieren.“ Neue Gaskraftwerke könnten die Lücke nicht schließen, merkt sie an: „Die Vorlaufzeit für den Kauf einer Gasturbine beträgt acht Jahre.“ Kohle, die in drei Jahren verfügbar ist, könnte die einzige Alternative sein. Die Regierung hat jedoch deutlich gemacht, dass Netto-Null Vorrang vor der Energiesicherheit hat.
Die derzeitige Energiegewinnsteuer erhöht die effektiven Steuern für Nordsee-Betreiber auf über 100 %. „Harbour Energy gab an, in einigen Fällen sogar 110 % zu zahlen“, erklärt Porter. Unternehmen bauen Arbeitsplätze in Großbritannien ab und verlagern ihre Aktivitäten ins Ausland, was bedeutet, dass dem Finanzministerium bereits Steuereinnahmen entgehen. Bis zum Jahr 2030 wird es außerdem gezwungen sein, Milliardenbeträge für Stilllegungsrabatte auszuzahlen – Geld, das es nicht hat.
Der von der Labour-Partei auserkorene Retter, die Windenergie, kann sich auch nach 35 Jahren Subventionen noch nicht selbst tragen. Die Entwickler sagen nun, dass sie einen garantierten Preis von 83 £ für jede Megawattstunde Strom benötigen, die sie produzieren, obwohl der durchschnittliche Großhandelspreis nur 73 £ beträgt. Mit anderen Worten: Windkraft ist immer noch teurer als Gasstrom, und die Verbraucher sollen die Differenz ausgleichen. Selbst mit diesem Aufschlag von 13 % hat Ørsted sein Vorzeigeprojekt Hornsea 4 Offshore aufgegeben, weil es sich wirtschaftlich immer noch nicht rechnete.
Die Produktionszahlen sind nicht besser. Trotz mehr Windkraftanlagen sank die Windenergieerzeugung in UK im letzten Jahr um 6 %. Die Importe aus Europa gingen um 10 % zurück, und der Gasverbrauch musste um 17 % steigen, um den Ausfall auszugleichen. Windkraftanlagen erzeugen nur etwa 35 % ihrer angegebenen Kapazität, was bedeutet, dass sie an zwei von drei Tagen wenig oder gar nichts erzeugen. Das zwingt das System dazu, Gaskraftwerke als Reserve bereitzuhalten, kostspielige neue Netzanschlüsse zu abgelegenen Standorten zu verlegen, Milliarden für die Abschaltung von Turbinen zu zahlen, wenn das Netz deren Leistung nicht aufnehmen kann, und weitere Milliarden für den Ausgleich der ständigen Schwankungen auszugeben, die mit wetterabhängiger Energie einhergehen.
„Die Endkosten für erneuerbare Energien sind für den Verbraucher deutlich höher als die für Gas“, folgert Porter.
Die Kernenergie, die einzige ernstzunehmende CO2-freie Grundlastenergiequelle, ist in bürokratischen Hürden versunken. Kepco baut in Südkorea Reaktoren in weniger als neun Jahren für 6 Milliarden Dollar (Kori 3 & 4). Großbritannien stolpert mit Kosten von 35 Milliarden Pfund pro Anlage (Hinkley Point C). „Das liegt alles an unserem lächerlich dummen Regulierungssystem“, sagt Porter.
Fracking bleibt unter seismischen Grenzwerten verboten, die „dem Fallenlassen eines Stifts auf den Boden entsprechen“.
Und währenddessen altert das Stromnetz. Transformatoren aus den 1960er- und 1970er-Jahren fallen aus. Der Stromausfall in Heathrow im März war eine Warnung. Dennoch fließen die Ausgaben in neue Anschlüsse für erneuerbare Energien, anstatt in den Ersatz von Geräten, deren Lebensdauer abgelaufen ist.
„Wir steuern auf eine Situation zu, in der wir nicht nur sehr teure Energie haben, sondern auch unsichere Energie“, schließt Porter. Die Net-Zero-Besessenheit der Regierung treibt Großbritannien in wirtschaftliche und buchstäbliche Dunkelheit. Und wofür?
Fossile Brennstoffe sind das Rückgrat des Wohlstands. Großbritannien bleibt, wie die meisten westlichen Nationen, zurück.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag UK vor Stromausfällen: <em>Net Zero</em>-Desaster zeichnet sich ab erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 32 / 2025
Meldungen vom 8. September 2025:
Aktualisierung zu La NiñaIm Herbst könnte es erneut zu einem La Niña-Ereignis kommen.
Die WMO schätzt die Wahrscheinlichkeit für September bis November auf 55 % und für Oktober bis Dezember auf 60 %.
Das Climate Prediction Center der NOAA hat bereits eine La Niña-Warnung herausgegeben, die auf eine schwache Phase Ende 2025 hinweist, bevor sie Anfang 2026 wieder auf einen neutralen Wert zurückgeht.
Die IRI-Prognose zeigt zwar, dass der neutrale Wert mit einer Wahrscheinlichkeit von 68 % bis August–Oktober anhält, aber die Wahrscheinlichkeit für La Niña steigt bis zum Winter auf 40–45 %.
La Niña ist historisch mit einer globalen Abkühlung verbunden. In den letzten neun Jahren dominierte La Niña sieben Mal – sei es in schwachen oder moderaten Phasen: 2016, 2017, 2018, 2020, 2021, 2022 und Anfang 2023. Dies steht im direkten Gegensatz zu den frühen AGW-Prognosen, die El Niño als das dominierende ENSO-Muster für die Zukunft favorisierten.
—————————————-
Winter-Vorhersage für Europa: Arktisches Finale zu erwartenMkweather hat seine Winterprognose für Europa veröffentlicht. Darin wird eine in zwei Teile geteilte Saison mit einem möglicherweise historischen Finale beschrieben.
Der Dezember wird laut Prognose von Stürmen heimgesucht, wobei La Niña den Atlantik-Jet antreibt und wiederholt Tiefdruckgebiete nach Westeuropa treibt. Großbritannien, Frankreich und die Iberische Halbinsel müssen sich aufgrund des dominierenden Jets auf sintflutartige Regenfälle und Küstenhochwasser einstellen.
Aber die Konstellation ist bereit für eine Umkehr. Wenn sich hoher Luftdruck über Grönland und Skandinavien aufbaut, wird die Atlantikströmung wahrscheinlich zusammenbrechen und die arktischen Reserven freisetzen. Das Sibirische Hoch verstärkt sich, und sobald sich das Muster verschiebt, kann kalte Luft ungehindert nach Westen strömen.
Der Polarwirbel wirkt bereits fragil. Sollte es im Januar zu einer plötzlichen Erwärmung der Stratosphäre kommen, wird die Zirkulation zusammenbrechen und die Kälte nach Süden strömen. Der Februar sticht als der Monat hervor, in dem Europa in eine tiefe Kälteperiode stürzen könnte, mit brutaler Kälte und Schneedecke in den östlichen Ländern, Schneestürmen in Mitteleuropa und sogar Einbrüchen der Kälte in Westeuropa.
Mkweather nennt es „einen Winter, der von Telekonnektionen geschrieben wird” – was bedeutet, dass der Verlauf der Saison von großräumigen Einflussfaktoren bestimmt wird. La Niña, der schwächer werdende Polarwirbel und eine wahrscheinliche Umschwung der NAO von positiv zu negativ könnten später zu einer Blockade im Norden und einer Dominanz der arktischen Luft führen, was Kältewellen mit sich bringen würde, die mit den härtesten Winterfrostperioden der Neuzeit mithalten könnten.
Anmerkung des Übersetzers: Man beachte die vielen Konjunktive hier. Es wäre fahrlässig, auf derartige „Prognosen“ Häuser zu bauen.
—————————————-
Antarktis: Plötzliche Stratosphären-Erwärmung (SSW)Der südliche stratosphärische Polarwirbel ist für Anfang September ungewöhnlich schwach.
Die Zonalwinde bei 60° südlicher Breite im 10 hPa-Niveau sind laut Daten des NOAA CPC gegenüber den Höchstwerten im August stark zurückgegangen und liegen nun deutlich unter dem langjährigen Durchschnitt.
Zum ersten Mal seit 2002 ist ein voll ausgeprägtes plötzliches stratosphärisches Erwärmungsereignis (SSW) in der südlichen Hemisphäre möglich.
Der Zusammenbruch von 2002 hatte historische Auswirkungen, als antarktische Luft nach Südamerika und Australien strömte und zu Rekordfrösten, Störungen in der Landwirtschaft und veränderten Ozonkonzentrationen über dem Pol führte.
Ein ähnliches Szenario zeichnet sich nun ab. Wenn sich der Wirbel abschwächt, versagt die Eindämmung der antarktischen Luft, sodass die polare Kälte nach Norden in die mittleren Breiten entweichen kann. Die daraus resultierenden Zirkulationsverschiebungen können wochenlang anhalten und das Wetter weit entfernt von der Antarktis verändern.
Diese Entwicklung verstärkt den globalen Abkühlungstrend, der 2024 begann (wahrscheinlich schon früher, aber der Ausbruch des Hunga Tonga scheint die Entwicklung um einige Jahre verzögert zu haben). Anstatt die Erwärmung wie von der Propaganda prophezeit zu beschleunigen sendet die atmosphärische Dynamik stattdessen kalte Signale von Pol zu Pol.
In den kommenden Wochen wird sich zeigen, wie viel von dieser antarktischen Luft entweicht. Wenn sich der Wirbel weiter auflöst, könnte die südliche Hemisphäre den ersten vollständigen SSW seit mehr als zwei Jahrzehnten erleben – mit weitreichenden Folgen.
In diesem Zusammenhang ist zu erwähnen, dass die Meerestemperaturen weiter sinken, was von Gretas Flottille weitgehend ignoriert wird.
Die Abkühlung ist und bleibt die wahre Bedrohung. Die Erwärmung ist vorteilhaft.
—————————————-
Meldungen vom 9. September 2025:
Der Antarktis „geht es einfach gut“Die Daten der UAH-Satelliten zeigen, dass die Temperaturen am Südpol seit Beginn der Aufzeichnungen im Jahr 1979 unverändert geblieben oder sogar gesunken sind.
Trotz eines unaufhaltsamen Anstiegs des CO₂-Gehalts in der Atmosphäre von ~340 ppm im Jahr 1980 auf über 420 ppm heute hat sich in der unteren Troposphäre der Antarktis kein Erwärmungstrend gezeigt.
Kohlendioxid spielt, wie schon seit Hunderten von Millionen Jahren, keine erkennbare Rolle bzgl. der Temperatur. Diese Grafik widerlegt eindeutig die Behauptung, dass CO₂ der „Regler“ des Klimas sei. Wenn diese Behauptung wahr wäre, müsste der Südpol – insbesondere mit seiner sauberen, unverschmutzten Luft und minimalen Wärmeinseleffekten – eine eindeutige Erwärmungssignatur aufweisen. Das ist jedoch nicht der Fall.
Die UAH beginnt 1979 (dem Beginn der Satellitenära), aber seit den 1950er Jahren haben mehrere Wetterstationen die Temperaturen in der Antarktis gemessen. Unangenehm für die Daten fälschenden Alarmisten ist, dass auch diese keine Tendenz zeigen:
Die dünne blaue Linie stellt die durchschnittliche jährliche Lufttemperatur dar, die dicke blaue Linie den gleitenden 5-Jahres-Durchschnitt.
—————————————-
Meldungen vom 10. September 2025:
NOAA-Daten: Keine Änderung der August-Höchsttemperaturen seit mindestens 1904Der August 2025 fällt laut den Daten der NOAA seit August 1904 nicht aus dem Rahmen.
Selbst die NOAA, die für ihre Anpassungen, Lückenfüllungen, Homogenisierungen und die Verharmlosung des städtischen Wärmeinseleffekts bekannt ist, kann nicht so viel Erwärmung herbeizaubern. Die Höchsttemperaturen, das Maß für echte Hitzeextreme, haben sich in über 100 Jahren kaum verändert:
Gleiches gilt für die Mittelwerte der Agentur:
—————————————-
Skeptizismus nimmt immer mehr zuDie Briten schalten den Klimawandel-Alarm aus. Laut einer Umfrage der Times aus diesem Jahr 2025 ist der Anteil derjenigen, die die Gefahren der globalen Erwärmung für übertrieben halten, seit 2021 um mehr als 50 % gestiegen. Jeder Vierte lehnt die Behauptungen mittlerweile rundweg ab.
Die Unterstützung für ein Verbot neuer Benzin- und Dieselautos ist von 51 % unter 30 % gesunken. Nur 16 % sind bereit, höhere Gasrechnungen zu zahlen, um die Elektrifizierung zu finanzieren. Das Vertrauen in das Netto-Null-Versprechen der Regierung für 2050 hat sich von 32 % auf 15 % halbiert.
Ältere Wähler sind am skeptischsten, aber auch die Jüngsten ändern ihre Meinung: 15 % der 18- bis 24-Jährigen halten die Bedrohung mittlerweile für übertrieben, gegenüber 11 % zuvor.
Andere Umfragen bestätigen diesen Trend. Eine Studie von More in Common und Climate Outreach ergab, dass nur noch 48 % Netto-Null positiv bewerten – gegenüber 62 % im Vorjahr.
Der Konsens bröckelt und das Vertrauen schwindet.
Was Wunder…
—————————————-
Eine Meldung vom 11. September 2025:
Warum das arktische Meereis 2008 plötzlich zurückging (Hinweis: Es lag nicht an der Natur)Die Karten zum arktischen Meereis zeigen einen starken Rückgang zwischen 2006 und 2007, als wäre „plötzlich ein neues Klimaregime” eingetreten. Dies ist jedoch auf einen Ausfall des Satellitensensors und die anschließende Umstellung der Instrumente und Algorithmen zurückzuführen und nicht auf eine abrupte natürliche Veränderung.
Vorher und nachher: 2006 bis 2007 – fast 2 Millionen Quadratkilometer Eis sind verschwunden. [NSIDC]
Bis Mitte 2006 wurde das Meereis mit dem DMSP F13 SSM/I-Sensor verfolgt. Bis 2007 verschlechterte sich die Qualität des F13-Sensors, es kam zu Kalibrierungsabweichungen und zeitweiligen Datenverlusten. Um die Kontinuität zu gewährleisten, wurde die Überwachung auf den neueren DMSP F17 SSMIS-Sensor umgestellt (mit teilweiser Nutzung des F15 während der Übergangsphase).
Das NSIDC räumt ein, dass zwischen F13 und F17 statistisch signifikante Unterschiede bestehen, die zu einer Verschiebung der Basislinie in Bezug auf Ausdehnung und Fläche führen.
Parallel zum Sensorwechsel verfeinerte das NSIDC auch seine Verarbeitung: Es wurden Anpassungen vorgenommen, um falsches Eis aus Schmelzwasserseen, Wetterverunreinigungen und Überläufen an den Küsten zu reduzieren. Diese Korrekturen führten zu einer weiteren Verringerung der Ausdehnungswerte, insbesondere während der Schmelzsaison. Die kombinierte Wirkung des neuen Instruments und der strengeren Algorithmen führte zu einem systematischen Rückgang der Werte in der Reihe.
Es gibt keinen bekannten physikalischen Prozess, der einen Verlust von Meereis über mehrere Millionen Quadratkilometer innerhalb eines Jahres verursachen könnte, der dann in jedem folgenden Jahr bestehen bleibt. Der Zeitpunkt des Bruchs fällt mit dem Sensorwechsel zusammen, nicht mit einer plötzlichen Veränderung der ozeanischen oder atmosphärischen Antriebskräfte. Alarmisten wissen das nicht. Sie heben immer noch die Daten nach 2006 als Beweis für einen klimabedingten Zusammenbruch hervor.
Erwähnenswert sind auch die zahlreichen Nachrichtenartikel (basierend auf einer aktuellen Veröffentlichung), die zugeben, dass es „seit 20 Jahren keine Veränderung des arktischen Meereises gibt”. Sie messen anhand des künstlichen Sprungs von 2006–2007. Nimmt man diesen Ausreißer heraus, hat sich seit Beginn der Satellitenära tatsächlich nichts Wesentliches verändert.
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 32 / 2025 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Energiewende im Realitäts-Check: Schlimmer als Russisch Roulette
Kennen Sie Russisch Roulette? Nein? Ist auch besser so. Das ist nämlich total irre. Man nimmt einen Colt, legt eine Patrone in die Trommel, dreht sie wild durch, setzt sich das Ding an die Schläfe und drückt ab. Wenn man Glück hat, klickt es nur. Die Energiewende ist Russisch Roulette, nicht mit einer, sondern mit sechs Patronen in der Trommel. Die sechs Patronen im Energiewendecolt heißen: Gaskraftwerks-Fata-Morgana, Wasserstoff-Delirium, Stromspeicher-Illusion, Stromverbunds-Autismus, kognitive Netzsicherheits-Dissonanz und Sektor-Kopplungs-Psychose.
Deutschland hält sich die Wumme an die Schläfe und ist dabei, abzudrücken. Grüner Ehrgeiz ist bekanntlich grenzenlos, leider auch grüne Ahnungslosigkeit. Sie planen nichts Geringeres, als die Weltrettung, sind aber nichts Besseres als Architekten von Luftschlössern. Ihre Visionen sind schön wie Feuerwerke, bunt, laut, kurz. Übrig bleibt nur Rauch und ein leeres Portemonnaie.
Es war doch alles so schön geplant. Angela Merkels Allzweckminister Peter Altmaier, CDU, seinerzeit Bundesminister für Wirtschaft und Energie und gleichzeitig die personifizierte geballte energiepolitische Inkompetenz, offenbarte die Vision am 3. Juli 2020 im Deutschen Bundestag: „Wir sind das einzige Industrieland dieser Größe, das gleichzeitig aus der friedlichen Nutzung der Kernenergie und dann aus der Nutzung der Kohleverstromung aussteigt. Das sind die historischen Aufgaben und die Leistung, die wir zu vollbringen haben.“
Unter „historisch“ machen es Minister nicht, weder Grüne noch Rote noch Gelbe, und schon gar keine Schwarzen. Nur sagte der Altmaier Peter nicht, wer „uns“ diese „historische Aufgabe und Leistung“ aufgegeben hat. Ist ihm der Herr hinter einem brennenden Busch erschienen? Kam ein geflügelter Engel und reichte ihm eine Steintafel? Oder nuschelte es seine Gottkanzlerin nur in ihrem Büro, als sie die neuesten Wahlumfragen las? Wir wissen es nicht.
Die „Energiewende“ sollte die historische Aufgabe vollbringen. Sie war ein „Allparteienprojekt“, eine Missgeburt des Zeitgeistes. Baake, Trittin, Fell und Flasbarth waren die geistigen Väter. Töpfer, Altmaier, Merkel, Schröder, Habeck und andere bauten ein undurchdringliches Verhau an Gesetzen, um sie unangreifbar und unumkehrbar zu machen. Kemfert, Quaschning und der Erklärbär vom ZDF, Professor Lesch, opferten ihren wissenschaftlichen Ruf auf dem Energiewendealtar, um sie gesellschaftsfähig zu machen. Nun ist sie halt da, die Energiewende.
Die Gaskraftwerks-Fata-MorganaDurch das Kohleverstromungsausstiegsgesetz werden bald auch die letzten Kohlekraftwerke dem Erdboden gleich gemacht. Die Kernkraftwerke sind schon weitgehend zersägt. Jetzt haben die Energiewender mitbekommen, dass die These „irgendwo ist immer Wind“ nicht stimmte. Es wird ein Back-Up-Kraftwerkspark gebraucht, sonst gehen die Lichter aus. Der Habeck hat gerufen, dass es H2-Ready-Gaskraftwerke sein müssen, die mit grünem Wasserstoff betrieben werden, der aus überflüssigem Solar- und Windstrom erzeugt wird. Und der ganze Politchor hat in die Gesänge eingestimmt, sogar mancher Industrieboss hat mitgesummt, vielleicht wären ja ein paar fette Subventionen abzusahnen, ehe man den Standort in die USA verlegt? Derzeit sieht der Regierungsplan von Ministerin Reiche vor, dass bis 2035 H2-Ready-Gaskraftwerke mit einer Kapazität von 35,5 GW errichtet werden sollen.
Was ist das eigentlich – ein H2-Ready-Gaskraftwerk? Nun, man kann eine Gasturbine mit allem Möglichen betreiben, was exotherm verbrennt. Brikett vorn reinzuwerfen, ist natürlich nicht zu empfehlen. Aber Öl, Flugbenzin, Gas und Wasserstoff ginge. Nur haben diese Stoffe recht unterschiedliche Eigenschaften, auf welche die Schaufeln der Turbine abgestimmt sind, um einen akzeptablen Wirkungsgrad zu erzielen. Um es kurz zu sagen: die H2-Ready-Gasturbinen großer Leistung (500 MW) gibt es nicht. Die müssen erst noch konstruiert werden.
Bisher gibt es ein Musterkraftwerk H2-Ready in Leipzig mit 125 MW (188 Millionen Euro Kosten, Betrieb derzeit mit Erdgas). Für 35,5 GW müssten 284 solcher Gaskraftwerke errichtet werden. Kosten rund 53 Milliarden Euro. Nimmt man 500 MW-Turbinen, dann sind es nur 71. Um die mit Erdgas 1.400 Stunden zu betreiben, muss jeden zweiten Tag ein vollbeladener LNG-Tanker der Q-Max-Klasse aus den USA mit 265.000 Kubikmetern LNG entladen werden. Es gibt derzeit 14 davon.
Es ist aber mehr als fraglich, dass die paar Hersteller solcher Turbinen, zum Beispiel Rolls-Royce-Power, Hitachi-Energy, Siemens-Energy, eventuell Alstom (derzeit 260 MW) in der Lage sind, in den nächsten Jahren diese 72 Kraftwerke zu liefern. Die stehen ja nicht mit leeren Auftragsbüchern da und warten auf die Bundesregierung. Und es gibt keine Investoren, keine Planfeststellungsverfahren, keine Standorte, noch nicht einmal Ausschreibungen. Weil diese Gaskraftwerke nur 1.400 Stunden im Jahr laufen sollen – wenn Wind und Sonne pausieren – und damit staatlich garantiert nicht wirtschaftlich sein werden – warten alle auf die Subventionen. Beinahe hätte ich es vergessen – es gibt für diese Gaskraftwerke keinen grünen Wasserstoff. Selbst das Leipziger Vorzeigeprojekt wird mit Erdgas betrieben.
Das Wasserstoff-DeliriumDie 71 nicht existierenden Gasturbinenkraftwerke sollen mit „grünem Wasserstoff“ angetrieben werden, der auch nicht existiert. Dieser soll von Elektrolyseuren – die es nicht gibt – aus überschüssigem Strom von Wind und Sonne grünen Wasserstoff erzeugen und in ein Netz einspeisen – das es nicht gibt. Alternativ soll der grüne Wasserstoff, über Schiffe – die es nicht gibt – aus Lieferländern herbeigeschafft werden – die es ebenfalls nicht gibt. (Frei nach Gabor Steingart)
Eine seiner letzten Großtaten unseres genialen Wirtschaftsministers Robert Habeck war das Update zur Nationalen Wasserstoffstrategie. Er nannte es bescheiden „Turbo für die H2-Wirtschaft“. Doppelwumms hätte in puncto Wasserstoff vielleicht falsche Assoziationen erzeugt. Bis 2030 will die Bundesregierung zehn Gigawatt Elektrolysekapazität aufbauen.
„Die Wasserstoffstrategie soll Klimabilanz von Industrie und Verkehr erheblich verbessern, das heißt ganze Industriezweige müssen grundsätzlich umgebaut werden, zum Beispiel Stahl- und die Chemieindustrie und den gesamten Verkehrssektor.“ Der Robert wollte mal eben die gesamte Wirtschaft grundsätzlich umbauen. Diese psychische Erkrankung heißt außerhalb der Regierung „Megalomanie“. Minister glauben oft, sie seien zu Großem berufen, hätten eine besondere Mission oder seien außergewöhnlich talentiert, naja. Da dem Robert jemand erklärte, dass dafür die Fläche Deutschlands nicht ausreiche, kam er auf die geniale Idee, den Wasserstoff aus Afrika zu nehmen.
Was die Mutigen sich dann nicht trauten ihm zu sagen: Wird der Ferntransport per Schiff entweder in Form von Flüssigwasserstoff oder Ammoniak berücksichtigt, ergeben sich unter bestmöglichen Bedingungen Bereitstellungskosten für Deutschland von 171 Euro pro Megawattstunde (normal wäre ~60 €/GWh). Er antwortete trotzdem „Ist ja nur Geld“ und verabredete sich mit Northvolt zum Dinner.
Die Stromspeicher-IllusionDie Märchenfee der Energiewende, Frau Professorin Dr. Claudia Kemfert, sagte in einem Fernsehinterview: „Deutschland hat Speicher noch und nöcher.“ Deutschlands Speicher „noch und nöcher“ reichen alle zusammen für weniger als eine Stunde Blackout. Batteriespeicher und andere „Wunderwaffen“ zählen gar nicht. Es gibt 32 Pumpspeicherwerke, benötigt würden für eine zweiwöchige Dunkelflaute etwa 6.500 Pumpspeicherwerke (laut Prof. Sinn). Die Norweger brauchen ihre Speicher selber und haben den Bau einer weiteren Stromtrasse nach Deutschland gestoppt, genauso wie die Schweden.
Ein berühmter Staatssekretär, Mitglied eines berühmten Energiewendeclans aus dem Wirtschaftsministerium Habeck, hingegen wusste, dass 15 Millionen E-Autos, die es ja bis 2030 auf deutschen Straßen geben würde, als Speicher fungieren würden. Sozusagen auf „noch und nöcher“ obendrauf. Bidirektionales Laden heißt das in der Energiewendersprache.
Es ist mit der Speicherillusion wie mit dem Wasserstroff-Delirium – es gibt 2030 weder 15 Millionen E-Autos noch 15 Millionen bidirektionale Ladestellen. Das geben die circa eine Million Kilometer Niederspannungsnetz gar nicht her. Die müssten erst querschnittsmäßig ertüchtigt werden. Neulich fragte mich ein Freund: „Was rauchen die da im Wirtschaftsministerium?“
Der Stromverbunds-AutismusDer ehemalige geniale Wirtschaftsminister Habeck hat auch das schöne Wort „Strommangellage“ aus dem tiefen Brunnen seiner Weisheit geschöpft. Das Wort bedeutet: Wenn nach der Durchführung des „Kohleverstromungsbeendigungsgesetzes“ (das heißt wirklich so) bei trüber Flaute die Lichter ausgehen, wenn die „Speicher noch und nöcher“ zufällig gerade leer sind und der Wasserstoff gerade deliriert, dann helfen die umliegenden Länder über die Strommangellage hinweg und liefern Strom.
Deutschland kann über seine Grenzkuppelstellen – also die Verbindungsleitungen zu den Stromnetzen der Nachbarländer – theoretisch bis zu etwa 20 bis 25 Gigawatt (GW) Strom importieren. Diese Zahl variiert je nach Netzsituation, Jahreszeit und technischer Verfügbarkeit der Leitungen. Es könnte allerdings passieren, dass die Nachbarn manchmal etwas unfroh reagieren, weil sie gerade selbst eine kleine Strommangellage haben und sie nicht gefragt wurden, als Deutschland seine 17 Kernkraftwerke verschrottete und dafür Unmengen von Windrädern und Sonnenkollektoren baute, deren Volatilität die Strompreise der Nachbarn ins Wanken bringen.
Der norwegische Energieminister Terje Aasland sagte im Dezember 2024 deutliche Worte zur Stromkrise, die durch massive deutsche Importe ausgelöst wurde. Als Deutschland während einer Dunkelflaute große Mengen Strom aus Norwegen bezog und dadurch die Preise in Norwegen explodierten, sagte Aasland: „Es ist eine absolute Scheißsituation.“ Die schwedische Energieministerin Ebba Busch sagte dazu: „Das Energiesystem Deutschlands ist nicht in Ordnung.“ „Ich bin sauer auf die Deutschen.“ „Es ist schwer für eine industrielle Wirtschaft, sich für ihren Wohlstand auf das Wohlwollen der Wettergötter zu verlassen.“ Beide Länder stoppten daraufhin den Stromtrassen-Ausbau nach Deutschland.
Die kognitive Netzsicherheits-DissonanzDie Bundesnetzagentur wird nicht müde, der Öffentlichkeit zu versichern, dass die „Netzsicherheit“ jederzeit gewährleistet ist. Kein Wunder – deren Chef heißt Müller und ist ein Grüner. Und der will weiter Kraftwerke abschalten und durch Erneuerbare ersetzen. Da passt es gar nicht ins grüne Weltbhild, dass der Bundesrechnungshof, die Versicherer, große Energieversorger, die Netzbetreiber und nahezu alle Fachleute – außer den Professoren Kemfert, Quaschning und Lesch – davor warnen, das Netz sei „am Limit“.
Müller steht nun zwischen den Windrädern der Energiewende und den Relais der Netzstabilität. Einerseits will er unbedingt den Umbau zur klimaneutralen Energieversorgung vorantreiben, andererseits warnt er davor, dass ohne Netzmodernisierung die schöne neue Solarwelt in einem Frequenzchaos enden könnte.
Dass mit dem deutschen Stromnetz nichts mehr stimmt, zeigt die Zahl der notwendigen Eingriffe zur Netzstabilisierung durch die Netzbetreiber, die von kleiner fünf (5) pro Jahr im Jahr 2005 auf heute über 30.000 pro Jahr angewachsen ist. Das Netz wird durch Dunkelflauten, Hellbrisen und die ständige Abnahme der rotierenden Massen gefährdet. Der Blackout in Spanien und Portugal am 28. April diesen Jahres war kein Blackout aus Erzeugungsmangel, sondern einer aus Überforderung durch Komplexität. Es war keine Cyberattacke, keine Versorgungslücke – sondern mangelhafte Spannungsregelung und fehlende netzbildende rotierende Invertermasse von Großkraftwerken. Wann sagt mal einer dem Herrn Müller und der Bundesnetzagentur, dass Solarpaneele keine rotierende Masse haben?
Die Sektor-Kopplungs-PsychoseDas grüne Weltrettungsziel ist, dass ab 2045 in Deutschland nur noch Öko-Strom als Energieträger in eine „All electric society“ führt. Sektor-Kopplung ist das Zauberwort der Energiewende – oder, je nach Perspektive, der Versuch, ein Stromkabel durch alle Lebensbereiche zu ziehen. Technisch gesprochen, bezeichnet sie die systematische Verbindung der Energiesektoren Strom, Wärme, Verkehr und Industrie, um erneuerbare Energien möglichst breit und effizient einzusetzen. Die Sektor-Kopplungs-Psychose ist die Vereinigung aller Energiewende-Wahnvorstellungen, Halluzinationen und Realitätsverluste zu einer tiefgreifende Störung der Wahrnehmung, des Denkens und der Realitätsverarbeitung der Energiewender.
Heute sind wir mit ~600 TWh Stromverbrauch, davon 300 TWh aus Erneuerbaren, eine ganze Galaxie weit entfernt von der „all electric society“, weil der Stromverbrauch ja nur ein Viertel des Gesamtenergieverbrauches darstellt. Bis 2045 werden benötigt: 300 TWh für die noch fehlende Arbeit des heutigen Stromverbrauchs; 700 TWh für Verkehr (synthethische Kraftstoffe); 1.300 TWh für Wärme (Industrie und Haushalte) und 200 TWh für Speicherverluste. Das heißt – es werden bis 2045 statt heute 600 TWh ganze 2.500 TWh aus Wind/Sonne/Biomasse benötigt.
Erforderlich würde also die Verzehnfachung des heute erzeugten Stroms durch Wind und Sonne bis 2045. Dies würde bedeuten, dass statt heute 33.000 Windräder 2045 etwa 300.000 Windräder benötigt werden und statt heute 3,5 Millionen Solarpaneele im Jahre 2045 etwa 300 Millionen Solarpaneele benötigt werden.
Deutschland hätte dann die Ästhetik eines Blade-Runner-Bauernhofs mit einem Windrad pro Quadratkilometer vom Schwarzwald bis Nordfriesland und mit 300 km² Modulfläche. Alles wird blauschimmernd – Dächer, Fassaden, Autobahnränder, Kuhställe. So ein System wird unsteuerbar, wie eine Horde Teenager auf Koffein. Batterien, Wasserstoff, Pumpspeicher, Netz – alles müsste mitwachsen. Abermillionen Wärmepumpen müssten surren. Die Kosten würden sich geschätzt auf 10 Billionen Euro ausdehnen. Die Energiewende in dieser Größenordnung wäre kein Infrastrukturprojekt – sie wäre eine Zivilisationsleistung – ein unbezahlbares technoökologisches Experiment auf nationaler Ebene.
Operation misslungen, Patient in der GeschlossenenDie Energiewende ist ein grünlackierter Geldschaufelbagger, der bei den kleinen Leuten im Garten die Ersparnisse ausbuddelt und auf die großen Geldhaufen der Wohlhabenden häuft. Leider baggert er nur Geld nach oben, alles andere an der Energiewende funktioniert nicht – weder die CO2-Einsparung noch die Unabhängigkeit von seltsamen Ländern und Diktatoren.
Deutschland emittiert heute achtmal so viel Kohlendioxid pro hergestellter Kilowattstunde wie sein Nachbarland Frankreich. Sonne und Wind schickten tatsächlich keine Rechnung, aber die Integration in das bestehende Energiesystem kostet Billionen. Stromsperren und Blackout drohen am Horizont, die Industrie flüchtet und die Leute verarmen. Die Energiewender haben sich im eigenen Wirrwarr von undurchdachten Rettungsversuchen ihres scheiternden Projektes aussichtslos verheddert. Das Dumme ist nur, dass sie alle ihre Hirngespinste ausprobieren, und wir müssen es bezahlen.
Die Absurdität und institutionalisierte Realitätsferne, die Vielzahl von unkoordinierten Maßnahmen, politischen Wunschvorstellungen und technisch fragwürdigen Annahmen, die im Rahmen der Energiewende getroffen wurden, fasst Prof. Harald Schwarz, ein Experte für Energietechnik an der BTU Cottbus-Senftenberg zusammen: „Baut ein Dach drüber, dann ist es eine geschlossene Anstalt.“
Zum Thema kürzlich von Manfred Haferburg und Klaus Humpich erschienen:
Atomenergie – jetzt aber richtig
Das Nachwort stammt von dem Wissenschaftsphilosophen Michael Esfeld. Sie können das Buch hier in unserem Shop bestellen.
Manfred Haferburg wurde 1948 im ostdeutschen Querfurt geboren. Er studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW in Greifswald. Wegen des frechen Absingens von Biermannliedern sowie einiger unbedachter Äußerungen beim Karneval wurde er zum feindlich-negativen Element der DDR ernannt und verbrachte folgerichtig einige Zeit unter der Obhut der Stasi in Hohenschönhausen. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKWs von innen gesehen wie kaum ein anderer. Aber im Dunkeln leuchten kann er immer noch nicht. Als die ehemalige SED als Die Linke in den Bundestag einzog, beging er Bundesrepublikflucht und leckt sich seither im Pariser Exil die Wunden. In seiner Freizeit arbeitet er sich an einer hundertjährigen holländischen Tjalk ab, mit der er auch manchmal segelt. Im KUUUK-Verlag veröffentlichte er seinen auf Tatsachen beruhenden Roman „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.
Der Beitrag erschien zuerst bei ACHGUT hier
Der Beitrag Energiewende im Realitäts-Check: Schlimmer als Russisch Roulette erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wissenschaftliche Betrugs-GmbH
Cap Allon
Wissenschaftliche Veröffentlichungen sind nicht mehr nur von Voreingenommenheit geprägt – sie werden wie ein organisiertes Verbrechen betrieben.
Eine neue Studie deckt auf, wie Betrug industrialisiert wurde, indem Netzwerke aus Redakteuren, Autoren und Vermittlern zusammenarbeiten, um gefälschte Forschungsergebnisse in das System zu pumpen – eine Vorgehensweise, die mittlerweile offen als „Paper Mill“ (Papiermühle) bezeichnet wird.
Die Untersuchung, veröffentlicht in den Proceedings of the National Academy of Sciences zeigt, wie der Betrug in der Praxis funktioniert. Zeitschriften verlassen sich auf Redakteure, die entscheiden, was veröffentlicht wird. Zunehmend genehmigen diese Redakteure jedoch Artikel, die später bei genauer Prüfung zusammenbrechen und zurückgezogen werden müssen. In vielen Fällen arbeiten Gruppen von Redakteuren und Autoren effektiv zusammen – einer genehmigt den Artikel des anderen, und der Gefallen wird erwidert.
Dann gibt es noch die Vermittler: Zwischenhändler, die Stapel von minderwertigen oder gar gefälschten Studien nehmen und sie an Zeitschriften weiterleiten, die bereit sind, darüber hinwegzusehen. Bei PLOS ONE, einer angeblich seriösen „Megazeitschrift”, überwachte ein Redakteur 79 Artikel, von denen 49 schließlich zurückgezogen wurden. Hindawi, ein weiterer großer Open-Access-Verlag, war so überfüllt mit Produkten aus Papierfabriken, dass Wiley (sein Eigentümer) Hunderte von Titeln schließen musste. Und bei Frontiers haben Ermittler gerade ein Netzwerk von 35 Redakteuren und Autoren aufgedeckt, die für mehr als 4.000 zweifelhafte Artikel bei sieben verschiedenen Verlagen verantwortlich sind, von denen 122 bereits zurückgezogen worden sind.
Betrügerische Studien verdoppeln sich laut der Studie alle 18 Monate, was dem Zehnfachen der Wachstumsrate seriöser wissenschaftlicher Arbeiten entspricht. Rücknahmen können da nicht mithalten. Und das geschieht nicht im Verborgenen – Unternehmen wie ARDA in Indien verlangen offen 250 bis 500 Dollar für die Veröffentlichung von Artikeln in „hochrangigen“ Fachzeitschriften und bewerben diesen Service eher wie einen Pay-to-Play-Marktplatz als wie einen wissenschaftlichen Dienst.
Diese bezahlten Studien fließen in Rezensionen und Metaanalysen ein, werden von den Mainstream-Medien zitiert und beeinflussen letztendlich die Politik der Regierungen. In der Medizin verfälscht dies unser Verständnis von Medikamenten und Behandlungen. In der Klimawissenschaft fließt es direkt in globale Programme wie CO₂-Steuern und Netto-Null-Vorgaben ein – politische Maßnahmen, die auf falschen Daten basieren.
Wolfgang Kaltenbrunner von der Universität Leiden stellt fest: „Perverse Anreize, überhöhte Messgrößen, die Kultur des ‚publish or perish‘ [veröffentlichen oder untergehen] und die systemische Toleranz gegenüber schwacher Wissenschaft ermöglichen es den Papierfabriken zu florieren.“
Betrug wurde industrialisiert. Verlage und Geldgeber haben wenig Anreiz, ihn zu unterbinden, da die Maschinerie Schlagzeilen, Fördermittel und Kontrolle generiert. Der Begriff „Konsens“ war schon immer politisch, doch nun wird auch das akademische Gerüst zunehmend gefälscht, auf dem er ruht.
Die gesamte Studie steht hier.
Link: https://electroverse.substack.com/p/new-zealand-resort-revived-noaa-data?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wissenschaftliche Betrugs-GmbH erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Sommer wird in Deutschland erst seit 1988 wieder wärmer – Teil 2
Von Josef Kowatsch, Matthias Baritz
- Zunehmender Wärmeinseleffekt durch Bebauung und Flächenversieglungen, die Zunahme der Sonnenstunden, Trockenlegung der Landschaft und geänderte Großwetterlagen-Häufigkeiten bestimmen die Sommererwärmung seit 1988
- Die Sommererwärmung seit 1988 fand hauptsächlich tagsüber statt.
- Die Klimahysterie basierend auf CO₂ ist völlig unbegründet, ein frei erfundenes Medienereignis.
Teil 1 steht hier.
Der Klimawandel fand ab 1988, im Sommer und vor allem tagsüber statt.
Hauptgründe sind die Zunahme der Sonnenscheindauer und die Zunahme der Strahlungsintensität der Sonne. Auch die Gesetze zur Luftreinhaltung halfen mit.
Abb. 1: Die Sommererwärmung seit 1988 fand vor allem tagsüber statt.
Korrelation zwischen Sonnenstunden und Tmax (Tagestemperaturen)
Abb. 2: Korrelationskoeffizient R = 0,89 bei Tmax. Bei Tmin liegt der K.K. R nur bei 0,58. Was auch zu erwarten war, da Tmin weniger stark steigt als Tavg und Tmax
Merke 1: Da die Sonne im Sommer am stärksten wirkt, ist auch der Einfluss auf die Tagestemperaturen am höchsten, laut Treibhaustheorie müsste es umgekehrt sein
Merke 2: Die starke Zunahme der sommerlichen Temperaturen tagsüber zieht auch den Jahresschnitt der Deutschlanderwärmung seit 1988 stark nach oben.
Andere Einflüsse der Sommer-Klimaerwärmung seit 1988Es kommt auf den Standort und vor allem auf die Veränderung derselben an.
Würde nur CO₂ die Temperaturen bestimmen wie die Treibhauskirche behauptet, dann müsste der Verlauf der Steigungslinien zumindest ab 1988 bei allen Stationen gleich sein!!
Wir bieten hier nun einen kleinen Querschnitt von 5 Wetterstationen quer Beet mit dem Verlauf der Tag/Nachtauswertungen.
Alle Stationen wurden vom DWD im Betrachtungszeitraum versetzt. Das ändert natürlich die Steigungslinien, ist für unsere Zwecke jedoch nicht relevant, da die Versetzung für die drei Temperatur-Betrachtungsparameter gleichzeitig erfolgten. Wir achten viel mehr auf die Steigungsunterschiede bei den wie eine Schere auseinandergehenden Trendlinien zwischen Tag/Nacht.
Beginnen wir mit Konstanz, ganz im Süden:
Grafik 3a: Bodenseenähe, die Zunahme der Sonnenstunden erwärmen auch den Bodensee, so dass die Nächte sich miterwärmen. Geringere Differenz zwischen Tmax/Tmin
.Der Gegensatz: Wetterstation Dachwig in Thüringen, absolut ländlich und trocken gelegte Landschaft
3b: Absolut ländlich in Thüringen, am Tage starke Erwärmung, hohe Differenz zwischen den Steigungsformeln zwischen Tag und Nacht: die Nächte wurden überhaupt nicht wärmer.
Das zeigt auch Nürnberg/Netzstall, absolut ländlich von Wiesen und Wald umgeben.
3c: Die Station wurde vor etwa 20 Jahren vom Ortsrand eines Weilers ganz zu einem Aussiedlerhof verlegt, natürlich alle drei Messparameter gleichzeitig. Die Sommernächte werden deutlich kälter, die Tage deutlich wärmer, ähnlich hohe Steigung wie Dachwig.
Düsseldorf, die Wetterstation am Flughafen:
3d: Hauptstadt von NRW, die sommerlichen Nachttemperaturen zeigen fast gar keine Erwärmung. Die Schere zwischen Tag/Nacht geht wie überall auseinander.
Einschub: Und was behauptet der gut bezahlte Treibhaus-Chefexperte (so nennt er sich selbst) namens Häckl, der bei RTL moderiert?
Nun, das hier:Die Nächte würden sich aufgrund des CO₂-Treibhauseffektes stärker erwärmen. Und das versucht Häckl anhand der CO₂-Rückstrahlung zu erklären. Ein klassischer Schuss in den Ofen. Herr Häckl hätte sich als RTL-Experte wenigstens unsere Sommer-Grafik von Düsseldorf anschauen können.
Was würden Häckls Behauptung bedeuten? Das würde bedeuten, dass sich die Nachttemperaturen bei zunehmender CO₂-Konzentration immer mehr den Tagestemperaturen annähern würden bis es (in 100 Jahren?) schließlich gar keinen Unterschied zwischen Tag/Nacht mehr geben würde!!!
Nur wenn kein CO₂-Erwärmungseffekt wirkt müssen Sonnenstundenzunahme und zunehmende Landschaftstrockenlegung=Versteppung zu einem Öffnen der Trendlinienschere führen. Vergleiche Wüste, höchste Tag/Nachtunterschiede
Inselwetterstation Helgoland, umgeben von der Nordsee, siehe dazu auch diesen Artikel.
Abb. 3e: Der Temperaturverlauf wird viel stärker von der Nordseetemperatur, siehe Abb. 3f, bestimmt. Das sieht man u.a. auch an den Trendgeraden, die zwischen Tmax und Tmin nur knapp 4 Grad (1988) und gut 4 Grad (2024) auseinander liegen. Die Stationen im Landesinneren, Grafik 3a – 3d, haben eine Differenz von über 10 Grad zwischen Tmin und Tmax! Die Sonnenstunden haben auf Helgoland nicht zugenommen, auch deshalb ist der Steigungsverlauf zwischen Tag/Nacht nicht besonders gravierend, aber vorhanden. Das gleiche Verhalten der Temperaturtrendgeraden zeigt sich auch auf den Nordseeinseln Norderney und List auf Sylt. Sogar Arkona auf der Ostseeinsel Rügen zeigt dieses Verhalten.
Abb. 3f: Der Sommer-Temperaturverlauf der Inselwetterstationen wird viel stärker von der Nordseetemperatur bestimmt. Beachte, auch die Nordseetemperatur stieg seit 1988 ähnlich wie bei der DWD-Wetterstation Helgoland an, siehe Korrelations-Koeffizient, R = 0,95
Ergebnisse der Tag/NachtvergleicheDie starke Sommererwärmung seit 1988 fand in Deutschland tagsüber statt. Das beweist den Einfluss der zunehmenden Wärmeinselwirkung, aber auch der Sonnenstunden. Andere Faktoren sind teilweise Bestandteil der Wärmeinselwirkung und bedingen sich gegenseitig wie Niederschläge, Windrichtungen, Änderung der Großwetterlagen, Luftreinhaltemaßnahmen, kosmische Strahlung, Bebauung, Trockenlegungen, örtliche Klimabesonderheiten.
Die Sommererwärmung tagsüber und der Herbstmonate sind der Hauptgrund, weshalb die DWD-Jahresschnitte wieder wärmer werden seit 1988 und nicht ein Klimakiller Kohlendioxid, denn sonst müssten die Nächte laut Häckl stärker wärmer werden.
Merke: Die Gesamtjahreserwärmung Deutschlands fand hauptsächlich tagsüber im Sommer bis in den Herbst hinein statt.
Erkenntnis zu CO₂: Freispruch
- Der völlig unterschiedliche Verlauf der Tag/Nachtemperaturen in Deutschland zeigt, dass CO₂ überhaupt keine oder fast keine Wirkung hat.
- Würde wie behauptet, Kohlendioxid der alleinige Temperaturtreiber sein, dann müssten bei allen DWD-Wetterstationen der Verlauf der Tages- und Nachttemperaturen dieselben Steigungsformeln aufweisen.
- Alle, das bedeutet streng genommen, dass alle hier gezeigten DWD Stationen ein- und dieselbe Steigungsformeln für Tag/Nacht und für den Schnitt (brauner Graph) haben müssten, nämlich Y= 0,0495 C/Jahr, wie in Grafik 1
Das ist überhaupt nicht der Fall. Jede DWD-Wetterstation hat je nach Standortverhältnissen und Umgebung ihren eigenen Verlauf mit einer eigenen Steigungsformel, dazu auch noch Tag/Nacht unterschiedlich. Dieser Grafikbeweis zeigt erneut, dass CO₂ allerhöchstens in homöopathischen Dosen wirken kann. Eventuell auch kühlend.
Gesamt: Das Klima wandelt sich immer, der stets verschiedene Sommer-steigungsverlauf der einzelnen DWD-Wetterstationen zeigt: CO₂ hat daran keinen erkennbaren Anteil
Zusammenfassung:1.) Die Sommertemperaturen variieren an allen Betrachtungsorten Deutschlands von Jahr zu Jahr. Die Gründe sind die unzähligen natürlichen und sich ständig ändernden Einflüsse auf das Wetter und das Klima.
2.) Daneben übt der Mensch einen konstanten zusätzlichen Einfluss durch die Schaffung immer neuer zusätzlicher Wärmeinseleffekte aus. Bei manchen Stationen mehr, bei anderen weniger. Deshalb auch die unterschiedlichen Formeln der Regressionslinien.
3.) Weniger Nord-, dafür mehr Süd- und Hochdruckwetterlagen tragen ganz wesentlich zum Durchschnittstemperatur eines Monates bei. Es handelt sich um natürliche Einflussfaktoren auf das Wetter und Klima. Und die haben sich 1988 geändert.
4.) Wie die Grafiken zeigen, bewirkt die jährlich weltweite CO₂-Zunahme entweder gar nichts oder nichts Erkennbares, denn sonst könnten die Nachttemperaturen nicht fallen. CO₂ kann am Tage auch im Sommer nicht erwärmend und nachts abkühlend wirken.
Damit ist die Definition des IPPC von Klimawandel falsch: Die behauptet nämlich, dass die CO₂-Zunahme der alleinige Temperaturtreiber wäre. Noch verwerflicher ist die derzeitige Klimapolitik der Bundesregierung, die ein klimaunwirksames, aber lebensnotwendiges Gas bekämpfen will und dabei unsere Demokratie, unsere Wirtschaft und unseren Wohlstand ruiniert. Das Geschäftsmodell CO₂-Treibhausgas will nur unser Geld, hier näher beschrieben.
Fazit: Es wird Zeit, dass endlich Umwelt- und Naturschutz in den Mittelpunkt des politischen Handelns gerückt werden, saubere Luft, genügend Trinkwasser zu verträgliche Preisen und gesunde Nahrungsmittel sind menschliche Grundrechte. Eine CO₂-Klimaabgabe taugt zu gar nichts, auf alle Fälle nicht dem Klima. Es handelt sich um ein Geschäftsmodell, das dem Sündenablasshandelsmodell der Kirche im Mittelalter nachempfunden ist. Neben den oben beschriebenen Gründen, abgeleitet aus den Grafiken, weshalb CO₂ nicht an der gemessenen Sommer-Erwärmung seit 1988 schuld sein kann, sollen noch fünf weitere Gründe genannt werden:
- Es gibt keinen Versuch, der die Klimasensitivität von CO₂ auch nur annähernd bestimmen kann. Behauptet werden 2° bis 4,5°C Erwärmung. Jeder Versuch liefert Null oder das Ergebnis verschwindet im Rauschen der Messfehler.
- Es gibt auch keinerlei technisches Anwendungsbeispiel, bei welchem wir Menschen uns den behaupteten CO₂-Treibhauseffekt positiv zunutze machen könnten.
- Bei der Sprengung der Nordstream-Pipeline entwichen 300 000 Tonnen des 25x stärkeren Treibhausgases Methan. Erhöhte Konzentrationen konnten gemessen werden, die dazugehörige Treibhauserwärmung gab es nicht.
- Schon bei der Elite der deutschen Physiker wie Einstein, Heisenberg, Hahn, Planck spielte der CO₂-Treibhauseffekt keine Rolle. Er existierte für sie schlichtweg nicht, obwohl die Hypothese dazu schon Jahrzehnte zuvor entwickelte wurde.
- Wir sind weit entfernt von einer bevorstehenden Klimakatastrophe oder gar Klimaverbrennung der Erde. Alles Angstgeschrei vom Untergang der Erde ist frei erfunden, unglaublich, dass unsere Medien nicht nur mitmachen, sondern meist noch zusätzlich übertreiben. Folgende Grafik sollte auf alle Leser beruhigend wirken:
Abb. 4: Einordnung der gegenwärtigen Temperaturen, Vergleich mit anderen Zeitepochen. Von einer Klimakatastrophe oder Erdverbrennung sind wir weit entfernt. Das Klima ist völlig normal und nicht außer Kontrolle.
Der minimale Anstieg der globalen Temperaturen lässt sich leicht mit einer Albedoverringerung der Erdoberfläche in den letzten Jahrzehnten erklären, gemessen von Satelliten. Eben eine stete weltweite Beseitigung grüner Vegetationsflächen, eine stete Zunahme der weltweiten Flächenversiegelungen.
Fazit: Der Klimawandel begann in Deutschland 1987/88. Es wurde angenehm wärmer. Aber nicht durch Kohlendioxid.
Grundforderung von uns Natur- und Umweltschützern: Die bewusst geplante und regierungsgewollte CO₂-Klimaangstmacherei in Deutschland muss eingestellt werden. Man will nur unser Geld. Das Klima der Welt könnte eh nicht von Deutschland aus gerettet werden.
Was gegen heiße Sommertage hilft haben wir hier beschrieben.
Leider werden diese Vorschläge, die wirklich helfen würden nicht umgesetzt, die Regierungsresonanz auf unsere Vorschläge war Null, obwohl wir viele Politiker angeschrieben haben. Daraus kann man nur den Schluss ziehen, die Regierung mitsamt ihren bezahlten Treibhausforschern und Angstmachern wollen gar keine Eindämmung der heißen Tage, dies würde die CO₂-Steuer und all die anderen dämlichen und teuren Klimarettungsmaßnahmen gefährden.
Wir brauchen mehr CO₂ in der Atmosphäre
Eine positive Eigenschaft hat die CO₂-Zunahme in der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Diesen lebensnotwendigen Wachstumsstoff holen sich die Pflanzen aus der Luft. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt bei 800 bis 1000ppm. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Wer CO₂ vermindern will, der handelt letztlich gegen die Schöpfung dieses Planeten.
Zusatz: Wer an CO₂ als anthropogenen Erwärmungstreiber glaubt, der muss auch von seiner Mitschuld an der Erwärmung seit 1988 überzeugt sein und ein schlechtes Gewissen haben. Abhilfe: solche Gläubige können sich hier ihr Gewissen durch eine monatliche Kollekte an die Kirchen beruhigen.
Josef Kowatsch, Naturschützer und unabhängiger, weil unbezahlter Klimaforscher
Matthias Baritz, Naturschützer und neutraler Naturwissenschaftler.
Der Beitrag Der Sommer wird in Deutschland erst seit 1988 wieder wärmer – Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Gewächshäuser zahlen den Preis für die Dämonisierung von „Treibhausgasen“
Die Zeit der hypothetischen Warnungen vor den Kosten grüner Politik ist vorbei. Wir sind nun in die brutale Phase eingetreten, in der wir mit empirischen Daten über die wirtschaftlichen Verwüstungen berichten, welche die törichte Agenda der „Dekarbonisierung“ hinterlassen hat. Das jüngste Beispiel in dieser Galerie des Untergangs ist Neuseeland, wo der sogenannte „grüne“ Wandel gerade ein Opfer gefordert hat: die Gewächshausbauern der nationalen Lebensmittelproduktion.
Gewächshäuser bestehen in der Regel aus Glas oder Kunststoff und werden für den Anbau von Pflanzen in Innenräumen genutzt. Sie ermöglichen es den Erzeugern, Parameter wie Temperatur und Luftfeuchtigkeit zu kontrollieren, so dass das ganze Jahr über Gemüse, Obst und Blumen angebaut werden können. Zu den gängigen Nutzpflanzen zählen Tomaten, Gurken und Salat. Da Kohlendioxid ein Pflanzennährstoff ist, wird seine Konzentration in Gewächshäusern manchmal erhöht, um das Wachstum zu beschleunigen.
All dies erfordert viel Energie, wodurch Gewächshäuser anfällig für Klimasteuern auf Kohlendioxidemissionen und Verbote von Kohlenwasserstoffen sind, welche die Brennstoff- und Strompreise in die Höhe treiben.
Die Politik der Regierung hat die Erdgaspreise für Simon Watson von NZ Hothouse, einen seit 25 Jahren in South Auckland tätigen Tomatenproduzenten verdreifacht, der sagt, dass die Grundlage seines Geschäfts bröckelt.
„Vor 25 Jahren war Gas reichlich vorhanden und uns wurde gesagt, dass es ewig reichen würde“, sagte Watson. „Es war eine wunderbare Sache.“
Aber die guten Zeiten sind vorbei. Die Erdgasvorräte gehen zur Neige, und steigende Kosten drohen den gesamten Betrieb zu zerstören und Hunderte von Arbeitnehmern in ihre Existenzkrise zu stürzen. Watsons zwei Anlagen machen etwa 10 % der 500 Hektar großen Gewächshausfläche Neuseelands im Norden der Nordinsel aus. Er geht davon aus, dass viele Betriebe zurückstecken oder schließen müssen, weil sie sich das Gas nicht mehr leisten können.
Erdgas wird nicht nur in Gewächshäusern verwendet. Watson weist darauf hin, dass 80 % bis 90 % der Supermarktprodukte – von Fleisch und Milchprodukten bis hin zu zuckerhaltigen Getränken und Spirituosen – gasintensive Verfahren erfordern. Der Rückgang der Erdgasreserven treibt die Preise in die Höhe. Die Regierung und die Energiebranche haben neun Monate Zeit, um eine Lösung zu finden, bevor der hohe Energiebedarf des nächsten Winters die Situation katastrophal macht.
Selbstverschuldete EnergiekostenDie Gaskrise in Neuseeland begann 2018 mit einem Verbot neuer Genehmigungen für Offshore-Explorationen in der Region Taranaki, wodurch das Wachstum der Öl- und Gasproduktion eingeschränkt wurde. Der Energiesektor, der in der Vergangenheit einen bedeutenden Beitrag zur neuseeländischen Wirtschaft geleistet hat, sah sich mit rückläufigen Investitionen und Explorationsaktivitäten konfrontiert, was die heimische Gasproduktion behinderte.
Nachdem die Regierung kürzlich ihr Verbot von Genehmigungen aufgehoben hatte, hat sie nun 200 Millionen Dollar für die Offshore-Gasförderung bereitgestellt. Ebenso hat sich Neuseeland aus einer internationalen Gruppe zurückgezogen, die sich für den Ausstieg aus fossilen Brennstoffen einsetzt, was einen Rückzug aus seiner Klimapolitik signalisiert. Es wird jedoch eine Weile dauern, bis diese Veränderungen Ergebnisse zeigen, so dass die Unternehmen weiterhin in der Schwebe bleiben.
Bedrohung der globalen LandwirtschaftDiese künstlich herbeigeführte Krise offenbart die wahren Kosten des klimapolitischen Tugendwahns – nicht nur in Neuseeland, sondern weltweit, wo ähnliche Maßnahmen dem Agrarsektor schaden.
Kanadische Gewächshausbauern müssen Kohlenstoffsteuern zahlen, die bis zu 40 % ihrer Energiekosten ausmachen. Hinzu kommen die Kohlenstoffsteuern, die Kanadier beim Kauf von Kraftstoff, Strom und Lebensmitteln entrichten müssen.
Die Landwirtschaft zählt zu den weltweit am stärksten von fossilen Brennstoffen abhängigen Branchen und ist daher besonders anfällig für die negativen Auswirkungen einer schlechten Energiepolitik. Dieselkraftstoff treibt Maschinen an, Propangas versorgt Getreidetrockner und beheizt Scheunen. Stickstoffdünger, Herbizide und Insektizide werden aus Erdgas und Ölnebenprodukten synthetisiert.
Die größte Ironie besteht darin, dass das von Klimaaktivisten verteufelte CO2 die Photosynthese fördert und die landwirtschaftliche Produktivität steigert.
Die selbstverschuldeten Schäden der „Dekarbonisierung“ sind kein Zufall, sondern beabsichtigt – ein Mittel, um eine Verringerung des Energieverbrauchs zu erzwingen und damit einer perversen, menschenfeindlichen Ideologie zu dienen, die eine apokalyptische Vision predigt, die weder wissenschaftlich noch mit gesundem Menschenverstand zu begründen ist. Die Frage ist, ob die Gesellschaften diesen Weg in die Zerstörung erkennen werden, bevor es zu spät ist, um noch umzukehren.
This commentary was first published at PJ Media September 9.
Link: https://cornwallalliance.org/greenhouses-pay-the-costs-of-demonizing-greenhouse-gas/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Gewächshäuser zahlen den Preis für die Dämonisierung von „Treibhausgasen“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Windstrom war zwei Tage lang nicht vorhanden, tauchte aber wieder auf, als er nicht gebraucht wurde
Parker Gallant Energy Perspectives
Wie zwei heiße Tage in letzter Zeit (15. und 16. August) deutlich gezeigt haben, tauchen diese IWK (industriellen Windkraftanlagen) nicht auf, wenn sie tatsächlich benötigt werden!
Die Unfähigkeit dieser IWK, tatsächlich Strom zu erzeugen, wenn dieser [in Ontario, Kanada] benötigt wird, wurde klar demonstriert, doch dann, gestern (17. August 2025)[Erläuterung der Tabelle, Nennleistung zu tatsächlich bereitgestellter Leistung], als die Temperaturen in der Provinz kühler wurden und die Stromnachfrage zurückging, tauchten sie plötzlich wieder auf!
[IESO Independent Electricity System Operator, Headquarter in Toronto]
Über den ganzen Tag hinweg konnten die IWK 41.177 MWh erzeugen, also 35 % ihrer Nennkapazität, gegenüber nur 6,7 % am 16. August und 9 % am 17. August! Infolgedessen verkaufte IESO den ganzen Tag über überschüssigen und nicht benötigten Strom zu einem viel niedrigeren Preis an unsere Nachbarn, als hiesigen Verbraucher belastet bekommen.
Die Nettoexporte lagen den ganzen Tag über bei 74.285 MWh (was über 2,5 Millionen Haushalte in Ontario täglich verbrauchen). Der niedrigste Wert wurde in Stunde 8 mit 2.354 MWh und der höchste in Stunde 20 mit 3.958 MWh exportiert! Diese Entwicklung erscheint merkwürdig, da Stunde 20 nahe am Tageshöchstbedarf von 19.103 MW (Stunde 18) lag und mit 18.516 MW etwas darunter lag! Offenbar hat derjenige, der für die Nachfragesteuerung zuständig war, aus unerfindlichen Gründen die Gasproduktion hochgefahren, obwohl die Nachfrage sank und der Wind wehte!
Vielleicht teilt IESO Auszubildende den Wochenendschichten zu, ohne sich Sorgen darüber zu machen, dass damit unsere Stromkosten in die Höhe getrieben werden?
Dies scheint auf dem durchschnittlichen „Day Ahead Hourly Ontario Zonal Energy Price Report “ für den Tag zu beruhen, an dem diese Nettoexporte von 74.286 MWh für durchschnittlich etwa 59 $/MWh oder fast 6 Cent/kWh verkauft wurden, was weit unter dem Durchschnittspreis liegt, den wir als Stromzahler in Ontario zahlen müssen! Wieder einmal waren wir gezwungen, Millionen von Dollar für nicht benötigte und verschwenderische erneuerbare Energie zu bezahlen!
Die gesamte Stromerzeugung der IWK, zusammen mit anderen erneuerbaren Energien wie Solarenergie (708 MWh), Biomasse (116 MWh) und Biomasse-Energiespeichern (35 MWh), belief sich über den Tag auf 42.036 MW nicht benötigte Energie! Diese Energie wurde nicht benötigt und treibt unsere Stromkosten weiter in die Höhe!
Abschluss:
Wir Gebühren- und Steuerzahler in Ontario sollten uns alle fragen, warum IESO und unser Energie- und Bergbauminister Stephen Lecce das Offensichtliche ignorieren und den Schaden nicht erkennen, den sie anrichten, indem sie nicht nur die auslaufenden IWK-Verträge verlängern, sondern auch planen, weitere hinzuzufügen!
Millionen unserer Dollars werden für diese unzuverlässigen und unregelmäßigen Energiequellen verschwendet, was unsere Stromkosten in die Höhe treibt, Ontario für unsere bestehende Industriebasis unattraktiv macht und unsere Fähigkeit beeinträchtigt, neue, arbeitsplatzschaffende Unternehmen anzuziehen!
Der Plan von Minister Lecce, Ontario zu einer Energie-„Supermacht“ zu machen, scheint ein „überflüssiges“ Ziel zu sein!
***
Ergänzung: Stromtarife des IESO
Nutzungszeit
Privatpersonen und kleine Unternehmen zahlen standardmäßig zeitabhängige Tarife. Das bedeutet, dass sie einen höheren Preis zahlen, wenn die Stromerzeugung teurer ist (Spitzenzeiten), und einen niedrigeren Preis, wenn die Stromerzeugung günstiger ist (Nebenzeiten). Im Herbst und Winter sind die Spitzenzeiten in der Regel morgens und abends, wenn Licht und Heizung am dringendsten benötigt werden. Im Frühling und Sommer hingegen sind die Spitzenzeiten meist mitten am Tag, wenn die Sonne am stärksten scheint und die Klimaanlagen am häufigsten genutzt werden.
Wie bei den Time-of-Use-Tarifen können Verbraucher in Ontario auch Ultra-Low Overnight (ULO)-Tarife wählen, die eine andere Tarifstruktur und einen extrem niedrigen Übernachttarif im Austausch für einen höheren Tarif während der Spitzenzeiten bieten.
Weitere Informationen zu zeitabhängigen Tarifen finden Sie auf der OEB.
Abgestuft
Privatkunden und kleine Unternehmen können auf Staffelpreise umsteigen und zahlen einen festen Preis pro Kilowattstunde (kWh) für ihren Stromverbrauch bis zu einer bestimmten Menge. Bei einem höheren Verbrauch erhöht sich der Preis pro kWh.
Weitere Informationen zu Staffelpreisen finden Sie auf der Website der OEB.
Der Beitrag Windstrom war zwei Tage lang nicht vorhanden, tauchte aber wieder auf, als er nicht gebraucht wurde erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Inselnationen dehnen sich aus und „versinken nicht im Meer“
H. Sterling Burnett
Die Zeitung „The Independent“ veröffentlichte einen Artikel mit der Behauptung, dass mehrere kleine Inselstaaten im Meer versinken, wodurch ihre Existenz als Nationen bedroht ist und ihre Bevölkerung in der Luft hängt. Daten zeigen, dass dies schlichtweg falsch ist. Trotz eines moderaten Anstiegs des Meeresspiegels haben die Inselstaaten, von denen „The Independent“ spricht, trotz des moderaten Klimawandels an Größe, Bevölkerung und Wohlstand gewonnen. Es gibt keine realen Daten, die darauf hindeuten, dass die Ozeane diese Länder überschwemmen werden.
„Kleine Inselstaaten wie Tuvalu, Kiribati, die Malediven und die Marshallinseln sind besonders anfällig für den Klimawandel“, behauptet The Independent in seinem Artikel „Diese Länder versinken im Meer. Was passiert, wenn sie für immer verschwinden?“ „Steigende Meeresspiegel, stärkere Stürme, Süßwasserknappheit und beschädigte Infrastruktur bedrohen ihre Lebensfähigkeit.
Einige Inseln stehen sogar vor der düsteren Aussicht, aufgegeben zu werden oder im Meer zu versinken“, fährt The Independent fort. „Dies wirft eine beispiellose rechtliche Frage auf: Können diese kleinen Inselstaaten noch als Staaten betrachtet werden, wenn ihr Land verschwindet?“
Während Fragen des Völkerrechts hinsichtlich des Status von Nationen und ihren Völkern, sollte ein Land aufhören zu existieren, außerhalb des Verständnisses von Climate Realism liegen, deuten Daten darauf hin, dass die Bevölkerungen dieser Nationen keine Angst um den Fortbestand ihrer Inseln oder damit um die Auflösung ihrer Nation und nationalen Identität haben müssen.
Wiederholte Studien zeigen, dass jede der in dem Artikel erwähnten Inselstaaten tatsächlich an Größe zunimmt und nicht im Meer versinkt. Darüber hinaus deuten die Maßnahmen ihrer Regierungen und privaten Unternehmen, wie der Ausbau der Infrastruktur und die Förderung der wirtschaftlichen Entwicklung, darauf hin, dass sie davon ausgehen, dass die Inseln auch bei einem moderaten Anstieg des Meeresspiegels weiter bestehen und prosperieren werden.
Climate at a Glance: Islands and Sea Level Rise zitiert mehrere von Fachkollegen begutachtete Berichte, die frühere Behauptungen widerlegen, dass Inseln wie Tuvalu, Kiribati, die Malediven und die Marshallinseln an Fläche verlieren. Tatsächlich haben sich alle diese Nationen aufgrund einer Zunahme der Höhe, einer Anlandung entlang ihrer Küsten durch Sandablagerungen oder beidem vergrößert. Eine kürzlich durchgeführte, von Fachkollegen begutachtete Studie hat beispielsweise ergeben, dass acht der neun großen Korallenatolle Tuvalus in den letzten Jahrzehnten an Größe zugenommen haben und dass auch 75 Prozent der 101 kleineren Riffinseln des Inselstaates gewachsen sind.
Was die Malediven betrifft, so behauptete die Canberra Times vor 30 Jahren, dass alle 1196 Inseln der Malediven inzwischen vollständig unter Wasser stehen könnten. Nicht nur, dass alle 1196 Inseln noch vorhanden sind, sondern die Bevölkerung der Malediven hat sich in den letzten 20 Jahren sogar verdoppelt. Die Menschen strömen auf die Malediven, statt von dort zu fliehen. Man nimmt dort auch politische Flüchtlinge auf, statt Klimaflüchtlinge hervorzubringen.
Tatsächlich haben Wissenschaftler der Universität Auckland festgestellt, dass Korallenatolle in den Pazifikstaaten Marshallinseln, Kiribati und den Malediven im Indischen Ozean ihre Landfläche in den letzten 60 Jahren um 8 bis 10 Prozent vergrößert haben.
Nature sowie GeoScience World und Phys.org veröffentlichte oder zitierte Studien erklären die Prozesse, die es so vielen Inselstaaten, die laut Klimapessimisten unter den Wellen verschwinden sollen, ermöglicht haben, nicht nur mit dem Anstieg des Meeresspiegels Schritt zu halten, sondern sogar Land zu gewinnen.
Climate Realism hat eine Reihe von Artikeln des Inhalts veröffentlicht, dass es keine durch den Klimawandel verursachte Flüchtlingswelle aus diesen Ländern gibt, da verschiedene Inselstaaten nicht tatsächlich weggespült werden, sondern vielmehr an Größe zunehmen, zum Beispiel hier sowie hier und hier.
Angesichts der wachsenden Bevölkerung und des zunehmenden Tourismus‘ haben alle Inselstaaten, die laut The Independent vom Klimawandel bedroht sind und möglicherweise verschwinden oder sich auflösen könnten, in den letzten Jahren ihre Infrastruktur ausgebaut und langfristige, groß angelegte Investitionen auf ihren Inseln getätigt. Sie verfügen über neue Hotels, Wasseraufbereitungsanlagen, Tourismuszentren sowie öffentliche Gebäude und Straßen.
Auf einer Klimakonferenz 2019 in Bonn sagte beispielsweise der Präsident von Kiribati Anote Tong „Der Klimawandel ist in der Tat ein ernstes Problem, aber wir glauben nicht, dass Kiribati wie die Titanic untergehen wird.“ Im selben Videobericht wies Tong darauf hin, dass ausländische Investoren dabei seien, „5-Sterne-Öko-Resorts zu entwickeln, die Weltklasse-Erlebnisse beim Tauchen, Angeln und Surfen bieten würden“, und zwar auf derzeit unbewohnten Inseln.
Es ist kaum zu glauben, dass Regierungen und gewinnorientierte Unternehmen langfristige Investitionen in Höhe von mehreren Milliarden Dollar tätigen sowie Gebäude und die dazugehörige Infrastruktur errichten würden, wenn sie davon ausgehen würden, dass alles weggespült wird, bevor sie ihre Kredite zurückzahlen können, geschweige denn Gewinne erzielen.
The Independent zeigte wenig journalistische Neugier oder unabhängiges Denken, als es diese falsche Geschichte über durch den Klimawandel verschwindende Inselstaaten veröffentlichte. Eine einfache Faktenprüfung durch die Redaktion der Zeitung hätte deren Veröffentlichung verhindert oder zumindest die Autoren gezwungen, sie radikal umzuschreiben und Autoren der Studien zu zitieren, die das Wachstum der Inseln belegen – aber wen interessiert schon die Wahrheit, wenn es eine gute, beängstigende Geschichte zu erzählen gibt. Offensichtlich nicht The Independent.
H. Sterling Burnett, Ph.D., is the Director of the Arthur B. Robinson Center on Climate and Environmental Policy and the managing editor of Environment & Climate News. In addition to directing The Heartland Institute’s Arthur B. Robinson Center on Climate and Environmental Policy, Burnett puts Environment & Climate News together, is the editor of Heartland’s Climate Change Weekly email, and the host of the Environment & Climate News Podcast.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Inselnationen dehnen sich aus und „versinken <em>nicht</em> im Meer“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
CO₂ lässt die Erde ergrünen
CO₂Coalition
An: Bruno Telemans
Yewon Sung,
FAO Headquarters,
Viale delle Terme di Caracalla 00153 Rome, Italy
Hallo Bruno Telemans, Yewon Sung,
Vielen Dank für Ihr höfliches Ablehnungsschreiben zu unserem Antrag auf eine Nebenveranstaltung im Rahmen der FAO-Weltkonferenz zur nachhaltigen Transformation der Viehzucht. Wir hatten Ihnen einen Vorschlag für eine Parallelveranstaltung unterbreitet, in der Hoffnung, dass die neuesten wissenschaftlichen Forschungsergebnisse auf positive Resonanz stoßen würden, insbesondere angesichts der kürzlich in Nature erschienenen Veröffentlichung „The Other Climate Crisis“ (Die andere Klimakrise). Dieser Artikel identifizierte erhebliche regionale Diskrepanzen zwischen umfassenden Klimamodellvorhersagen und den Beobachtungsdaten, mit vielen Überraschungen, bei denen die Klimasignale das Gegenteil von dem waren, was erwartet wurde [1]. Dies führt zu der unvermeidlichen Schlussfolgerung, dass die heutige Klimawissenschaft noch lange nicht ausgereift ist und dass die Realität viel positiver ist als in der Öffentlichkeit wahrgenommen wird.
Wir müssen Sie daran erinnern, dass die Wissenschaft nach der Wahrheit sucht und dass die Wahrheit mit wissenschaftlichen Methoden entdeckt wird und nicht durch Abstimmungen oder Konsens erzielt wird. Deshalb können wir nicht umhin, Sie daran zu erinnern, dass die Fragen des Klimawandels, der angeblich ausschließlich auf anthropogene Treibhausgasemissionen zurückzuführen ist, und des angeblichen Einflusses der Viehzucht auf dieses Phänomen wichtige wissenschaftliche Fragen sind, die es verdienen, weiterhin grundlegend und angewandt erforscht zu werden. Wir verweisen Sie auf die beigefügte aktuelle Veröffentlichung der Professoren Lindzen und Happer [2] sowie auf den Anhang zu diesem Schreiben. Die neuesten Ergebnisse der Klimaforschung können einfach nicht ignoriert werden.
Wissenschaft war zu keinem Zeitpunkt eine Frage der Mehrheitsmeinung oder gar von oben herab getroffenen Entscheidungen durch Justizbehörden. Wir sehen, dass die FAO Gefahr läuft, sich auf der falschen Seite der Geschichte wiederzufinden, wenn sie den freien wissenschaftlichen Diskurs auf unethische Weise unterdrückt.
Wir empfehlen daher nachdrücklich, dass die FAO zu ihrem ursprünglichen Auftrag zurückkehrt, Hunger, Ernährungsunsicherheit und Unterernährung zu beseitigen, Armut zu bekämpfen und den wirtschaftlichen Fortschritt für alle voranzutreiben, basierend auf den neuesten objektiven Klimaforschungsergebnissen.
Mit freundlichen Grüßen
Gregory Wrightstone, Executive Director, CO₂ Coalition, Begutachter des IPCC-AR6
Guus Berkhout, Präsident der Clintel Foundation
Albrecht Glatzle, Asociación Rural del Paraguay
2677 PROSPERITY AVENUE, SUITE 300 • FAIRFAX, VA 22031 • WWW.CO₂COALITION.ORG
James Ferguson, VMD, MS, MAR, ACT, ACVN, emeritierter Professor der
Pennsylvania University, Fakultät für Veterinärmedizin
Jim O’Brien, Vorsitzender des Irish Climate Science Forum, Fachgutachter des IPCC-AR6
Donal O’Callaghan, B.E. (Elektrotechnik), PhD
William Happer, emeritierter Professor der Fakultät für Physik der Princeton University
William van Wijngaarden, Professor für Physik, York University, Kanada
Blanca Parga Landa, Foro Iberoamericano Clima y Energía
Camino Limia, Präsident der World Association of Sustainable Livestock
Alfred Fast, Präsident der Federación de Cooperativas de Producción, Paraguay
cc. QU Dongyu, Thanawat Tiensin ,Timothy Robinson, Ermias Kebreab, Michelle Cain, Jun Murase, Ariella Glinni
Anhang: Fünf Kritikpunkte an der auf Treibhausgasen basierenden Klimadiskussion und der Vorstellung, dass Viehhaltung ein Hauptverursacher sein könnte 1) Die Klimageschichte zeigt, dass Kohlendioxid nicht der Haupttreiber des Klimawandels ist.Die starke Korrelation zwischen Temperatur und CO₂ in den letzten Millionen Jahren (bestätigt durch Eisbohrkerne aus der Antarktis aus der späten Pleistozän-Epoche) mit ihren abwechselnden Eiszeiten und wärmeren Zwischeneiszeiten wurde zunächst von der Wissenschaft und von Al Gore in seinem Film „Eine unbequeme Wahrheit“ aus dem Jahr 2006 fälschlicherweise als Ursache-Wirkungs-Zusammenhang interpretiert. Tatsächlich ging jedoch die Temperaturänderung der Änderung der CO₂-Konzentration voraus. Daher verursachte CO₂ keine Temperaturveränderung, sondern umgekehrt: Abkühlende Ozeane lösten CO₂ aus der Atmosphäre und banden es, um es bei steigender Temperatur wieder freizusetzen.
Darüber hinaus gab es während des Holozäns (die letzten 10.000 Jahre, größtenteils vorindustriell), das durch niedrige CO₂-Werte gekennzeichnet war, Warmzeiten wie die mittelalterliche Warmzeit, in der die Wikinger in Grönland Ackerbau und Viehzucht betrieben; die römische Warmzeit, in der Hannibal mit seinen Elefanten die fast eisfreien Alpen überquerte, und das Holozän-Klimaoptimum, in dem Bäume weit über der heutigen Baumgrenze der Berge auf der ganzen Welt wuchsen.
2) Das Treibhauspotenzial von Treibhausgasen wurde allgemein überschätzt.In den letzten zwei Jahrzehnten haben zahlreiche Grundlagenforschungen gezeigt, dass die Erwärmungseffekte von Treibhausgasen (Wasserdampf, H₂O; CO₂; Methan, CH₄; und Lachgas, N₂O) in der realen Atmosphäre geringer sind als von den IPCC-Modellen vorhergesagt [3,4,5,6]. Die IPCC-Modelle (die auch im Pariser Abkommen enthalten sind) reflektieren nicht die Realität, sondern überschätzen das Erwärmungspotenzial von Treibhausgasen. Sie berücksichtigen nicht:
(i) den logarithmischen Rückgang der Erwärmungskapazität einer bestimmten Menge an Treibhausgasen, die der realen Atmosphäre hinzugefügt werden, wenn die Treibhausgaskonzentration steigt, und
(ii) die thermostatische Rolle von Wasser in der Atmosphäre, das leicht zwischen Phasen mit völlig unterschiedlichen Strahlungseigenschaften wechselt, z. B. Wasserdampf als Treibhausgas (etwa 75-mal so reichlich vorhanden wie CO₂) einerseits und Wolken als primärer Kühlstoff durch Sonnenlichtreflexion andererseits [7]. Darüber hinaus ist zu beachten, dass alle IPCC-Modelle die gleiche konzeptionelle Entwicklung wie das Modell von Syukuro Manabe aufweisen. Eine Analyse der Fehler im Modell von Syukuro Manabe findet sich in [8].
3) Die Dynamik der Treibhausgase wird oft außer Acht gelassen.Alle landwirtschaftlichen Treibhausgase sind Teil natürlicher Kreisläufe, und was zählt, ist nicht die emittierte Menge (wie in den nationalen Treibhausgasinventaren geschätzt und dokumentiert), sondern vielmehr die Konzentration in der Luft, die das Ergebnis eines stationären Gleichgewichts zwischen Quellen und Senken ist [5,9]. Alle Ökosysteme im Gleichgewicht, von der Wüste bis zum tropischen Regenwald, emittieren im Durchschnitt über die Jahre hinweg genauso viel CO₂, wie sie binden – der schnelle Kohlenstoffkreislauf [10]. Nur etwa die Hälfte der gesamten zusätzlichen CO₂-Emissionen der Menschheit (z. B. aus fossilen Brennstoffen, Entwaldung und Zementproduktion) ist noch in der Atmosphäre vorhanden.
Es ist eine grundlegend falsche Annahme im Pariser Abkommen, dass es einen direkten Zusammenhang zwischen CO₂-Emissionen und Temperaturanstieg gibt. Darüber hinaus gibt es keine definierte oder ideale vorindustrielle Temperatur, wie sie der IPCC suggeriert (dessen klimatologische Weltanschauung um 1750 beginnt, also mitten in der Kleinen Eiszeit).
4) Zusätzliches CO₂ hat positive Auswirkungen auf die Natur und die globale Ernährungssicherheit.Der Anstieg der CO₂-Konzentration in der Atmosphäre von ~ 0,03 % auf ~ 0,04 % seit Beginn der Industrialisierung hat sich ausschließlich positiv auf die Natur, die Landwirtschaft und die globale Ernährungssicherheit ausgewirkt [11], wie folgende Punkte zeigen:
(i) eine erhöhte globale Bruttoprimärproduktion [12], ein höherer Blattflächenindex [13] und eine verbesserte Wassernutzungseffizienz [14], die in erster Linie auf den Anstieg des CO₂-Düngungseffekts zurückzuführen sind. Weitere Faktoren, welche die Ernteerträge in den letzten 200 Jahren beeinflusst haben, sind Pflanzenzüchtung, Pflanzenschutzmaßnahmen, vermehrter und effizienterer Einsatz von (Stickstoff-)Düngemitteln, verbesserte Anbau- und Ernteverfahren sowie längere Vegetationsperioden.
(ii) Die Vegetationsdecke auf eisfreien Landflächen hat zugenommen. Infolgedessen hat der Anteil des kahlen Bodens abgenommen [15] und die Erde ist insbesondere in trockeneren Gebieten grüner geworden [16].
Es ist erstaunlich, dass diese gute Nachricht (die für niemanden überraschend ist, der mit Liebigs Gesetz des Minimums und der Tatsache vertraut ist, dass CO₂ die einzige Kohlenstoffquelle für alles Leben durch Photosynthese und Nahrungsketten ist) allgemein ignoriert wird. Bei objektiver Betrachtung stellt ein Anstieg des CO₂-Gehalts keinerlei Bedrohung für die Ernährung der Menschheit dar!
5) Es gibt systematische Überschätzungen der vom Menschen verursachten Treibhausgasemissionen aus bewirtschafteten Agrarökosystemen und Auslassungen seitens der FAO und es IPCC von Beziehungen innerhalb des Ökosystems.In den IPCC-Leitlinien für nationale Treibhausgasinventare [17] werden die CH₄- und N₂O-Emissionen aus unberührten Ökosystemen ausdrücklich nicht berücksichtigt, da sie natürlich nicht vom Menschen verursacht werden. Allerdings wurden alle bewirtschafteten Ökosysteme irgendwann in der Geschichte anstelle von natürlichen Ökosystemen angelegt. Daher müssen die Emissionen aus bewirtschafteten Ökosystemen um die Emissionen aus natürlichen Ökosystemen ohne menschlichen Einfluss korrigiert werden, um den anthropogenen Anteil zu ermitteln. Die IPCC-Leitlinien sehen solche Korrekturen nicht vor. Die Folge ist eine systematische Überschätzung der durch Vieh verursachten Netto-Methanemissionen aus Weideökosystemen. So wurden beispielsweise die enterischen Methanemissionen von Bisons, Elchen und Hirschen in der Zeit vor der Besiedlung auf 86 % der aktuellen Emissionen von Nutztieren in den Vereinigten Staaten geschätzt [18].
Darüber hinaus führen weitere Auslassungen von Zusammenhängen innerhalb des Ökosystems durch die FAO und den IPCC ebenfalls zu einer Überschätzung der Bedeutung anthropogener landwirtschaftlicher Treibhausgase:
(i) Methanemissionen aus der Viehzucht sind im globalen Methanhaushalt unerheblich. Aufgrund der allgegenwärtigen methanotrophen Bakterien können einige Weideökosysteme sogar eher eine Methan-Senke als eine Methanquelle darstellen. Selbst Mistflecken auf Weiden stellen nur eine kurzfristige Methanquelle dar und werden danach zu einer Methan-Senke, genau wie der Rest der Weide [19]. Die nationalen Treibhausgasinventare zeigen jedoch nur Abschätzungen der Methanemissionen mit unterschiedlicher Genauigkeit. Es überrascht nicht, dass weder die geografische Methanverteilung (gemessen und über einen bestimmten Zeitraum per Satellit gemittelt) noch die durchschnittliche historische Methanentwicklung einen erkennbaren Einfluss durch die Viehzucht aufweisen [20, 21].
(ii) Lachgas (N₂O) ist ein Spurenprodukt des Stickstoffkreislaufs (insbesondere der aeroben Nitrifikation und anaeroben Denitrifikation). Der gesamte von Nutztieren ausgeschiedene Stickstoff stammt aus aufgenommenem Gras – kein einziges Stickstoffatom wird durch Nutztiere dem Stickstoffkreislauf hinzugefügt. Auch wenn der Verzehr von Gras den Stickstoffumsatz etwas beschleunigen mag, ist es unhaltbar, dass das gesamte aus Kot und Urin freigesetzte N₂O dem Vieh zugeschrieben und somit als vom Menschen verursacht deklariert wird. Der in Gras enthaltene Stickstoff unterliegt dem Stickstoffkreislauf und setzt N₂O frei, unabhängig davon, ob er den Verdauungstrakt von Tieren durchläuft oder nicht.
Darüber hinaus ist es sehr wahrscheinlich, dass dort, wo Grasland Wälder oder Buschland ersetzt hat (z. B. in Europa und Teilen Südamerikas), die einheimische Vegetationsdecke jährlich mehr Stickstoff durch Laubfall enthält und zirkuliert (und somit mehr N₂O freisetzt) als die ungedüngte Grasweide am gleichen Standort. Leider scheinen die FAO und der IPCC (sowie alle nationalen Treibhausgasinventare) solche Details übersehen zu haben. In dem Bericht „Tackling Climate Change through Livestock” (2013) schreibt die FAO 23 % der Emissionsintensität von südamerikanischem Rindfleisch den N₂O-Emissionen aus Gülle zu, während der tatsächliche Wert sogar negativ sein könnte, wenn man die völlig natürlichen N2O-Emissionen aus unberührter Vegetation vor ihrer Umwandlung in Grasland korrigiert [21]. Das Unterlassen dieser Korrekturen ist ein weiterer Fall einer groben Überschätzung der Treibhausgasemissionen aus der Landwirtschaft oder Viehzucht!
Diese Mängel sind auch ein wesentlicher Bestandteil des berühmten FAO-Berichts „Livestock’s Long Shadow” (2006), der 18 % der vom Menschen verursachten Treibhausgasemissionen der weltweiten Viehhaltung zuschreibt [22]. Mit dieser Zuschreibung hat die FAO (deren Auftrag es ist, die weltweite Ernährungssicherheit zu fördern) dem guten Ruf der Viehhaltung den größten Schaden in der Geschichte zugefügt.
(iii) Der prognostizierte Beitrag aller Methanemissionen zur globalen Erwärmung beträgt bis 2050 nur etwa 0,025 °C und ist damit so gering, dass er irrelevant ist. Die veraltete (aus dem Jahr 2007 stammende) GWP100-Metrik, die derzeit in AR6 beibehalten wird, ist aufgrund der kurzen Lebensdauer von Methan doppelt voreingenommen [23]. Der Erwärmungseffekt von zusätzlichem Lachgas ist geringer als der von zusätzlichem Methan [24].
Wie Eisbohrkernanalysen zeigen, blieben die Konzentrationen landwirtschaftlicher Treibhausgase (CO₂, CH₄, N₂O) in der Atmosphäre während des Holozäns bis auf geringfügige Schwankungen weitgehend konstant. Quellen und Senken befanden sich daher im Gleichgewicht. Ein Anstieg trat erst mit Beginn der Industrialisierung ein. Im Falle von CO₂ und Methan folgte dieser Anstieg unmittelbar auf die Ausweitung fossiler Brennstoffe als Energiequellen, was zu massiven Emissionen dieser Spurengase führte, wobei die kurzfristigen Senkenkapazitäten überschritten wurden und sich ein Gleichgewicht auf einem höheren Konzentrationsniveau einstellte. Es gibt keinen Grund, nach anderen geringfügigen Emissionen zu suchen, z. B. im Zusammenhang mit der Tierproduktion. Und im Fall von N₂O lässt sich der Anstieg (im ppb-Bereich!!!) leicht durch die Zunahme von Stickstoffsalzen im Kreislauf, d. h. im Stickstoffzyklus, erklären. Dies geschah im 19. Jahrhundert aufgrund der massiven Gewinnung und Verwendung von chilenischem Salpeter (als Düngemittel und Rohstoff für Dynamit) und ab dem 20. Jahrhundert aufgrund der massiven Produktion und Verwendung von synthetischen Stickstoffdüngern. Die Tierproduktion für den beobachteten Anstieg der N₂O-Konzentration in der Atmosphäre verantwortlich zu machen, ist eine wissenschaftliche Absurdität, die die FAO (in Erfüllung ihres Mandats) offenlegen und nicht weiter verfolgen sollte.
Alle oben genannten Überschätzungen der Auswirkungen der Erwärmung auf die Landwirtschaft scheinen auf einer mangelnden Fähigkeit oder Bereitschaft zu beruhen, offensichtliche ökologische Zusammenhänge zu erkennen oder zu analysieren. Die Weidewirtschaft wird seit Jahrtausenden betrieben (und ist daher nachhaltig). Sicherlich hat sie zuweilen zu Umwelt- oder Bodendegradations-Problemen geführt, die jedoch über Generationen hinweg immer wieder gelöst und behoben wurden. Der Wunsch, durch eine Umstellung der Viehzucht auf eine Reduzierung der Treibhausgasemissionen „Nachhaltigkeit zu fördern”, ist jedoch ein fragwürdiges Unterfangen. Dennoch scheint dies das Thema der bevorstehenden FAO-Konferenz zur nachhaltigen Umstellung der Viehzucht zu sein. Der erste Schritt sollte eine ehrliche Kosten-Nutzen-Analyse sein, um die Auswirkungen des beobachteten Anstiegs der oben genannten Treibhausgaskonzentrationen in der Atmosphäre zu bewerten.
Unserer Meinung nach kann der derzeitige Anstieg der CO₂-Konzentration aus den oben genannten Gründen nur als vorteilhaft angesehen werden. Die vorhandenen Studien zu den sozialen Kosten von Kohlenstoff sind praktisch nutzlos, da sie CO₂ eine übertriebene Klimasensitivität zuschreiben und die unbestreitbaren positiven Eigenschaften eines leicht erhöhten CO₂-Gehalts in der Luft für die Natur, die Landwirtschaft und die globale Ernährungssicherheit kategorisch ignorieren oder zumindest herunterspielen.
Im Falle von Methan können die Emissionen aus der Biosphäre nicht sehr hoch sein, und die Persistenz von Methan in der Atmosphäre ist gering. Methan ist eine häufige Kohlenstoff- und Energiequelle für Bakterien unter aeroben Bedingungen und kann sicherlich keine gefährliche Erwärmung verursachen. Die Methankonzentrationen sind während Vulkanausbrüchen oft gestiegen und dann wieder rapide gesunken, ohne dass dies dauerhafte Folgen hatte. Wie oben erwähnt, spielt die Viehzucht nur eine untergeordnete Rolle im globalen Methanhaushalt. Der Versuch, Tiere dazu zu zwingen, weniger Methan auszuscheiden, ist irrational, hat nichts mit Nachhaltigkeit zu tun und führt bestenfalls zu einer Verteuerung tierischer Lebensmittel und möglicherweise sogar zu einer Verringerung der Fähigkeit von Wiederkäuern, Zellulose (die am häufigsten vorkommende Substanz in der Biosphäre) zu verwerten.
Schließlich würde eine Umkehrung der Ursachen für den Anstieg der N₂O-Konzentrationen in der Atmosphäre vorhersehbar zu Hungersnöten führen, da es ohne die Produktion und Verwendung von synthetischen Stickstoffdüngern unmöglich wäre, die Ernährungssicherheit der Menschheit zu gewährleisten. Selbst in dem unwahrscheinlichen Fall, dass der leichte Anstieg von N₂O in der Atmosphäre zu einer messbaren globalen Erwärmung führen würde, wäre die einzige ethisch verantwortliche Entscheidung die Verwendung von Stickstoffdüngern zu befürworten und damit einen Anstieg des Stickstoffkreislaufs in der Biosphäre und etwas höhere N₂O-Emissionen in Kauf zu nehmen!
References-
Shaw, T.A., Stevens, B. (2025). The other climate crisis. Nature 639, 877–887 https://www.nature.com/articles/s41586-025-08680-1
-
Lindzen, R., Happer, W. (2025). Physics Demonstrates that Increasing Greenhouse
Gases Cannot Cause Dangerous Warming, Extreme Weather or Any Harm. CO₂ Coalition. https://CO₂coalition.org/wp-content/uploads/2025/06/Lindzen-Happer-GHGsand-Fossil-Fuels-Climate-Physics-2025-06-07.pdf
-
Lindzen, R. S., & Choi, Y. S. (2011). On the observational determination of climate sensitivity and its implications. Asia-Pacific Journal of Atmospheric Sciences, 47(4), 377-390.
-
Bates, J. R. (2016). Estimating climate sensitivity using two-zone energy balance models, Earth and Space Science, 3, 207–225, doi:10.1002/2015EA000154.
-
van Wijngaarden, W. A., & Happer, W. (2020). Dependence of Earth’s Thermal Radiation on Five Most Abundant Greenhouse Gases. https://arxiv.org/pdf/2006.03098.pdf
-
Climate Working Group (2025). A Critical Review of Impacts of Greenhouse Gas
Emissions on the U.S. Climate. Washington DC: Department of Energy, July 23, 2025
(Authors: Christy, J., Curry, J., Koonin,S., McKitrick, R., Spencer, R.) https://www.energy.gov/sites/default/files/2025-
07/DOE_Critical_Review_of_Impacts_of_GHG_Emissions_on_the_US_Climate_July_ 2025.pdf
-
van Wijngaarden, W. A., & Happer, W. (2024). Effect of Greenhouse Gases on Thermal Emissivity by Clouds. https://arxiv.org/pdf/2401.03061
-
Clark, R. (2024). Nobel Prize for Climate Model Errors. https://scienceofclimatechange.org/wp-content/uploads/Clark-2024-Nobel-PrizeErrors.pdf
-
van Wijngaarden, W. A., & Happer, W. (2021). Relative Potency of Greenhouse Molecules. https://arxiv.org/pdf/2103.16465.pdf
-
Riebeek, H. (2011). The Fast Carbon Cycle. NASA. https://earthobservatory.nasa.gov/features/CarbonCycle
-
Glatzle A., J.D. Ferguson, W. Happer, P. Moore, G. Ritchie, F.B. Soepyan, G.
Wrightstone (2024). Nutritive Value of Plants Growing in Enhanced CO₂Concentrations. CO₂-Coalition, Arlington, USA. https://CO₂coalition.org/wpcontent/uploads/2024/04/Nutritive-Value-of-Plants-PRINT-final-digital-compressed.pdf
-
Campbell JE, Berry JA, Seibt U, Smith SJ, Montzka SA, Launois T, Belviso S, Bopp L, Laine M. Large historical growth in global terrestrial gross primary production.
Nature. 2017;544:84-87. https://www.nature.com/articles/nature22030
-
Zhu, Z., Piao, S., Myneni, R.B. et al., Greening of the Earth and its drivers, Nature Climate Change, 6, 791–795 (2016), https://doi.org/10.1038/nclimate3004
-
Allen, L.H., Kakani, V.G., Vu, J.C.V. and Boote, K.J., Elevated CO₂ increases water use efficiency by sustaining photosynthesis of water-limited maize and sorghum,
Journal of Plant Physiology,168(16), 1909-1918 (2011), https://doi.org/10.1016/j.jplph.2011.05.005
-
Song, X.P., Hansen, M.C., Stehman, S.V., and Potapov, P., Global land change from 1982 to 2016, Nature Research, 560, 639–643 (2018), https://doi.org/10.1038/s41586018-0411-9
-
NASA, National Aeronautics and Space Administration, Carbon Dioxide Fertilization Greening Earth, Study Finds, (2016), https://www.nasa.gov/centers-andfacilities/goddard/carbon-dioxide-fertilization-greening-earth-study-finds/
-
IPCC, Intergovernmental Panel on Climate Change (2016). Guidelines for . Greenhouse Gas Inventories. Agriculture, Forestry and Other Land Use. Vol. 4. http://www.ipcc-nggip.iges.or.jp/public/2006gl/vol4.html
-
Hristov, A. N. (2012). Historic, pre-European settlement, and present-day contribution of wild ruminants to enteric methane emissions in the United States. Journal of Animal Science, 90(4), 1371-1375
-
Nichols, K. L., Del Grosso, S. J., Derner, J. D., Follett, R. F., Archibeque, S. L., Stewart, C. E., & Paustian, K. H. (2016). Nitrous oxide and methane fluxes from cattle excrement on C3 pasture and C4-dominated shortgrass steppe. Agriculture, Ecosystems & Environment, 225, 104-115. https://www.sciencedirect.com/science/article/abs/pii/S016788091630161X?via%3Dih ub
-
Glatzle, A. (2014). Schwerwiegende methodische Mängel im Zusammenhang mit Behauptungen, dass die heimische Viehzucht den Klimawandel vorantreibt. Journal of Environmental Science and Engineering B 2, 586-601.DOI:10.17265/2162-5263/2013.10.004https://www.davidpublisher.com/index.php/Home/Article/index?id=2117.html
-
Glatzle A. (2018). Domestic Livestock and Its Alleged Role in Climate Change. In Ricardo Loiola Edvan und Edson Mauro Santos (Hrsg.): Forage Groups. Kapitel 5, 7186. IntechOpen, London.
-
Glatzle, A. (2014). Questioning key conclusions of FAO publications ‘Livestock’s Long Shadow’ (2006) appearing again in ‘Tackling Climate Change Through Livestock’ (2013). Pastoralism 4, 1 (2014).
-
van Wijngaarden, W. A., & Happer, W. (2025). Methane and Climate. CO₂ Coalition. https://CO₂coalition.org/publications/methane-and-climate-2025/
-
de Lange,C.A., Ferguson, J. D., Happer, W. and van Wijngaarden, W. A. (2022). Nitrous Oxide and Climate. https://CO₂coalition.org/wpcontent/uploads/2022/11/Nitrous-Oxide-and-Climate.pdf
Autorenschaft: CO₂Coalition 2677 Prosperity Avenue, Suite 300, Fairfax, VA 22031
Übersetzt von Christian Freuer für das EIKE
Der Beitrag CO₂ lässt die Erde ergrünen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kältereport Nr. 36 / 2025
Vorbemerkung: Dieser Kältereport ist wieder kürzer. Dafür hat Cap Allon in seinen täglichen Bulletins wieder sehr viele Ereignisse angesprochen, die keinen aktuellen Zeitbezug haben, nichtsdestotrotz aber gleichfalls sehr interessant sind. Da wird es demnächst schon die nächste Ausgabe der „Kurzbeiträge“ geben.
Dennoch, aktuelle Kaltmeldungen gibt es natürlich auch, Schwerpunkt diesmal in den USA.
Eine Meldung vom 8. September 2025 aus den USA:
USA: Weitere Kälte-Rekorde fallenAnfang September herrscht in weiten Teilen der USA eine Kälte wie im November.
Am Samstag wurden in Sheridan, Wyoming, -0,6 °C gemessen, während die Temperatur in Baker, Montana, auf -1,1 °C sank – beides neue Rekorde. Livingston erreichte mit 0 °C seinen bisherigen Rekordwert. Auf Ranchland wurde vereinzelt Frost gemeldet, was für die erste Septemberwoche ungewöhnlich ist.
In Minnesota erreichte Duluth mit nur 11,1 °C den Rekordwert von 1904, Hibbing stellte mit 10 °C eine neue Tiefstmarke auf und Ashland in Wisconsin brach mit 11,7 °C den Rekord von 1926. International Falls erreichte mit 11,7 °C seinen Rekordwert, und Brainerd erreichte 13,9 °C.
Weiter südlich verzeichnete Lexington, Kentucky, am Sonntagmorgen mit 7,2 °C seinen vierten Rekordtiefstwert innerhalb von zwei Wochen. Burlington, Iowa, stellte seinen Rekord von 5,6 °C aus dem Jahr 1956 ein, und auch in den umliegenden Städten sanken die Temperaturen auf Werte um die 5–6 °C.
In den letzten 24 Stunden wurden zahlreiche Tagesrekorde gebrochen, die zu den Tausenden hinzukommen, die seit der letzten Augustwoche gefallen sind.
Derzeit gelten Frostwarnungen für fünf Bundesstaaten, und der Wetterdienst prognostiziert für Montag weitere Rekord-Tiefstwerte.
————————————
Meldungen vom 9. September 2025:
USA: Kältester September-Beginn jemalsMindestens sieben Bundesstaaten meldeten am Montagmorgen Rekordtiefstwerte, als eine für diese Jahreszeit ungewöhnliche Kältewelle über den Osten der USA zog.
Das Wettervorhersagezentrum des NWS bestätigte Rekordwerte in Indiana, Kentucky, Michigan, Wisconsin, West Virginia, Missouri und Alabama, wobei in Minnesota, Illinois, Maryland und Connecticut gleichauf liegende Werte gemessen wurden.
Frostwarnungen wurden für Teile von Maine, Vermont, New Hampshire und New York ausgegeben, wo Nachttemperaturen um die 0 °C (–1 °C bis 1 °C) die Ernten und Gärten bedrohten. In Sioux City, South Dakota, sank die Temperatur auf 2,2 °C und brach damit den Rekord von 1986, während Mitchell auf 1,7 °C fiel, ein Wert, der zuletzt 1898 gemessen wurde.
Sheridan (Wyoming), Baker (Montana) und mehrere Wetterstationen in Minnesota und Wisconsin stellten am Wochenende ebenfalls Tagesrekorde auf oder egalisierten diese.
Lokale Wettervorhersager weisen auf die allgemeine Anomalie hin. Im Nordosten von Wisconsin beispielsweise berichtete der Meteorologe Cameron Moreland, dass die Region den kältesten Septemberbeginn seit Beginn der Aufzeichnungen im Jahr 1886 erlebt, mit Temperaturen, die etwa 5 K unter dem Durchschnitt liegen. Die Tiefsttemperatur von 3,3 °C am Montag war die niedrigste zu diesem Zeitpunkt im Monat seit 1988.
…
————————————
Russland/Kanada: Erstmals unter -10°C in dieser SaisonDer Herbstfrost hat keine Zeit verloren: Russland und Kanada haben bereits die ersten Werte von -10 °C in dieser Saison gemessen.
In Russland fiel die Temperatur in Batagay-Alyta auf -10,4 °C, in Suhana auf -10,3 °C und in Deputatsky auf -10,1 °C.
Währenddessen sank die Temperatur in der kanadischen Arktis auf -10,3 °C.
Die ersten Temperaturen unter -10 °C treten in Nordsibirien normalerweise Ende September oder Anfang Oktober auf. Dass sie so früh gemessen wurden, ist ein weiterer Hinweis auf die fortschreitende saisonale Abkühlung, die wir beobachten.
Der Winter drängt frühzeitig aus dem Norden heran.
————————————
Australien: Viel SchneeDie Schneehöhen in den alpinen Regionen Australiens steigen rapide. In Spencers Creek übertrifft die Schneedecke alle bisherigen historischen Werte. Die Schneehöhe beträgt mehr als 2 m und liegt damit weit über dem Wert von 1954, dem ersten Jahr, für das Aufzeichnungen vorliegen:
…
Diese Realität steht in direktem Widerspruch zu den Vorhersagen der CSIRO und anderer etablierter Klimaforschungsinstitute, die seit langem behaupten, dass der Schnee in Australien inzwischen fast vollständig verschwunden sein würde. Die Modelle sagten den Kollaps voraus – stattdessen haben wir ein Wachstum.
————————————
Eine Meldung vom 10. September 2025:
Neuseeland: Wiedereröffnung schon geschlossener SkigebieteWährend die australischen Alpen einen ihrer besten Winter seit Jahren verzeichneten, verwiesen Alarmisten auf die geringe Schneedecke in Neuseeland als Beweis für den „Klimakollaps“. Doch der Frühling hat das Blatt gewendet.
Das Skigebiet Temple Basin, das Ende August nach wochenlangem Felsenglanz seine Schließung angekündigt hatte, wurde Ende letzter Woche von 45 cm Neuschnee heimgesucht. Das reichte aus, um am Wochenende wieder zu öffnen, die Lifte in Betrieb zu nehmen und Skifahrer und Snowboarder zurück auf die Pisten zu bringen.
„Es war einfach fantastisch”, sagte Peter Marriott, Präsident von Temple Basin. „Wirklich guter Schnee mit wirklich guten Leuten und vielen strahlenden Gesichtern.”
Das Skigebiet plant nun, die Lifte an den Wochenenden weiter zu betreiben – ein unerwartetes Comeback.
————————————
Meldungen vom 11. September 2025:
USA: Nebraskas kältester Spätsommer seit fast einem JahrhundertZentral-Nebraska hat gerade eine der kältesten Perioden von Ende August bis Anfang September seit Beginn der Aufzeichnungen hinter sich.
Vom 23. August bis zum 7. September lagen die Tageshöchsttemperaturen in Hastings im Durchschnitt bei nur 23 °C und die Tiefsttemperaturen bei 14 °C. Grand Island lag mit Höchsttemperaturen von 23 °C und Tiefsttemperaturen von 13 °C nicht weit davon entfernt. An beiden Orten lagen die Temperaturen etwa 4 °C unter dem Normalwert für diesen Zeitraum.
Laut dem National Weather Service war dies der zweitkühlste Zeitraum seit Beginn der Aufzeichnungen (seit 1935) für Hastings und der viertkühlste für Grand Island (seit 1896).
Die Kälte führte zu einem geringeren Stromverbrauch von Klimaanlagen, verlangsamte aber auch das Wachstum der Pflanzen vor der Ernte.
————————————
Australien: Der kalte, nasse Winter in NSWDer Winter 2025 in New South Wales (NSW) war geprägt von ungewöhnlicher Kälte, starken Regenfällen und Schnee. Im gesamten Bundesstaat fielen die Tiefsttemperaturen in vielen Regionen deutlich unter den Durchschnitt.
Städte wie Armidale und Lismore verzeichneten die niedrigsten gemessenen Winter-Durchschnittswerte, während die Wetterstationen in Narooma und Mangrove Mountain neue Winter-Tiefsttemperaturen aufzeichneten.
Anfang August gab es im nördlichen Hochland Schneefälle bis 40 cm, was als selten gilt.
Sydney reflektierte die allgemeine Kälte und verzeichnete den nassesten Winter seit 2007. Allein im August fielen 389,6 mm Niederschlag, was ihn zum drittnassesten August seit Beginn der Aufzeichnungen macht. Neben den starken Regenfällen gab es auch einige der kältesten Nächte seit Jahren.
Selbst das für seine optimistischen Prognosen bekannte Bureau of Meteorology bestätigte, dass der Winter 2025 landesweit der zweitkühlste des Jahrzehnts war.
————————————
Arktis: Nordwestliche Durchfahrt ist blockiertDie Karten des Canadian Ice Service für den 9. September zeigen dickes, altes Eis, das den Amundsen-Golf – das westliche Tor zur südlichen Route der Nordwestpassage – versiegelt und jeden Transit auf Eisbrecher angewiesen macht.
Dies ist nicht die hohe Arktis; der Amundsen-Golf liegt nahe 70° N zwischen den Banks- und Victoria-Inseln und mündet in die Beaufortsee – das „Tor” zur Passage. In einem normalen Jahr ist das Eis hier meist bis Juli aufgebrochen, manchmal dauert es bis August.
Die südliche kanadische Inselgruppe von Amundsen bis Queen Maud Gulfs hat eine durchschnittliche Schifffahrtssaison von Ende Juli bis Mitte Oktober. Mit anderen Worten: Anfang September ist die Passage in der Regel befahrbar. Die diesjährige starke Vereisung ist ungewöhnlich.
…
————————————
Eine Meldung vom 12. September 2025:
USA: Der kalte August in Stanley (Virginia)Stanley, Virginia, hat gerade den kühlsten August seit 57 Jahren erlebt.
Die Nachmittagstemperaturen lagen im Durchschnitt bei 27 °C und damit mehr als 2,5°C unter dem Normalwert. Nur einmal, am 17. August, stieg das Thermometer auf 32 °C und erreichte einen Höchstwert von 33 °C. Zum Vergleich: Im August 1988 lag die Durchschnittstemperatur bei 32 °C, und an 20 Tagen wurden über 32 °C gemessen.
Die Tiefsttemperaturen lagen im Durchschnitt bei 16 °C, wobei am 30. August mit 9 °C die niedrigste Temperatur des Monats gemessen wurde.
Es wurden Rekorde gebrochen, darunter am 28. August, als 11 °C den Rekord von 1969 übertrafen.
Die Kälte in Stanley war keine Anomalie. Daten der NOAA zeigen, dass die gesamten USA einen deutlich kühlen August erlebten – kühler als im August 1904 und vielen Augustmonaten seitdem. Selbst laut offiziellen Daten haben sich die Höchsttemperaturen in mehr als einem Jahrhundert kaum verändert.
…
Wird fortgesetzt mit Kältereport Nr. 37 / 2025
Redaktionsschluss für diesen Report: 12. September 2025
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kältereport Nr. 36 / 2025 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Trumps Verkehrsminister Sean P. Duffy kündigt Offshore-Windprojekte und zieht 679 Millionen Dollar ab
Stopp These Things – Einleitung
Nicht nur in Amerika geht es mit dem gesamten industriellen Wind- und Solar-Schwindel weiter. Präsident Donald J. Trump hasst Profitjäger – und auch die der Wind- und Solarindustrie leidenschaftlich. Das bedeutet, dass durch den Rückzug der USA aus dem Klima-Industriekomplex die einst sichere und solide subventionierte Zukunft aller Windturbinen- und Solarmodulhersteller nun in Trümmern liegt.
Und das ist wichtig. Angesichts des enormen Umsatzvolumens, das in den USA vor dem Amtsantritt des 47. Präsidenten erzielt wurde, wird der Verlust des amerikanischen Marktes viele dieser Panel- und Windradhersteller ruinieren, die sich aufgrund schwindender Subventionen weltweit bereits im Niedergang befinden.
https://stopthesethings.com/2025/09/07/stop-these-things-weekly-round-up-7-september-2025/
Ein weiterer Nagel im Sarg der amerikanischen Windindustrie: US-Verkehrsminister Sean Duffy hat gerade die Gelder von insgesamt 679 Millionen US-Dollar, die die Biden-Regierung für ein Dutzend Offshore-Windkraftanlagen vorgesehen hatte, gestrichen und damit alle Projekte endgültig zunichte gemacht.
WASHINGTON, DC – US-Verkehrsminister Sean P. Duffy hat insgesamt 679 Millionen Dollar an Fördermitteln für zwölf zum Scheitern verurteilte Offshore-Windkraftprojekte in ganz Amerika gestrichen oder gestrichen. Damit wird sichergestellt, dass Bundesmittel vorrangig für die Wiederherstellung der maritimen Vorherrschaft Amerikas und die Vermeidung von Verschwendung eingesetzt werden.
„Verschwenderische Windkraftprojekte verbrauchen Ressourcen, die andernfalls für die Wiederbelebung der amerikanischen Schifffahrtsindustrie verwendet werden könnten“, sagte US-Verkehrsminister Sean P. Duffy. „Joe Biden und Pete Buttigieg [ehemaliger Verkehrsminister] haben sich nach Kräften bemüht, die Steuergelder aus dem Verkehrsbudget für ihre „Green New Scam“-Agenda zu verwenden, während sie die dringendsten Bedürfnisse unserer Schiffbauindustrie ignorierten. Dank Präsident Trump priorisieren wir echte Infrastrukturverbesserungen gegenüber Fantasie-Windkraftprojekten, die viel kosten und wenig bringen.“
Die Trump-Administration hat den Fokus des US-Verkehrsministeriums (USDOT) und seiner Schifffahrtsbehörde (MARAD) auf den Wiederaufbau der amerikanischen Schiffbaukapazitäten, die Erschließung zuverlässigerer, traditioneller Energieformen und die Nutzung der reichhaltigen natürlichen Ressourcen des Landes zur Entfesselung amerikanischer Energie gelegt.
Soweit möglich, werden die Mittel aus diesen Projekten erneut vergeben, um wichtige Hafenmodernisierungen und andere zentrale Infrastrukturbedürfnisse der Vereinigten Staaten zu decken.
Weitere Informationen:
Im Rahmen der Überprüfung aller diskretionären Zuschussprogramme mit gebundenen und nicht gebundenen Projekten durch das US-Verkehrsministerium stellte das USDOT fest, dass 12 Zuschüsse und Projektauswahlen für Offshore-Windenergie nicht mit den Zielen und Prioritäten der Verwaltung übereinstimmten.
Das US-Verkehrsministerium (USDOT) hat ein Projekt aus dem Programm „Nationally Significant Freight and Highway Projects“ (INFRA) zurückgezogen, was zu Gesamtkürzungen von rund 427 Millionen US-Dollar führte.
MARAD hat im Rahmen seines Programms zur Entwicklung der Hafeninfrastruktur (PIDP) sechs Projekte zurückgezogen und fünf beendet, was zu Gesamtkürzungen von 177 Millionen US-Dollar bzw. rund 75 Millionen US-Dollar führte.
Zurückgezogen
- Sparrows Point Steel Marshalling Port Project (PIDP; 47.392.500 USD)
- Betrieb und Wartung des Windhafenprojekts der Hafenbehörde von Bridgeport (PIDP; 10.530.000 USD)
- Windhafen in Paulsboro (PIDP; 20.494.025 $)
- Arthur Kill Terminal (PIDP; 48.008.231 USD)
- Gateway-Upgrades für Zugang, Ausfallsicherheit und Entwicklung im Hafen von Davisville (PIDP; 11.250.000 USD)
- Norfolk Offshore Wind Logistics Port (PIDP; 39.265.000 USD)
- Humboldt Bay Offshore Wind (INFRA; 426.719.810 USD)
Beendet
- Projektplanung für das Redwood Marine Terminal (PIDP; 8.672.986 USD)
- Salem Wind Port Project (PIDP; 33.835.953 USD)
- Lake Erie Renewable Energy Resilience Project (PIDP; 11.051.586 USD)
- Verbesserungen der Radio Island Rail Road zur Unterstützung der Offshore-Windenergie (PIDP; 1.679.604 USD)
- PMT Offshore-Windentwicklung (PIDP; 20.000.000 USD)
Der Beitrag Trumps Verkehrsminister Sean P. Duffy kündigt Offshore-Windprojekte und zieht 679 Millionen Dollar ab erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Fledermäuse verwechseln Windkraftanlagen möglicherweise mit dem freien Himmel und verursachen so tödliche Kollisionen
Quelle: 26. August 2025 · Von Sachin Rawat · science.org ~~
Windkraftanlagen haben den Ruf, Vögel zu töten – tatsächlich töten sie jedoch weitaus mehr Fledermäuse. Wissenschaftler schätzen, dass jedes Jahr Millionen von Fledermäusen sterben, weil sie gegen die riesigen Rotorblätter prallen [und an Lungenblutungen sterben, die durch die Druckwirbel in Windrichtung (NWW) verursacht werden], was Windkraftanlagen zu einer der häufigsten Tierkiller weltweit macht. Doch was genau Fledermäuse überhaupt zu den Anlagen lockt, ist ein Rätsel.
Neue Laborexperimente legen nahe, dass Licht der Schlüssel ist. Fledermäuse orientieren sich an der Helligkeit des Himmels – ein visueller Hinweis, der durch die Lichtreflexion an Turbinenblättern nachgebildet wird. Ähnlich wie eine Motte, die vom Licht angezogen wird, bilden diese Reflexionen eine „ökologische Falle“, die Fledermäuse in tödliche Kollisionen lockt, berichten Forscher diesen Monat in Biology Letters .
„Das ist eine jener Studien, die nicht oft durchgeführt werden“, sagt Jack Hooker, ein Fledermausbiologe des Bat Conservation Trust, der nicht an der Arbeit beteiligt war. Im Gegensatz zu vielen groß angelegten Studien zum Fledermaussterben in der Nähe von Windkraftanlagen konzentriert sich die neue Arbeit seiner Meinung nach auf eine konkrete mögliche Ursache und überprüft diese mit strengen Experimenten. Das Verständnis, warum Fledermäuse von diesen Maschinen angezogen werden, könnte Forschern helfen, bessere Wege zu ihrem Schutz zu finden, sagt er.
Die Windräder scheinen eine ungewöhnlich starke Anziehungskraft auf Fledermäuse zu haben. Die Fledermäuse schweben in der Luft neben den riesigen Türmen und verbringen übermäßig viel Zeit in der Nähe ihrer Masten und Rotorblätter.
Der eigentliche Reiz ist unklar, doch bekannt ist, dass sich Fledermäuse so entwickelt haben, dass sie den offenen Himmel als optische Orientierungshilfe nutzen. Hellere Flecken in ihrem verschwommenen Sichtfeld zeigen die Himmelsrichtung an, und sie orientieren sich daran. Kristin Jonasson, eine unabhängige physiologische Ökologin, vermutete daher, dass Rotorblätter in der Dämmerung und im Morgengrauen gerade genug Mondlicht reflektieren, um wie der helle Himmel auszusehen und Fledermäuse anzulocken.
Um die Hypothese zu überprüfen, sammelten Jonasson und Kollegen (von der University of Colorado Springs, dem National Renewable Energy Laboratory und dem US Forest Service) Graue Fledermäuse (Lasiurus cinereus ) und Silberhaarfledermäuse (Lasionycteris noctivagans ) in freier Wildbahn – zwei der größten Opfer von Windkraftanlagen in Nordamerika. Zurück im Labor ließen sie die Tiere in ein dunkles Labyrinth mit zwei Ausgängen frei. Ein Ausgang war teilweise durch ein weißes Rotorblatt blockiert, das künstliches Mondlicht reflektierte, während der andere frei war. Fast drei Viertel der Grauen Fledermäuse und alle bis auf eine der 31 Silberhaarfledermäuse flogen auf das weiße Blatt zu.
„Ihre Echoortung müsste ihnen sagen, dass es einen völlig freien Ausgang gibt, und trotzdem flogen sie auf den blockierten Ausgang zu“, sagt Jonasson. Die Ergebnisse, so Jonasson, deuten darauf hin, dass die Fledermäuse eher ihre Sehkraft als ihre Echoortung nutzten, um einen Ausweg zu finden. In freier Wildbahn könnten die Tiere theoretisch Echoortung nutzen, um den Rotorblättern auszuweichen, aber der Lärm der Turbinen könnte stören, sagt sie.
Fall abgeschlossen? Nicht ganz, sagt Christian Voigt, Biologe am Leibniz-Institut für Zoo- und Wildtierforschung, der an der Arbeit nicht beteiligt war. Beide in der Studie verwendeten Fledermausarten nisten auf Bäumen und haben sich nicht darauf entwickelt, in Tunneln zu fliegen, so Voigt. Das Experiment bilde daher ihr Verhalten in der Wildnis nur unzureichend ab. Die Tiere könnten zudem durch den menschlichen Umgang gestresst gewesen sein, sagt er.
Statt die leuchtenden Rotorblätter mit dem freien Himmel zu verwechseln, so Voigt, stören die Windturbulenzen und der Lärm der riesigen Rotorblätter möglicherweise ihre Navigation. Die Tiere könnten die riesigen Masten auch mit großen Bäumen verwechseln, auf denen sie schlafen können. Hooker fügt hinzu: „Es gibt auch Hinweise darauf, dass sie von Insekten angezogen werden, die sich um [die Windkraftanlagen] herum versammeln.“ „Zu verstehen, was Fledermäuse zu den Windkraftanlagen lockt, wird entscheidend für ihren Schutz sein“, sagt Hooker. Aktuelle Bemühungen, die Sterblichkeit an Windkraftanlagen zu senken, bestehen entweder darin, die Echoortung der Fledermäuse durch Ultraschall zu stören, sie dazu zu bringen, den Raum um die Anlagen zu meiden, oder die Anlagen während der höchsten Fledermausaktivität abzuschalten. Jonasson sagt, der erste Ansatz habe gemischte Ergebnisse gezeigt, und die Windenergiebranche sei kein Fan des zweiten.
Eine Alternative wäre, die Farbe der Turbinenblätter zu ändern, damit sie weniger Mondlicht reflektieren, sagt Jonasson. Schwarz funktioniere nicht, da solche Blätter für Flugzeuge weniger sichtbar seien und mehr Wärme absorbierten, was die Turbinen beschädigen könnte. „Wenn wir Farben finden, die [für die Tiere] weniger attraktiv sind, könnten wir vielleicht sowohl die Windenergie ausbauen als auch die Fledermäuse schützen.“
Quelle: 26. August 2025 · Von Sachin Rawat · science.org
Dieser Artikel stammt von der angegebenen Quelle . Die darin geäußerten Meinungen entsprechen nicht unbedingt denen von National Wind Watch.
Das Urheberrecht liegt beim angegebenen Autor oder Herausgeber. Im Rahmen seiner nichtkommerziellen Bildungsbemühungen, die ökologischen, sozialen, wissenschaftlichen und wirtschaftlichen Aspekte der großflächigen Windkraftentwicklung einem weltweiten Publikum zugänglich zu machen, achtet National Wind Watch – ebenso wie Eike – auf die Einhaltung der „ Fair Use “-Regeln gemäß Abschnitt 107 des US-Urheberrechts und ähnlicher „Fair Dealing“-Bestimmungen der Urheberrechtsgesetze anderer Länder
Der Beitrag Fledermäuse verwechseln Windkraftanlagen möglicherweise mit dem freien Himmel und verursachen so tödliche Kollisionen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue globale Studie über Tidenmesser widerlegt Behauptungen über beschleunigten Anstieg des Meeresspiegels
[Alle Hervorhebungen im Original]
Die alarmistische Darstellung eines „beschleunigten“ Anstiegs des Meeresspiegels wirkt zunehmend wie ein Kartenhaus. Eine brandneue, von Fachkollegen begutachtete Studie des niederländischen Ingenieurs Hessel Voortman und des unabhängigen Forschers Rob de Vos stellt einen der fest verankerten Diskussionspunkte in der Klimapolitik direkt in Frage. Die im Journal of Marine Science and Engineering veröffentlichte Arbeit ist die erste globale Studie dieser Art, d. h. auf der Grundlage von Messungen mit Tidenmetern – und ihre Schlussfolgerungen sind eindeutig.
Nach der Analyse von mehr als 200 Pegelmessstationen weltweit stellten Voortman und de Vos fest, dass 95 % der Standorte keine statistisch signifikante Beschleunigung des Meeresspiegelanstiegs aufweisen. Wo eine Beschleunigung vorliegt, wird diese durch lokale Landbewegungen (Bodensenkungen, Grundwasserentnahmen oder tektonische Vorgänge) verursacht, nicht durch steigende CO₂-Werte. Ihr Fazit? Der derzeitige globale durchschnittliche Anstieg des Meeresspiegels beträgt etwa 1,5 mm/Jahr (15 cm pro Jahrhundert) – weit entfernt von den 90 bis 300 cm hohen Apokalypse-Szenarien, die ständig in den Schlagzeilen der Medien zu finden sind.
Die Veröffentlichung der Autoren mit dem Titel A Global Perspective on Local Sea Level Changes, enthält drei wichtige Erkenntnisse:
1. Keine globale Beschleunigung: Von mehr als 200 untersuchten Pegelmessungen zeigten nur etwa 5 % eine Beschleunigung – und diese ließ sich durch lokale Bedingungen erklären.
2. Diskrepanz zwischen Beobachtung und Prognose: Die durchschnittliche Anstiegsrate im Jahr 2020 betrug etwa 15 cm pro Jahrhundert, während die Prognosen des IPCC im Vergleich zu den Beobachtungen um etwa 2 mm/Jahr nach oben verzerrt sind.
3. Illusion einer Beschleunigung: Beginnt man eine Trendlinie in den frühen 1990er Jahren, sieht man einen deutlichen Anstieg – verlängert man jedoch die Aufzeichnungen nach hinten, verschwindet die Beschleunigung.
Voortman erklärte in einer Pressemitteilung: „Sowohl Messungen als auch Prognosen sind wichtige Informationsquellen, aber Kollegen müssen darauf achten, sie nicht zu verwechseln. Eine übermäßige Abhängigkeit von Modellen führt zu einer verzerrten Sicht auf die Realität.“
Mit anderen Worten: Die Gezeitenpegel entsprechen nicht dem Hype. Langjährige WUWT-Leser werden von diesen Ergebnissen nicht überrascht sein. Wir weisen seit Jahren auf das Fehlen einer Beschleunigung hin.
Bereits 2017 schrieb Willis Eschenbach „Sea Level Rise Accelerating? Not.” (Beschleunigt sich der Anstieg des Meeresspiegels? Nein.), in dem er lineare und quadratische Anpassungen an Pegeldaten testete. Seine Schlussfolgerung? Keine statistisch signifikante Beschleunigung.
• Im Jahr 2018 folgte Willis mit dem Beitrag „Changes in the Rate of Sea Level Rise” (Veränderungen in der Geschwindigkeit des Meeresspiegelanstiegs), in dem er einen weltweiten Meeresspiegelanstieg von durchschnittlich 1,6–1,9 mm/Jahr über einen Zeitraum von 100 Jahren aufzeigte – fast genau das, was Voortman & de Vos nun bestätigen.
• In meinem eigenen Beitrag aus dem Jahr 2018 mit dem Titel „The fantasy of accelerating sea level rise just got hosed” (Die Fantasie vom beschleunigten Anstieg des Meeresspiegels wurde gerade zunichte gemacht) habe ich die wachsende Kluft zwischen Modellprognosen und tatsächlichen Messungen hervorgehoben.
• Erst letztes Jahr verspottete er die Hysterie der Medien mit „SEA LEVEL! EVERYONE PANIC!” (MEERESSPIEGEL! ALLE IN PANIK!), in dem er Behauptungen über eine Krise des Meeresspiegels in den USA analysierte.
• Vor allem aber kritisierte Willis 2021 in seinem Artikel „Munging the Sea Level Data“ die Manipulation von Satellitendaten und zeigte, dass ein Großteil der vermeintlichen Beschleunigung nicht auf natürliche Ursachen zurückzuführen ist, sondern auf Veränderungen bei den Messgeräten und Basislinien [diesen Beitrag gibt es in deutscher Übersetzung hier. A. d. Übers.]. Siehe die folgenden Grafiken. Beachten Sie, dass die erste Grafik eine Beschleunigung aufgrund der quadratischen Kurvenanpassung zeigt, während es sich bei der zweiten Grafik eindeutig nur um einen statistischen Fehler handelt, der auf den Wechsel von Satelliten und Messgeräten im Laufe der Zeit zurückzuführen ist:
Im Wesentlichen liest sich die neue niederländische Studie wie eine empirische Bestätigung jahrelanger WUWT-Analysen.
Satelliten vs. Tidenmessungen: Warum das eine Rolle spieltAlarmisten verweisen oft auf Satellitenaltimetrie-Aufzeichnungen Anfang der 1990er Jahre als „Beweis“ für einen beschleunigten Anstieg. Das Problem dabei ist, wie Willis in „Munging the Sea Level Data“ gezeigt hat, dass ein Großteil dieser scheinbaren Beschleunigung mit Veränderungen an den Satelliteninstrumenten zusammenfällt und nicht mit der physikalischen Realität.
Im Gegensatz dazu liefern Gezeitenpegel direkte, langfristige Messungen vor Ort, die an vielen Orten mehr als ein Jahrhundert zurückreichen. Sie sind der Goldstandard für die Meeresspiegelforschung. Und wie Voortman & de Vos nun dokumentiert haben, sagen uns die Gezeitenpegel eines: einen stetigen, moderaten Anstieg – beherrschbar und nicht überraschend.
Ein weiterer kritischer Punkt der Studie ist die Unterscheidung zwischen globalen Durchschnittswerten und lokalen Anomalien.
Nehmen wir Miami als Beispiel: Die Stadt wird oft als „Ground Zero“ für den Anstieg des Meeresspiegels bezeichnet. Ein Großteil der Überschwemmungsprobleme in Miami ist jedoch auf porösen Kalkstein und Bodensenkungen zurückzuführen, nicht auf den Anstieg des Meeresspiegels. Ähnlich verhält es sich mit Teilen Japans, wo eine Beschleunigung zu beobachten ist – allerdings nur aufgrund von Landverschiebungen nach schweren Erdbeben.
Wie die Autoren anmerken, ist es keine Wissenschaft, diese lokalen Phänomene dem Klimawandel zuzuschreiben – es ist Narrativbildung.
WUWT dokumentiert solche Fälle seit langem. Siehe beispielsweise den Artikel „Looking for Acceleration in All the Wrong Places” (Auf der Suche nach Beschleunigung an den falschen Stellen), wo selektiv ausgewählte, absinkende Pegelmesser verwendet wurden, um eine globale Krise zu behaupten. Was diese Studie so wohltuend macht, ist ihre ingenieurwissenschaftliche Perspektive. Voortman verfügt über drei Jahrzehnte Erfahrung im Hochwasserschutz und in der Küsteninfrastruktur. Auf die Frage, warum eine solche Überprüfung nicht schon früher durchgeführt wurde, antwortete er schlicht: „Es ist verrückt, dass dies noch nicht geschehen ist.”
Denken Sie darüber nach. Milliarden wurden in Klimamodelle und Medienberichterstattung gesteckt, aber bis jetzt kam niemand auf die Idee, die Prognosen des IPCC systematisch mit den tatsächlichen Beobachtungen von Pegelmessern auf globaler Ebene zu vergleichen.
Das passiert, wenn Wissenschaft politisiert wird: Ingenieure müssen einschreiten, um alle daran zu erinnern, dass physikalische Messungen wichtig sind.
Fallstudien: Venedig, Sydney und San Francisco:
• Venedig: Schlagzeilen behaupten oft, dass Venedig „aufgrund des Klimawandels versinkt“. Tatsächlich ist die Notlage Venedigs in erster Linie auf Bodensenkungen aufgrund von Grundwasserentnahme und geologischem Absenken zurückzuführen. Gezeitenmessgeräte zeigen einen langfristigen, stetigen Anstieg von etwa 1,5 mm/Jahr – keine Beschleunigung.
• Sydney: Wie in „Ungrounded Australian Fears“ (Ungegründete Ängste in Australien) gezeigt, werden Behauptungen über einen beschleunigten Anstieg des Meeresspiegels um Sydney durch Pegelaufzeichnungen widerlegt, die keine signifikante Beschleunigung zeigen.
• San Francisco: Einer der ältesten kontinuierlich betriebenen Pegelmesser der Welt, der seit den 1850er Jahren in Betrieb ist, zeigt über seine gesamte Aufzeichnungsdauer hinweg die gleiche Rate von ~2 mm/Jahr, ohne dass es nach 1950 trotz massiver CO₂-Zunahmen zu bedeutenden Veränderungen gekommen wäre.
Im Jahr 2013 veröffentlichte WUWT „The Most Important Sea-Level Graph” (Die wichtigste Grafik zum Meeresspiegel). Sie zeigte globale Pegelstandsdaten aus mehr als einem Jahrhundert: eine gerade, stetig ansteigende Linie. Kein Hockeyschläger. Keine scharfe Biegung in der Kurve. Nur ein stetiger Anstieg. Zwölf Jahre später sind Voortman & de Vos zu dem gleichen Ergebnis gekommen – nur jetzt in einer von Fachkollegen begutachteten Form.
Das Fazit: Daten gewinnen, Klimaalarmismus verliert.
Diese niederländische Studie bestätigt, was WUWT seit über einem Jahrzehnt argumentiert:
• Der Anstieg des Meeresspiegels ist real, aber moderat.
• Die Beschleunigung ist nicht global, nicht klimabedingt und nicht alarmierend.
• Prognosen über einen Anstieg um mehrere Fuß [1 Fuß = ca. 30 cm] sind übertrieben, politisch motiviert und stehen im Widerspruch zu Beobachtungen.
Folgendes sollte künftig als Leitfaden dienen:
1. Für die Politik: Die Infrastrukturplanung sollte auf dem beobachteten Anstieg von ~1,5 mm/Jahr basieren und nicht auf spekulativen Prognosen von „Metern bis 2100”.
2. Für die Wissenschaft: Das Ausbleiben einer Beschleunigung an 95 % der Messstellen widerlegt direkt die Behauptung, dass der Anstieg des CO₂-Gehalts in der Atmosphäre zu einem unaufhaltsamen Anstieg des Meeresspiegels führt.
3. Für das Vertrauen der Öffentlichkeit: Den Menschen wird immer wieder gesagt, dass ihre Städte überflutet werden. Wenn diese Vorhersagen nicht eintreffen, schwindet das Vertrauen in die Wissenschaft. Man höre damit auf!
Die Pegelmesser haben gesprochen. Und wieder einmal sagen sie: stetiger Anstieg, beherrschbar und nicht überraschend.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Neue globale Studie über Tidenmesser widerlegt Behauptungen über beschleunigten Anstieg des Meeresspiegels erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Woher kommt der Strom? Aus dem Film „Die Götter müssen verrückt sein“
Bis zum Donnerstag ist nur eine recht schwache Windstromerzeugung zu verzeichnen. Erst am Freitag zieht die Stromerzeugung mittels Windkraft leicht an. Die PV-Stromerzeugung liegt Montag und Dienstag noch über 40 Gigawatt (GW). Mittwoch werden die 40 GW mit 39,7 GW knapp gerissen. Am Donnerstag ist es bedeckt (19,1 GW) in Deutschland. Dann steigt die PV-Stromerzeugung wieder an, die 40 GW werden allerdings bis zum Ende der Analysewoche nicht mehr erreicht. Die steigende Windstromerzeugung in Verbindung mit der erklecklichen PV-Stromerzeugung und dem geringen Wochenendbedarf führt zu einer Stromübererzeugung, die die Strompreise sofort Richtung Null-Linie/Negativbereich führt. Am Samstag wird nur einmal die Null-Linie (15:00 Uhr -0,4€/MWh) unterschritten. Die regenerativen Stromerzeuger erhalten die komplette Vergütung gemäß EEG. Am Sonntag allerdings liegen die Preise vier Stunden unter 0€/MWh (12:00 bis 15:00 Uhr). Deshalb entfällt die Vergütung für diese Stunden. Die Wochenendgrafik illustriert sehr schön die Funktionsweise der Preisdifferenzgeschäfte, die in erster Linie von europäischen Nachbarn getätigt werden. Mittlerweile ist ein gewisser Boom in Sachen Batteriegroßspeicher festzustellen, der meines Erachtens in erster Linie von den Gewinnaussichten gespeist wird. Denn die Preisdifferenzen können selbstverständlich von jedermann zum Geldverdienen genutzt werden. Dass damit aber das Problem der Dunkelflauten über ein, zwei Tage oder gar Wochen gelöst werden könnte, ist absolut unmöglich.
WochenüberblickMontag, 25.8.2025 bis Sonntag, 31.8.2025: Anteil Wind- und PV-Strom 53,9 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 67,3 Prozent, davon Windstrom 22,5 Prozent, PV-Strom 31,3 Prozent, Strom Biomasse/Wasserkraft 13,4 Prozent.
- Regenerative Erzeugung im Wochenüberblick 25.8.2025 bis 31.8.2025
- Die Strompreisentwicklung in der 35. Analysewoche 2025.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 35. Analysewoche ab 2016.
Daten, Charts, Tabellen & Prognosen zur 35. KW 2025:
Factsheet KW 35/2025 – Chart, Produktion, Handelswoche, Import/Export/Preise, CO2, Agora-Zukunftsmeter 68 Prozent Ausbau & 86 Prozent Ausbau
- Rüdiger Stobbe zur Dunkelflaute bei Kontrafunk aktuell 15.11.2024
- Bessere Infos zum Thema „Wasserstoff“ gibt es wahrscheinlich nicht!
- Eine feine Zusammenfassung des Energiewende-Dilemmas von Prof. Kobe (Quelle des Ausschnitts)
- Rüdiger Stobbe zum Strommarkt: Spitzenpreis 2.000 €/MWh beim Day-Ahead Handel
- Meilenstein – Klimawandel & die Physik der Wärme
- Klima-History 1: Video-Schatz aus dem Jahr 2007 zum Klimawandel
- Klima-History 2: Video-Schatz des ÖRR aus dem Jahr 2010 zum Klimawandel
- Interview mit Rüdiger Stobbe zum Thema Wasserstoff plus Zusatzinformationen
- Weitere Interviews mit Rüdiger Stobbe zu Energiethemen
- Viele weitere Zusatzinformationen
- Achtung: Es gibt aktuell praktisch keinen überschüssigen PV-Strom (Photovoltaik). Ebenso wenig gibt es überschüssigen Windstrom. Auch in der Summe der Stromerzeugung mittels beider Energieträger plus Biomassestrom plus Laufwasserstrom gibt es fast keine Überschüsse. Der Beleg 2023, der Beleg 2024/25. Strom-Überschüsse werden bis auf wenige Stunden immer konventionell erzeugt. Aber es werden, insbesondere über die Mittagszeit für ein paar Stunden vor allem am Wochenende immer mehr. Genauso ist es eingetroffen. Sogar in der Woche erreichen/überschreiten die regenerativen Stromerzeuger die Strombedarfslinie.
Was man wissen muss: Die Wind- und Photovoltaik-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie, angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem Jahresverlauf 2024/25 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.
TagesanalysenMontag
Montag, 25.8.2025: Anteil Wind- und PV-Strom 50,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 64,3 Prozent, davon Windstrom 14,4 Prozent, PV-Strom 36,0 Prozent, Strom Biomasse/Wasserkraft 13,8 Prozent.
Die regenerative Stromerzeugung übersteigt knapp die Bedarfslinie. Die Strompreisbildung. Gigantische Verdienstmöglichkeiten. Nur nicht für die Stromkunden in Deutschland.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 25. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 25.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Dienstag
Dienstag, 26.8.2025: Anteil Wind- und PV-Strom 45,9 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 58,8 Prozent, davon Windstrom 10,7 Prozent, PV-Strom 35,2 Prozent, Strom Biomasse/Wasserkraft 12,9 Prozent.
Die Regenerativen kratzen an der Bedarfslinie. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 26. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 26.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Mittwoch
Mittwoch, 27.8.025: Anteil Wind- und PV-Strom 47,4 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,9 Prozent, davon Windstrom 20,8 Prozent, PV-Strom 26,7 Prozent, Strom Biomasse/Wasserkraft 12,4 Prozent.
Die regenerative Stromerzeugung bricht ein. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 27. August 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 27.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Donnerstag
Donnerstag, 28.8.2025: Anteil Wind- und PV-Strom 29,1 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 43,8 Prozent, davon Windstrom 13,0 Prozent, PV-Strom 16,1 Prozent, Strom Biomasse/Wasserkraft 14,8 Prozent.
Ein regenerativer Zusammenbruch. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 28. August 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 28.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Freitag
Freitag, 29.8.2025: Anteil Wind- und PV-Strom 46,3 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,5 Prozent, davon Windstrom 19,4 Prozent, PV-Strom 26,9 Prozent, Strom Biomasse/Wasserkraft 14,2 Prozent.
Die regenerative Stromerzeugung nimmt wieder Fahrt auf. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 29. August 2016.
Daten, Charts, Tabellen & Prognosen zum 29.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Samstag
Samstag, 30.8.2025: Anteil Wind- und PV-Strom 55,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 71,3 Prozent, davon Windstrom 25,5 Prozent, PV-Strom 30,2 Prozent, Strom Biomasse/Wasserkraft 15,6 Prozent.
Der niedrige Wochenendbedarf wird regenerativ übertroffen. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 30. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 30.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Sonntag
Sonntag, 31.8.2025: Anteil Wind- und PV-Strom 61,2Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 75,6 Prozent, davon Windstrom 27,7 Prozent, PV-Strom 33,5 Prozent, Strom Biomasse/Wasserkraft 14,4 Prozent.
Das gleiche Bild wie gestern. Die Strompreisbildung
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 31. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 31.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.
Rüdiger Stobbe betreibt seit 2016 den Politikblog MEDIAGNOSE.
Der Beitrag Woher kommt der Strom? Aus dem Film „Die Götter müssen verrückt sein“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
In den ASEAN-Staaten ist Kohle eine physikalische Manifestation des Fortschritts
Vijay Jayaraj
Wenn die meisten Menschen an die ASEAN denken – einen vielfältigen Zusammenschluss südostasiatischer Staaten, zu dem Brunei, Kambodscha, Indonesien, Laos, Malaysia, Myanmar, die Philippinen, Singapur, Thailand und Vietnam gehören –, dann kommen ihnen Thailands Strände, Singapurs glänzende Skyline oder Indonesiens Tempel in den Sinn.
Was sie nicht sehen, ist eine wirtschaftliche Macht, die einen Teil des weltweit größten Wachstums der Energienachfrage vorantreiben wird. Vietnam hat sich zu einem globalen Produktionszentrum entwickelt. Indonesien verarbeitet das weltweit benötigte Nickel für Batterien von Elektrofahrzeugen. Thailand stellt Autos für den Export nach ganz Asien her. Jeder dieser Wirtschaftsmotoren benötigt zuverlässigen, erschwinglichen Strom, der rund um die Uhr verfügbar ist.
Tatsächlich stieg die Nachfrage im Jahr 2023 um fast 45 Terawattstunden (TWh) – eine Energiemenge, die kontinuierlich erzeugt, regional übertragen und lokal geliefert werden muss. Woher kam dieser neue Strom? Aus Kohle. Erstaunliche 96 % dieser neuen Nachfrage wurden durch Kohlekraftwerke gedeckt.
Lassen Sie das auf sich wirken. Kohle, die Energiequelle, die in westlichen Hauptstädten und auf globalen Klimagipfeln regelmäßig verteufelt wird, deckte fast den gesamten neuen Strombedarf der Region. Diese Realität steht in direktem Widerspruch zu den rosigen Prognosen für einen Übergang zu „erneuerbaren Energien“, die von hochbezahlten Führungskräften elitärer Beratungsunternehmen aufgestellt wurden, die fast ein Jahrzehnt lang Regierungen und Investoren Energie-Märchen verkauft haben.
Allein Indonesien hat 2023 11 TWh Strom aus Kohle hinzugewonnen, während sein Strombedarf um 17 TWh gestiegen ist, wobei Kohle zwei Drittel dieses Anstiegs deckte. Die Philippinen erzeugen mehr als 60 % ihres Stroms aus Kohle, Malaysia und Vietnam jeweils rund 50 %.
Die ultra-superkritische Kohletechnologie, die mit außergewöhnlich hohen Temperaturen und Drücken arbeitet und erstmals im malaysischen Kraftwerk Manjung und im indonesischen Kraftwerk Batang zum Einsatz kam, bietet einen höheren Wirkungsgrad als ältere Kohlekraftwerke. Diese fortschrittlichen Anlagen zeigen, dass sich die Kohletechnologie weiter verbessert, während Wind- und Solarenergie weiterhin von den Wetterbedingungen und der Tageszeit abhängig sind.
Der Anteil von Wind- und Solarenergie in den ASEAN-Staaten blieb 2023 bei kläglichen 4,5 %. Dieser winzige Beitrag ist eine Bankrotterklärung der Versprechen von Beratern, dass „erneuerbare Energien” bis Mitte der 2020er Jahre den regionalen Energiemix dominieren würden.
Die Dominanz der Kohle in den letzten Jahren ist kein Zufall, sondern eine Notwendigkeit. Indonesien, der Wirtschaftsriese der Region, stützt sich auf Kohle, um seine exportorientierten Industrien anzutreiben, darunter Nickel für EV-Batterien. Der Produktionsboom in Vietnam, der Millionen Menschen in die Mittelschicht befördert, basiert auf der stabilen Produktion von Kohle. Auch Malaysia und die Philippinen sind auf Kohle angewiesen, um ihr Wirtschaftswachstum aufrechtzuerhalten. Selbst Singapur, ein globales Zentrum für Innovation, ist auf Kohle angewiesen, um seine Energiesicherheit zu gewährleisten.
Sich jedoch ausschließlich auf das Stromnetz zu konzentrieren bedeutet, den Wald vor lauter Bäumen nicht zu sehen, da Strom nur einen Teil des gesamten Energieverbrauchs ausmacht. Das Gesamtbild ergibt sich aus dem Primär-Energieverbrauch, der Kraftstoffe für Transport, Industrie und Heizung umfasst.
Öl, Erdgas und Kohle machen zusammen den größten Anteil am Primär-Energiemix der ASEAN-Staaten aus, wobei Öl den Verbrauch im Transport- und Industriesektor dominiert. Fabriken, Petrochemie, Schifffahrt, Luftfahrt und Landwirtschaft verbrauchen alle große Mengen an fossilen Brennstoffen.
Die ASEAN-Länder investieren Hunderte Milliarden Dollar in die Infrastruktur für fossile Brennstoffe, die jahrzehntelang in Betrieb sein wird. Kohlekraftwerke haben eine durchschnittliche Lebensdauer von 40 Jahren. Diese Kapitalinvestitionen führen zu langfristigen Verpflichtungen zur Nutzung von Kohlenwasserstoffen, die weit über die aktuellen politischen Zyklen hinausgehen.
Neunzehn Projekte in Malaysia, Vietnam, Brunei, Indonesien und Myanmar verfügen über mehr als 540 Milliarden Kubikmeter förderbares Gas. Länder geben nicht Milliarden für die Erschließung von Gasfeldern aus, wenn sie vorhaben, innerhalb des nächsten Jahrzehnts aus fossilen Brennstoffen auszusteigen.
Die Begeisterung der ASEAN-Staaten für Kohle geht über die reine Stromversorgung hinaus. Diese Nationen verfolgen keine willkürlichen Klimaziele, sondern bauen die Infrastruktur für ihre Zukunft und den Wohlstand ihrer Bevölkerung auf.
Jeder neue Flughafen, jede neue Autobahn und jede neue Fabrik ist ein Beweis für die Kraft der Kohle. Sich gegen Kohle auszusprechen bedeutet, sich gegen die physischen Manifestationen des Fortschritts zu stellen. Die „grüne” Agenda, die darauf abzielt, Kohle zu eliminieren, verlangt von den Entwicklungsländern, den Bau von Infrastruktur zu stoppen – ein Ultimatum, das die ASEAN zu Recht und klugerweise ignoriert.
Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag In den ASEAN-Staaten ist Kohle eine physikalische Manifestation des Fortschritts erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
