EIKE - Europäisches Institut für Klima und Energie e.V.

EIKE - Europäisches Institut für Klima und Energie e.V. Feed abonnieren EIKE - Europäisches Institut für Klima und Energie e.V.
Nicht das Klima ist bedroht, sondern unsere Freiheit!
Aktualisiert: vor 3 Stunden 15 Minuten

Anhörung im Repräsentantenhaus zum Vogelsterben ignoriert Windräder

17. März 2026 - 9:00

David Wojick

Das Thema der Anhörung war das wichtige Gesetz, das fast alle amerikanischen Vögel vor vorsätzlicher Tötung schützt. Es handelt sich um den sogenannten Migratory Bird Treaty Act oder MBTA. Es wurde 1916 als Teil eines Vertrags mit Kanada verabschiedet und seitdem auf über 1.100 Arten ausgeweitet, unabhängig davon, ob es sich um Zugvögel handelt oder nicht.

Ursprünglich wurde es verabschiedet, um eine übermäßige Bejagung bis hin zur Ausrottung zu verhindern, als Federn ein großes Modeaccessoire waren. Heute ist es ein großes Thema, ob das Gesetz auf die versehentliche Tötung ausgeweitet werden sollte, wie es beim Eagle Protection Act der Fall ist.

Die versehentliche Tötung wird als „zufällige Entnahme” bezeichnet. Sie ist nicht zufällig für den Vogel, sondern nur für den Betrieb der Anlage.

Der Zweck der Anhörung im Repräsentantenhaus bestand angeblich darin, mögliche Änderungen des MBTA zu prüfen, darunter auch die Aufnahme von Bestimmungen zur zufälligen Entnahme. Ein Video der Anhörung steht hier.

(Die Anhörung wurde verschoben, sodass sie erst um etwa Minute 43 beginnt.)

Hier kommt der Wind ins Spiel, denn Windkraftanlagen sind zu einer enormen Nebenursache für den Tod von Vögeln geworden, nach einigen Schätzungen über eine Million pro Jahr. Bemerkenswerterweise kam das Thema der durch Windkraftanlagen getöteten Vögel nie zur Sprache, obwohl einer der vier Zeugen ein Experte für Vogelschutz von einem großen Energieversorger war. Das Schweigen war ohrenbetäubend.

Stattdessen sprach der Zeuge des Energieversorgers kurz über das freiwillige Programm der Branche zur Verringerung der Zahl der durch Stromleitungen getöteten Vögel. Die Botschaft schien zu lauten: „Wir tun etwas, also lasst uns in Ruhe.“

Der Zeuge des Energieversorgers betonte auch, dass die Branche „regulatorische Sicherheit“ für die langfristige Planung benötige. Das klingt wie ein Code für „ändert nichts“, zweifellos auch nicht am MBTA.

Während der Fragerunde wurden diese beiden Botschaften bei jeder Frage an diesen Zeugen einfach wiederholt. Sie wollten offensichtlich nicht über die Tötung von Vögeln durch Windkraftanlagen sprechen oder darüber, wie das MBTA dieses wichtige Thema angehen könnte.

Ein eng damit verbundenes Thema, das wiederholt zur Sprache kam, war eine aktuelle Studie, der zufolge viele amerikanische Vogelarten an Population verlieren. Dies wurde als Krise bezeichnet, aber die zentrale Rolle, die Wind beim Aussterben unserer Vögel spielen könnte, wurde nie erwähnt. Die Studie heißt „State of the Birds 2025” und ist hier verfügbar.

Tatsächlich wurde im Repräsentantenhaus ein Gesetzentwurf eingereicht, um die MBTA um den Punkt „zufällige Tötung“ zu ergänzen, aber auch dieser wurde nie diskutiert.

Zu ihrer Ehre muss man sagen, dass die Vorsitzende Hageman tatsächlich mehrmals die Tötung von Vögeln durch Windkraftanlagen erwähnte, unter anderem in ihrer Eröffnungsrede. Sie sagte sogar, dass sie versuche, das Innenministerium dazu zu bewegen, etwas gegen die Tötung von Adlern durch Windkraftanlagen in ihrem Bundesstaat Wyoming zu unternehmen. Sie erwähnte auch den Kampf der Albany County (Wyoming) Conservancy gegen die Errichtung einer „Windmauer” in dieser Gegend.

Aber die Ausschussmitglieder und Zeugen ignorierten alle das katastrophale Problem der durch Windkraft verursachten Vogelsterblichkeit, deren Zahl ständig zunimmt. Heute sind in Amerika weit über 50.000 Onshore-Windkraftanlagen in Betrieb, und viele weitere werden folgen. Wenn man Millionen von Vögeln töten wollte, wäre dies der richtige Weg.

Stattdessen drehten sich die meisten Diskussionen nur um zwei Vogelarten, die so zerstörerisch zahlreich geworden sind, dass sie bis zu einem gewissen Grad getötet werden müssen. Dass sich die Anhörung darauf konzentrierte, Vögel töten zu wollen, anstatt sie zu retten, war so ironisch, dass es schon amüsant war.

Die erste schädliche Vogelart ist der Schwarzgeier. Er hat sich zu einem Raubtier entwickelt, das Kälber und andere kleine Haustiere tötet. Nach dem MBTA dürfen Landwirte und Viehzüchter diese großen Vögel nicht einfach erschießen, wenn sie angreifen, obwohl ich mir sicher bin, dass sie dies tun. Ein Zeuge war ein Viehzüchter, der einen Angriff auf ein Kalb in allen grausamen Details beschrieb.

Das zweite kriminelle Tier ist der Doppelschopfkormoran. Riesige Schwärme dieser äußerst erfolgreichen Vögel verwüsten manchmal Aquakulturanlagen, indem sie alle Fische auffressen. Da es sich um Tauchvögel handelt, können sie auch die Sportfischpopulationen in kleineren Seen und Teichen dezimieren. Ein Zeuge war ein bekannter Bassangler.

Angesichts der Tatsache, dass zwei der vier Zeugen die Vögel töten und nicht retten wollten und sie bei weitem die besten Redner waren, ist es kein Wunder, dass dieses Thema die Anhörung dominierte.

Während ich also viel über Schwarzgeier und Doppelschopfkormorane gelernt habe, habe ich nichts über die dringend benötigte Gesetzgebung zum Schutz der Vögel vor dem Tod durch Windkraftanlagen gehört. Das sollte eine eigene Anhörung im Repräsentantenhaus oder Senat sein. Diese wichtige Diskussion sollte auch nicht auf das MBTA beschränkt sein. Die Bändigung von Windkraftanlagen erfordert ein eigenes Gesetz.

Link: https://www.cfact.org/2026/03/10/house-hearing-on-bird-killing-ignores-wind/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Anhörung im Repräsentantenhaus zum Vogelsterben ignoriert Windräder erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Gute Nachrichten: CBS News schraubt den Klimawandel-Alarmismus zurück – Media Matters beschwert sich

16. März 2026 - 18:00

Anthony Watts

In dem kürzlich erschienenen Artikel „CBS’ leadership in broadcast news climate coverage is chipping away under Bari Weiss” (Die Führungsrolle von CBS in der Berichterstattung über das Klima in den Fernsehnachrichten schwindet unter Bari Weiss) beklagen die Autoren einen ihrer Meinung nach dramatischen Rückgang der Klimaberichterstattung bei CBS News. Diese Veränderung ist längst überfällig. CBS News scheint sich von Klimapanikmache abzuwenden und zu einer ausgewogeneren redaktionellen Beurteilung hin zu entwickeln.

Jahrelang lobte Media Matters CBS News als führend in der Klimaberichterstattung im Rundfunk und wies darauf hin, dass der Sender mehr Beiträge und mehr Inhalte zu „Klimaproblemlösungen“ ausstrahlte als seine Konkurrenten. Im Jahr 2025 machte CBS News 48 Prozent der gesamten Sendezeit zum Thema Klima aus. Seit Bari Weiss im Oktober die Chefredaktion übernommen hat, ist das Volumen der Klimaberichterstattung jedoch stark zurückgegangen – bis zum Jahresende wurden nur noch 20 Minuten Klimaberichterstattung in sieben Beiträgen ausgestrahlt, wie aus der folgenden Abbildung hervorgeht:

Media Matters stellt die reduzierte Berichterstattung als gefährlichen Rückzug von der „wissenschaftlich fundierten“ Berichterstattung dar. Der Artikel dokumentiert jedoch etwas ganz anderes, nämlich eine Rückkehr zu einer ausgewogenen Berichterstattung und die widerwillige Erkenntnis, dass der Klimawandel nicht die von CBS in der Vergangenheit so oft behauptete akute Bedrohung darstellt und dass andere Themen für das Publikum des Medienunternehmens wichtiger sind.

Zu den Beschwerden von Media Matters gehörte die Berichterstattung von CBS über eine Geschichte im Januar, in der es darum ging, dass die Populationen der Eisbären zunehmen und die Bären trotz des Rückgangs des Meereises gesund zu sein scheinen. Media Matters behandelte dies als eine Ausnahme, die es nicht wert sei, gesendet zu werden, aber die Berichterstattung über positive ökologische Daten, wenn es sie gibt, ist ehrlicher Journalismus. Wenn Beweise eine Darstellung komplizieren, berichten verantwortungsbewusste Redaktionen darüber.

Der Meteorologe Ryan Maue, Ph.D., bemerkte auf X: „CBS News unter Bari Weiss hat den Klimaalarmismus im Sender komplett ‚ausgeblendet‘.“ Er fügte hinzu: „Die einzige Meldung seit Monaten betraf zu dicke Eisbären.“ Das ist kein Sender, der die Wissenschaft aufgibt. Das ist ein Sender, der sich von einer übermäßigen Berichterstattung zurückzieht, die oft die Grenze zwischen Berichterstattung und Interessenvertretung verwischt hat.

Noch aufschlussreicher ist die Besorgnis von Media Matters darüber, dass CBS News seine Partnerschaft mit dem Aktivistenkonsortium Covering Climate Now beendet hat. Wie Maue in einem zweiten X-Beitrag feststellte, „hat CBS News seine enge Partnerschaft mit der Klimaaktivistengruppe Covering Climate Now aufgegeben, die Inhalte kontrolliert und Narrative in der Medienlandschaft koordiniert“. Dieser Schritt deutet darauf hin, dass CBS sich von koordinierten Interessenvertretungen externer Interessengruppen distanziert und seine redaktionelle Unabhängigkeit wiederherstellt.

Der Artikel von Media Matters stellt Weiss‘ Führungsstil so dar, als würde er „Klimaskeptiker und Kontrahenten“ importieren und die „institutionelle Kapazität“ für die Klimaberichterstattung reduzieren. Was er jedoch tatsächlich dokumentiert, ist eine Verringerung des Umfangs – nicht eine nachweisliche Verringerung der Genauigkeit. Die Klimaberichterstattung wird nicht allein durch eine Verlängerung der Sendezeit genauer.

Quantität ist nicht gleich Qualität.

Jahrelang stellten Fernsehsender das Klima oft als eine Krise dar, die dringende politische Maßnahmen erfordert, berichteten unkritisch über unbestätigte alarmierende Klimabehauptungen als Wahrheit und integrierten häufig politische Lobbyarbeit in ihre Berichterstattung. Die eigene Lobeshymne von Media Matters auf die frühere Führung von CBS unterstreicht dies: Der Sender „widmete den Lösungen für das Klimaproblem größere Aufmerksamkeit“. Die Berichterstattung über „Lösungen“ bedeutete oft, Regulierungsvorschläge und Kampagnen zur Emissionsreduzierung zu verstärken.

Eine Abkehr von diesem Ansatz hinterlässt keine „Lücke im nationalen Klimainformations-Ökosystem“, wie Media Matters behauptet, sondern ist vielmehr eine Rückkehr zu ehrlichem Journalismus, indem die potenziellen Gefahren des Klimawandels in den richtigen Kontext zu anderen wichtigen, unmittelbareren und dringlicheren politischen Themen gestellt werden, die für die Öffentlichkeit von größerer Bedeutung sind.

Der Klimawandel bleibt ein legitimes Thema für die Berichterstattung, aber er ist nicht das einzige Problem, mit dem das Land konfrontiert ist. Obwohl eine Mehrheit der befragten Amerikaner (etwa 60 % bis 63 %) sich besorgt über den Klimawandel äußert, rangiert dieses Thema in der Rangliste der wichtigsten Wahlprioritäten durchweg weit unten und liegt in nationalen Umfragen oft auf oder nahe dem letzten Platz – manchmal auf Platz 12 oder noch weiter hinten. Redaktionelle Entscheidungen erfordern Prioritätensetzungen. Wenn die Führungskräfte von CBS zu dem Schluss gekommen sind, dass die bisherige Berichterstattung unverhältnismäßig oder zu einseitig war, ist eine Kurskorrektur kein Rückzug, sondern eine wohlüberlegte Neukalibrierung.

Nachrichten sollten informieren, nicht Wahlkampf betreiben.

Media Matters befürchtet, dass weniger Klimabeiträge die Wähler „weniger gut vorbereiten” würden. Das geht fälschlicherweise davon aus, dass eine ständige Berichterstattung über Klimathemen per se lehrreich ist. Eine Überflutung mit solchen Themen kann zu Ermüdung, Polarisierung und sinkendem Vertrauen führen – Trends, die von den Mainstream-Medien ausführlich dokumentiert werden.

Durch den Rückzug aus koordinierten Partnerschaften mit Aktivisten und die Reduzierung einer übertrieben alarmistischen Berichterstattung reagiert CBS möglicherweise auf die Skepsis des Publikums gegenüber engagiertem Journalismus.

Während Media Matters über den Rückgang der hyperbolischen Berichterstattung über den Klimawandel alarmiert ist, sehen versierte Zuschauer darin möglicherweise eine willkommene Rückkehr zur journalistischen Unabhängigkeit und unvoreingenommenen Berichterstattung. Angesichts der Umfragen, die zeigen, dass das Vertrauen der Öffentlichkeit in die Medien auf einem historischen Tiefstand ist, könnte diese Veränderung durch die Wiederherstellung der Integrität der Berichterstattung auch das Vertrauen der Öffentlichkeit in Journalisten wiederherstellen.

Wenn CBS sich dafür entscheidet, Ausgewogenheit vor Überflutung, Fakten vor narrativer Koordination und redaktionelle Unabhängigkeit vor aktivistischer Ausrichtung zu priorisieren, ist das kein Grund zur Klage. Es ist etwas, das Beifall verdient.

Link: https://climaterealism.com/2026/03/good-news-cbs-news-is-dialing-back-the-climate-alarm-media-matters-complains/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Gute Nachrichten: CBS News schraubt den Klimawandel-Alarmismus zurück – Media Matters beschwert sich erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Januar und Februar verhalten sich vollkommen unterschiedlich. Nicht nur in Deutschland, Teil 2

16. März 2026 - 13:30
Teil 2: der CO₂-Treibhauseffekt hat keine erkennbare Wirkung

Von Matthias Baritz, Josef Kowatsch

  1. Die beiden Wintermonate Januar und Februar entwickeln sich seit 1987/88 vollkommen unterschiedlich im Verlauf, deutschland- und auch europaweit.
  2. Damit ist die Erwärmung durch CO₂ als Haupttemperaturtreiber widerlegt.

Das ist der derzeitige ideologische Glaube der Treibhauskirche. Er bestimmt leider immer noch die deutsche Politik.

Abb. 1: Laut dem linksgrünen Geschäftsmodell CO₂-Treibhauserwärmung sollen ausschließlich Treibhausgase, und aus dieser Gruppe hauptsächlich CO₂ für die starke Temperaturzunahme der letzten Jahrzehnte verantwortlich sein. CO₂ sei der Haupttemperaturregler, wird behauptet. Mit Strafsteuern, genannt Klimarettungssteuern verspricht die Politik mitsamt den anderen Klimarettern, die Welt vor dem drohenden Hitzeuntergang, vor der globalen Weltverbrennung zu bewahren.

Diese CO₂-Überhitzungsmärchen sind natürlich ein ausgedachtes Geschäftsmodell. Das haben wir im letzten Artikel anhand des Verlaufs der Temperaturtrendgeraden der beiden Wintermonate Januar und Februar für die verschiedensten DWD Einzelstationen gezeigt. Der Grund dieses Artikels war die Kritik in einem Kommentar zu unserem Artikel, in dem wir den Dezember und Januar verglichen: Zitat: „...Da der Dezember astronomisch fast noch ein Herbstmonat…… Im Januar ist der Winter erst richtig angekommen. Hier ist ein Vergleich mit Februar eher angebracht…“ Zitat Ende.

Teil 1 über Deutschland steht hier.

Wir gehen nun aus Deutschland heraus und zeigen, dass das unterschiedliche Verhalten der Temperaturtrendgeraden nicht nur auf Deutschland beschränkt ist. Beginnen wir ganz im Norden Europas, Skandinavien.

Abb. 2: obere graue Kurve: CO₂-Zunahme, Januar blau, Februar orange. Die Temperaturen im Februar (orange) steigen tendenziell und haben wohl nur eine scheinbare minimale Korrelation mit der CO₂- Keeling Kurve. Die Temperatur-Trendgerade des Januars verhält sich entgegen gesetzt dazu. Der Januar wird kälter. Quelle ECMWF ERA 5

Ergebnis: Der Februar wird seit 1988 unbedeutend wärmer in Skandinavien, während der Januar seit 1988 tendenziell deutlich kälter wird. Anhand dreier Einzelstationen aus den skandinavischen Ländern ist dies noch besser ersichtlich:

Abb. 3a – 3c: Deutlich fallende Temperaturtrendlinie für den Januar (blaue Linie=kälter), die Februartemperaturtrendlinie ist nahezu gleichbleibend seit 1988. Quelle: https://www.ncei.noaa.gov/

Dies sind nur drei Stationen, stellvertretend für viele andere, die wir untersucht haben: Enorme Spreizung der Temperaturtrendgeraden beider Monate seit 1988.

Komisch oder? Hält CO₂ im Januar etwa Winterschlaf und startet dann erst im Februar richtig los, fragen wir mal etwas ironisch?

Gehen wir zu unseren südlichen Nachbarn nach Österreich:

Abb. 4: Auch in Österreich gehen die Temperaturtrendlinien auseinander, obwohl auch dort der Februar unmittelbar auf den 31. Januar folgt

Wir halten fest:

  • Der Januar zeigt in Skandinavien und Österreich (genauso wie in Deutschland) keine Erwärmung!
  • Der Februarerwärmung ist fast überall nachweisbar, im Norden etwas weniger als in Deutschland oder Österreich
  • Die Schere der Temperaturtrendgeraden der beiden Monate geht auseinander

Eine CO₂ bedingte Erwärmung scheidet aufgrund der unterschiedlichen Trendlinien aber aus.

Merke: Kohlendioxid kann nicht für den ganzen Januar aussetzen und dann im Februar stark erwärmend wirken. Solche Gaseigenschaften gibt es auch in Österreich nicht.

Damit steht fest: Der Temperaturverlauf von Januar und dem darauffolgenden Februar kann überhaupt nicht durch eine „Treibhauseigenschaft“ des Kohlendioxids erklärt werden. Es gilt vielmehr: CO₂ ist kein Treibhausgas oder es wirkt allerhöchstens in homöopathischen Dosen.

Betrachten wir nun Datensätze außerhalb des europäischen Festlandes. Hier bietet sich wieder Virginia in den Vereinigten Staaten an.

Abb. 5: Wie in Europa laufen auch hier im US-Bundesstaat Virginia die Temperatur-Trendgeraden auseinander. Januar wird tendenziell kälter, der Februar wärmer. Quelle: NOAA Climate Divisional Database

Es stellt sich wiederum die Frage, was diese Temperaturverläufe mit dem CO₂ zu tun haben sollen, mit der Lüge, wonach CO₂ wäre die alleinige Ursache der Temperaturentwicklung wäre. Antwort: GAR NICHTS! Wie kann das Spurengas CO₂ im Januar kühlend wirken und im Februar wärmend.

Oder doch andersherum???

Abb. 6: Im US-Bundesstaat Montana verlaufen die Temperaturtrendgeraden entgegengesetzt zu denen bisher betrachteten: Der Februar wird tendenziell kälter, der Januar wärmer! Quelle: NOAA Climate Divisional Database

Oder gar nicht? Wie in Grönland:

Abb. 7: In Zentralgrönland gibt es fast 90 Jahre lang keine signifikante Temperaturänderung. Man beachte das Gebiet der Koordinaten. Tendenziell bleiben diese über den gesamten Zeitraum konstant. Es gibt auch keinen Temperatursprung 1987/88. Von einer gefährlichen Klimaerwärmung mit bevorstehender Eisschmelze ist nirgendwo was in Sicht. Nicht nur die Kölner können aufatmen. Ihr Dom wird nicht in Bälde unter Wasser stehen!!! Quelle: ECMWF ERA 5

Nicht nur die Kölner, auch die 60 000 Grönländer selbst wohnen doch direkt am Küstenstreifen ihrer großen Insel. Ihre Ansiedlungen werden nicht vom steigenden Meeresspiegel überschwemmt werden.

Wir sehen somit keinerlei Wirkung von CO₂ als maßgeblicher Temperaturtreiber. Auch die großen Jahresausschläge der Monate nach oben und unten zeigen, dass andere Ursachen die jeweiligen Temperaturen in einem bestimmten Jahr maßgebend bestimmen. Wäre CO₂ der bestimmende Faktor, dann dürfte es von Jahr zu Jahr nicht solch erhebliche Temperaturunterschiede geben.

Unsere Grafiken, insbesondere die letzten drei, zeigen, dass eine stete Erwärmung durch CO₂ ausgeschlossen werden muss. In diesen Beispielen würde das CO₂ eine zeitliche Abhängigkeit (Januar-Februar) und eine vom Ort (Virginia-Montana) abhängige Eigenschaft besitzen.

Ergebnis: CO₂ -Erwärmung kann nicht von Ort und Zeit abhängen und ist somit hier als Ursachenfaktor nicht feststellbar. CO₂ wirkt, falls überhaupt, allerhöchstens in homöopathischen Dosen irgendwo versteckt mit.

Grundforderung von uns Natur- und Umweltschützern:

  1. Die werbemäßig geplante und von der Regierung gewollte CO₂-Klimahysterie, sowie die Abzocke durch CO₂-Klimasteuern muss auch in Deutschland sofort und endgültig eingestellt werden. Diese Klimaschutzsteuer, die alles nur nicht das Klima schützt, ruiniert unser Land. Das ist übrigens auch der beabsichtige Sinn der ganzen linksgrünen Klima-Hysterie.
  2. Wer sich zur CO₂-Erwärmungsglaubenskirche bekennt, der soll freiwillig seine persönliche CO₂-Steuer bezahlen, um sich von seinem persönlichen mitschuldig geglaubten CO₂-Fußabdruck freizukaufen so wie die törichten Gläubigen des Ablasshandels im Mittelalter. Mit gutem Beispiel uns vorangehen, das ist eben gerade nicht die Sache dieser neuen Ablasskirche.
  3. Wir sind auch gegen teure CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo der Erde wieder zu vergrößern.
  4. Hört endlich auf mit der CO₂-Klimalüge und den völlig wertlosen Klimarettungsmaßnahmen.

Wer die Schöpfung schützen will, der muss CO₂ schützen.

Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Das notwendige Wachstums- und Düngemittel aller Pflanzen nimmt zu, mehr CO₂ führt zu einem beschleunigten Ergrünen, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt nicht bei 420 ppm wie derzeit, sondern etwa bei 800 bis 1200ppm, das ist um die 0,1%. Nicht nur für das Pflanzenwachstum, sondern wahrscheinlich für alle Lebewesen, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Der optimale Konzentrationsgehalt der Lebensverbindung Kohlendioxid in der Atmosphäre, dem irdischen Schöpfungsgas sollte endlich wissenschaftlich an den Universitäten erforscht werden

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Klimaschutz und Umweltschutz sind Gegensätze und keine Ergänzungen. Klimaschutz zerstört die Ökologie unserer Landschaft, zerstört die Vielfalt der Schöpfung.

Gegen die Terrorgruppe „letzte Generation“ und andere Klima-Chaotenanstifter der angeblichen Klimarettung muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppen keine Natur- und Umweltschützer sind, sondern bezahlte Chaos- und Unruheanstifter. Eine große Gefahr für unsere Demokratie. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich hier von unserer Arbeitsgruppe beschrieben.

Als aktive Natur- und Umweltschützer setzen wir uns für die ökologische Vielfalt unserer Landschaft, für den Erhalt der ökologischen Lebensräume mit ihren natürlichen Biotopen ein.

                                            Nicht so,                                                                                           sondern so

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Naturschützer

 

Der Beitrag Januar und Februar verhalten sich vollkommen unterschiedlich. Nicht nur in Deutschland, Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Kurzmeldungen aus Klima und Energie – Ausgabe 9 /2026

16. März 2026 - 9:00

Meldung vom 8. März 2026:

Meereis um die Antarktis erholt sich auf normale Werte

Das antarktische Meereis hat sich seit den Tiefstständen von 2023 deutlich erholt und liegt nun fast wieder auf dem normalen Niveau.

Die neuesten Daten zeigen, dass die Abweichung der Meereisausdehnung nahe am Referenzwert für den Zeitraum 1991–2020 liegt – der höchste Wert seit 2021. In den letzten drei Jahren hat sich das antarktische Meereis um rund 2,5 Millionen km² ausgedehnt.

Nachdem die Anomalie im Jahr 2023 auf etwa -2,5 Millionen km² gesunken war, stieg sie stetig wieder in Richtung Null, wodurch das antarktische Meereis praktisch wieder auf das für die heutige Zeit typische Niveau zurückkehrte.

Im Gegensatz zur Arktis sind solche Schwankungen im antarktischen System üblich. Das Meereis unterliegt von Jahr zu Jahr starken Schwankungen, da sich Winde, Ozeanzirkulation und atmosphärische Muster rund um den Südlichen Ozean verändern.

Der starke Rückgang in den Jahren 2022–23 ereignete sich während einer Phase ungewöhnlicher atmosphärischer Bedingungen. Der Ausbruch des Hunga Tonga im Januar 2022 schleuderte eine beispiellose Menge Wasserdampf in die Stratosphäre, was vermutlich die Zirkulation in der südlichen Hemisphäre vorübergehend gestört hat.

Unabhängig von den Ursachen zeigen die neuesten Zahlen, dass sich das antarktische Meereis entgegen den gängigen Prognosen schnell erholt:

The Guardian

—————————-

Neue Studie: Gegenwärtige Erwärmung ist alles andere als ungewöhnlich

Eine neue Studie, die Daten aus antarktischen Eisbohrkernen analysiert, legt nahe, dass der Anstieg der globalen Temperatur um etwa 1,1 °C im letzten Jahrhundert im Vergleich zur langen Geschichte des natürlichen Klimas nicht ungewöhnlich ist.

Die Studie des emeritierten Professors Les Hatton von der Kingston University untersucht Temperaturveränderungen, die in antarktischen Eiskernen erhalten geblieben sind – eine der aussagekräftigsten Aufzeichnungen, die wir über das Klima der Vergangenheit haben.

Wenn in der Antarktis Schnee fällt, schließt er winzige Luftblasen ein. Im Laufe von Tausenden von Jahren verdichten sich diese Schichten zu Eis und bewahren so einen chemischen Bericht über die Atmosphäre und die Temperatur zum Zeitpunkt des Schneefalls.

Der in der Studie verwendete EPICA–Vostok-Datensatz reicht etwa 800.000 Jahre zurück, wobei Temperaturschätzungen etwa einmal pro Jahrhundert aufgezeichnet wurden.

Hatton untersuchte lediglich die letzten 20.000 Jahre (den Zeitraum seit dem Ende der letzten Eiszeit) und stellte fest, dass es in etwa 16 % aller Jahrhunderte zu einer Erwärmung von mindestens 1,1 °C kam. Etwa jedes sechste Jahrhundert erwärmte sich ebenso stark wie die letzten hundert Jahre. Tatsächlich war es während der vorangegangenen Warmzeit vor etwa 125.000 Jahren um mehrere Grad wärmer als heute.

[Hervorhebungen im Original]

Hatton stellte außerdem fest, dass die Temperaturen während der Zwischeneiszeiten von Jahrhundert zu Jahrhundert recht stark schwanken. Und seit dem Ende der letzten Eiszeit sind die Temperaturen um etwa 12 °C gestiegen, während sich riesige Eisschilde in Nordamerika und Europa zurückzogen.

Ein Anstieg um 1,1 °C über ein Jahrhundert liegt durchaus im Bereich der natürlichen Schwankungen, die im Eis aufgezeichnet worden sind.

Link: https://electroverse.substack.com/p/major-late-season-snowstorms-target?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————-

Meldungen vom 10. März 2026:

Deutschland: Kosten des Nuklear-Ausstiegs sind gigantisch

Deutschlands Entscheidung, seine Kernkraftwerke stillzulegen, wirkt sich weiterhin auf das gesamte Energiesystem aus.

Laut JPMorgan hätte Deutschland im Jahr 2024 etwa 50 % weniger fossile Brennstoffe zur Stromerzeugung verbraucht, darunter 84 % weniger Erdgas, wenn es seine Kernkraftwerke weiter betrieben hätte.

Stattdessen hat Berlin zuverlässige Kernkraftkapazitäten stillgelegt und durch ein System ersetzt, das stark auf Kohle, Gas und importierten Strom angewiesen ist, wenn Wind- und Solarenergie ausfallen – was natürlich häufig vorkommt (jede Nacht/an bewölkten Tagen bei Solarenergie).

Die wirtschaftlichen Kosten sind ebenso verheerend.

JPMorgan schätzt, dass die Strompreise in Deutschland heute um etwa 25 % niedriger wären, wenn die Kernenergie weiterhin Teil des Energiemix‘ gewesen wäre. Außerdem hätte das Land nur etwa halb so viel Strom aus den Nachbarländern importieren müssen.

Mit anderen Worten: Deutschland hat eine Flotte emissionsfreier Reaktoren stillgelegt, mehr fossile Brennstoffe verbrannt, die Preise in die Höhe getrieben und ist stärker von ausländischem Strom abhängig geworden – alles im Namen der „Rettung des Planeten“ durch eine „Energiewende“.

[Hervorhebung vom Übersetzer]

Kaum eine politische Entscheidung verdeutlicht die Kluft zwischen Klimarhetorik und physischer Realität so deutlich.

—————————-

Der stille Rückzug aus dem Klima-Alarm

In Kanada streicht die Regierung mehr als 800 Stellen bei „Environment and Climate Change Canada“ (ECCC) im Rahmen eines umfassenderen Plans, den öffentlichen Dienst in den nächsten drei Jahren um rund 15 % zu verkleinern.

Wie zu erwarten war, melden sich Wissenschaftler zu Wort. Ein kürzlich in „The Conversation“ erschienener Artikel warnt davor, dass Entlassungen die arktischen Forschungsteams zerschlagen könnten, die sich mit Umweltgiften und langfristigen ökologischen Trends befassen.

Jahrzehntelang haben sich ganze Karrieren und Fachbereiche um das Narrativ einer bevorstehenden Klimakatastrophe herum entwickelt. Diese Strukturen erzeugten einen stetigen Strom alarmierender Berichte, Schlagzeilen und politischer Forderungen.

Nun beginnen Regierungen, die zunehmendem wirtschaftlichem Druck und politischem Widerstand ausgesetzt sind, die riesigen Bürokratien neu zu bewerten, die rund um die Klimapolitik und die Umweltüberwachung aufgebaut worden waren.

Und nun werden die Mittel gekürzt.

Wenn die Budgets schrumpfen, stellen Regierungen kritische Fragen dazu, welche Programme tatsächlich einen Mehrwert bieten. Die ausufernde Klimabürokratie – einst politisch unantastbar – ist plötzlich nicht mehr immun.

Der gleiche Wandel erfasst auch die Medien. Sender, die einst fast täglich Klimabeiträge ausstrahlten, stellen fest, dass das Publikum sich im Allgemeinen nicht mehr für apokalyptische Narrative interessiert.

Laut der Aktivisten-Propaganda-Organisation Media Matters hat CBS News kürzlich seine Berichterstattung zum Klimawandel reduziert – eine Entwicklung, die nach Ansicht der Gruppe einen umfassenderen redaktionellen Wandel innerhalb des Senders widerspiegelt. Media Matters bezeichnete diese Entwicklung als „besorgniserregenden Rückschritt“.

Jahrelang haben die großen Sender die Medienlandschaft mit Unsinn über die Klimakrise überschwemmt, während sie Unsicherheiten, abweichende Forschungsergebnisse oder unbequeme Daten ausgeblendet haben. Die Berichterstattung glich eher Aktivismus als Journalismus. Nun schraubt sogar der Mainstream seine Berichterstattung zurück.

Link: https://electroverse.substack.com/p/antarctica-below-60c-as-sea-ice-stabilizes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

—————————-

Meldung vom 11. März 2026:

Neue Studie stellt einen zentralen Eckpunkt des IPCC in Frage

Eine neue Studie unter der Leitung von Jonathan Cohler kommt zu dem Schluss, dass eine der wichtigsten Kennzahlen des IPCC – das sogenannte Energieungleichgewicht der Erde – auf Sand gebaut ist.

Der sechste Sachstandsbericht des IPCC (AR6) schätzt das Energieungleichgewicht der Erde auf etwa 0,7 W/m² – das bedeutet, dass der Planet pro Quadratmeter vermutlich um diesen Betrag an Energie zunimmt (was größtenteils auf menschliche Emissionen zurückgeführt wird). Da Satelliten dieses Ungleichgewicht allein nicht präzise messen können, werden ihre Strahlungsmessungen angepasst, um sie mit den Schätzungen der Wärmeaufnahme durch den Ozean in Einklang zu bringen, die hauptsächlich aus Argo-Bojen abgeleitet werden.

Argo ist ein bedeutendes Beobachtungssystem, doch seine Standard-Bojen erfassen in der Regel nur die oberen 2000 m in einem 10-Tage-Zyklus, sodass ein Großteil des Ozeans ungemessen bleibt. Die Strahlungsmessungen der Satelliten werden dann angepasst, um sie mit diesen Schätzungen der Wärmeaufnahme des Ozeans in Einklang zu bringen.

Und nach Cohler et al. fangen genau hier die Probleme an.

In ihrer Arbeit argumentieren sie, dass die Messungen im Ozean zu spärlich sind und große Lücken durch statistische Interpolation gefüllt werden. Das Verfahren ist anfällig für übersehene Wirbel, Strömungen, Lücken in der Tiefsee und in den Polargebieten, die Drift von Messbojen sowie für Entscheidungen bei der Datenverarbeitung, wie etwa die Auswahl der Referenzlinie. Berücksichtigt man diese strukturellen Unsicherheiten, schätzen die Autoren die tatsächliche Unsicherheit auf mindestens ± 1 W/m² bei einem Konfidenzniveau von 95 % – weit größer als die in den großen Bewertungen angegebenen Unsicherheitsbereiche und sogar größer als das behauptete Ungleichgewicht von 0,7 W/m² selbst.

Die Schlagzeilenzahl des IPCC ist laut dieser neuen Studie keineswegs eine harte Messung, sondern vielmehr ein modellabhängiges Konstrukt, das auf spärlichen Daten und Annahmen auf Annahmen aufbaut.

All dies beweist nun nicht, dass die Ozeane keine Wärme aufnehmen. Es bedeutet jedoch, dass das Vertrauen in die Genauigkeit der Schätzungen stark überbewertet wurde. Selbst in den gängigen Bewertungen wird eingeräumt, dass das Energieungleichgewicht der Erde schwer zu überwachen ist, da es im Vergleich zu den weitaus größeren Energieflüssen, die in den Planeten ein- und aus ihm austreten, verschwindend gering ist; Cohler et al. gehen noch einen Schritt weiter und argumentieren, dass die Unsicherheit so groß ist, dass die zentrale Zahl des IPCC nicht als feststehende Beobachtungs Tatsache behandelt werden kann.

Ein großer Teil der modernen Klimakommunikation stützt sich auf die Behauptung, dass die überschüssige Wärme des Planeten präzise gemessen, quantifiziert und erfasst wird. Diese zentrale Messgröße beruht jedoch auf spärlichen Probenahmen in der oberen Meeresoberfläche, statistischen Interpolationen und zirkulären Kalibrierungen.

Link: https://electroverse.substack.com/p/blizzards-batter-central-asia-europes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Der Beitrag Kurzmeldungen aus Klima und Energie – Ausgabe 9 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Beispiel einer Wärmeinsel-Verzerrung an einer offiziellen Klima-Station

15. März 2026 - 18:00
Neue Temperaturstudie in Reno stellt starke städtische Wärmeinseleffekte an offizieller Klimastation fest

Anthony Watts

Unabhängiges Referenzsystem zeigt, dass die Flughafenstation Temperaturen meldet, die bis zu 1,5°C höher sind als die einer nahe gelegenen, ordnungsgemäß platzierten Station. Die offiziellen Temperaturmessungen am Reno-Tahoe International Airport sind aufgrund des städtischen Wärmeinseleffekts ungenau zu hoch.

SCHAUMBURG, ILLINOIS (10. März 2026) – Eine neue Analyse des Heartland Institute hat ergeben, dass die offizielle Temperaturmessstation am Reno-Tahoe International Airport durchweg höhere Temperaturen misst als eine nahegelegene, ordnungsgemäß platzierte Referenzstation. Dies zeigt, wie die Platzierung der Station und die örtlichen Gegebenheiten zu messbaren Verzerrungen der Temperaturmessungen führen können.

Dies ist besonders wichtig, da Reno oft als „die Stadt mit der schnellsten Erwärmung in den Vereinigten Staaten“ bezeichnet wird, wobei die Ursache dafür eindeutig im Klimawandel gesehen wird. Die offizielle Klimabeobachtungsstation der National Oceanic and Atmospheric Administration (NOAA) in Reno wird als Automated Surface Observing System (ASOS)-Station bezeichnet und befindet sich zwischen den Rollbahnen des Flughafens.

Der Bericht „Global Open Atmospheric Temperature System (GOATS): What Was Accomplished in Reno“ präsentiert die Ergebnisse eines zweijährigen Vergleichs zwischen der ASOS-Station des Flughafens und einer unabhängig betriebenen, hochmodernen Referenzstation, die strengen Standortstandards entspricht.

Der Vergleich zeigt, dass die ASOS-Station des Flughafens – umgeben von Asphalt, Start- und Landebahnen und Infrastruktur – deutlich höhere Temperaturen gemessen hat als die GOATS-Station, die nur knapp 2 km entfernt auf einer geeigneten Grasfläche ohne wärmespeichernde Oberflächen in der Nähe steht.

„Diese Messungen zeigen, dass allein die Platzierung der Station zu einer erheblichen Verzerrung der gemeldeten Temperaturdaten nach oben führen kann“, sagte Anthony Watts, Senior Fellow für Umwelt und Klima am Heartland Institute und Entwickler des Global Open Atmospheric Temperature System (GOATS). „Wenn Thermometer in der Nähe von wärmespeichernden Oberflächen wie Asphalt und Gebäuden aufgestellt werden, messen sie die Temperatur dieser Umgebung – nicht unbedingt die der allgemeinen Atmosphäre.“

Zwei Jahre parallele Messungen

Die GOATS-Referenzstation wurde im Dezember 2023 mit Genehmigung der Flughafenbehörde in der Nähe des internationalen Flughafens Reno-Tahoe installiert und sammelte fast zwei Jahre lang parallel zur offiziellen Flughafenstation Messdaten.

Die Forscher verglichen die täglichen Höchsttemperaturen (Tmax), die täglichen Tiefsttemperaturen (Tmin) und die täglichen Durchschnittstemperaturen (Tavg) der Jahre 2024 und 2025. Die Ergebnisse zeigten ein einheitliches Muster: Die offizielle Flughafenstation meldete an den meisten Tagen höhere Temperaturen.

Die durchschnittlichen Temperaturunterschiede zwischen der offiziellen ASOS-Station und der GOATS-Station waren wie folgt:

[Die folgenden Temperaturdaten sind wie in den USA üblich in Grad Fahrenheit angegeben und wurden hier gleich in Grad Celsius umgerechnet. A. d. Übers.]

2024

  • Höchstwerte: +0,75°C
  • Tiefstwerte: +1,62°C
  • Tagesmittel: +1,18°C

2025

  • Höchstwerte +0,36°C
  • Tiefstwerte: +1.20°C
  • Tagesmittel: +0,79°C

Die Flughafenstation meldete in beiden Messjahren in mehr als 90 Prozent der Nächte höhere Nachttemperaturen.

[Hervorhebung im Original]

Nächtliche Tiefstwerte zeigen die größte Differenz

Die Forscher stellten den größten Unterschied zwischen den Stationen bei den nächtlichen Tiefsttemperaturen fest. Dieses Phänomen ist ein klassischer Indikator für den städtischen Wärmeinseleffekt (Urban Heat Island, UHI), bei dem die tagsüber von Straßenbelägen, Beton und nahegelegenen Infrastrukturen absorbierte Wärme nachts langsam wieder abgegeben wird.

Weil Klimadaten häufig auf täglichen Durchschnittstemperaturen basieren, berechnet anhand der Tageshöchst- und -tiefsttemperaturen, können erhöhte Nachttemperaturen die langfristigen klimatischen Temperaturaufzeichnungen erheblich beeinflussen.

„Der städtische Wärmeinseleffekt ist gut dokumentiert“, so Watts. „Das Experiment in Reno zeigt, wie stark diese Effekte die Messungen beeinflussen können, wenn die Messgeräte in der Nähe künstlicher Wärmequellen aufgestellt werden.“

Konfirmation früherer nationaler Ergebnisse

Das Reno-Experiment baut auf den Ergebnissen des Berichts „Corrupted Climate Stations: The Official U.S. Surface Temperature Record Remains Fatally Flawed” (Korrupte Klimastationen: Die offiziellen Temperaturdaten der USA sind nach wie vor fatal fehlerhaft) des Heartland Institute aus dem Jahr 2022 auf, in dem weit verbreitete Probleme bei der Standortwahl offizieller Wetterstationen in den USA dokumentiert worden sind.

Im Gegensatz zu früheren Untersuchungen, die sich mit der Standortwahl der Stationen befassten, liefert das Reno-Experiment direkte Vergleichsmessungen, die unter identischen Wetterbedingungen durchgeführt wurden.

[Hervorhebung im Original]

„Dieses Projekt zeigt in der Praxis, wie sich die Lage eines Mikrostandorts auf die gemeldeten Temperaturen auswirkt”, sagte Watts. „Es zeigt, dass die Integrität der Messungen überprüft werden muss, bevor Schlussfolgerungen über langfristige Klimatrends gezogen werden können.”

Implikationen bzgl. Klimadaten und die Politik

Temperaturmessungen spielen eine wichtige Rolle bei der Gestaltung öffentlicher Diskussionen über Klimatrends und der Gestaltung von Energie-, Umwelt- und Infrastrukturpolitik.

Der Bericht kommt zu dem Schluss, dass die Platzierung von Messstationen und die Exposition von Mikrolagen bei Klimadatenprüfungen und politischen Bewertungen ausdrücklich bewertet werden sollten.

„Wenn Temperaturmessstationen durch nahegelegene Wärmequellen beeinflusst werden, müssen diese Auswirkungen verstanden und berücksichtigt werden“, sagte Watts. „Andernfalls laufen politische Entscheidungsträger Gefahr, Entscheidungen auf der Grundlage von Messungen zu treffen, die lokale Wärme-Beeinflussungen enthalten.“

Über GOATS

Das Global Open Atmospheric Temperature System (GOATS) ist ein unabhängiges Netzwerk zur Messung der Temperatur, das sich am United States Climate Reference Network (USCRN) der National Oceanic and Atmospheric Administration orientiert, dem höchsten Standard der US-Bundesregierung für verzerrungsarme Temperaturmessungen.

GOATS-Stationen verwenden dreifach redundante Sensoren, geeignete Sonnenschutzvorrichtungen und strenge Standortstandards, um den Einfluss künstlicher Wärmequellen in der Nähe zu minimieren. Sie zeichnen die Temperatur minütlich auf und veröffentlichen die Daten offen und ohne Anpassungen.

Die GOATS-Station am Flughafen Reno-Tahoe, aufgestellt von Anthony Watts

Mike Alger, ein Veteran des lokalen Fernsehens in Reno (Nevada) war maßgeblich daran beteiligt, die Genehmigung für die Aufstellung der GOATS-Station auf dem Flughafengelände neben dem Flughafen zu erhalten, um die Nähe zu gewährleisten. Nach Auswertung der Ergebnisse äußerte er sich wie folgt:

„Seit Jahrzehnten habe ich vermutet, dass die Temperaturen am Flughafen Reno aufgrund des städtischen Wärmeinseleffekts deutlich zu hoch sind. Diese Studie zeigt sehr deutlich, dass der Wärmeinseleffekt nicht nur vorhanden, sondern sogar dramatisch ausgeprägt ist. Die Verwendung von Temperaturaufzeichnungen dieser Station und vieler anderer ähnlicher Stationen muss bei der Bewertung der Klima-Temperaturentwicklung überprüft werden.“

Der vollständige Report „Global Open Atmospheric Temperature System (GOATS): What Was Accomplished in Reno,” ist hier verfügbar. Die vollständigen Daten sind hier einzusehen. Ein technisches Whitepaper zum GOATS-Projekt steht hier.

The Heartland Institute is a national free market think tank founded in 1984 that The Economist magazine called “the world’s most prominent think-tank promoting skepticism about man-made climate change.”

Der UHI ist real, zumindest in Reno:

Temperatur-Querschnitt am 28. Oktober 2008 um 23.15 Uhr Ortszeit in Reno. Temperaturbereich 45°F ~ 7,2°C; 57°F ~ 13,9°C. Wie üblich ist die Differenz zwischen Innenstadtlagen und Randgebieten abends am größten.

Link: https://wattsupwiththat.com/2026/03/10/new-temperature-study-in-reno-finds-strong-urban-heat-island-bias-at-official-climate-station/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Beispiel einer Wärmeinsel-Verzerrung an einer offiziellen Klima-Station erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Klimawandel — Wo die Experten sich selbst zum Narren machen

15. März 2026 - 14:00

Francis Menton, THE MANHATTAN CONTRARIAN

In letzter Zeit wurde viel über den Niedergang der Fachkompetenz in Amerika geschrieben. Bei einem Thema nach dem anderen haben sich diejenigen, die sich als Experten ausgaben, als völlig falsch liegend erwiesen. COVID lieferte zahlreiche Beispiele: von den Ursprüngen (stammte es aus einem Laborunfall?) über die Wirksamkeit von Impfstoffen bis hin zur Notwendigkeit von Lockdowns und „Social Distancing“. Ein weiteres berühmtes Beispiel war der Laptop von Hunter Biden, von dem über 50 „Experten“ aus den Geheimdiensten behaupteten, er weise „die klassischen Merkmale“ „russischer Desinformation“ auf.

Aber gibt es einen Bereich, in dem sich selbst ernannte Experten noch lächerlicher gemacht haben als beim Thema „Klimawandel“?

Auf der Grundlage von Modellen und Zusicherungen von „Experten“, wonach es eine „Klimakrise“ gebe, die nur durch den Übergang zu einer neuen Energiezukunft mit Windrädern und Solarzellen gelöst werden könne, ist eine mehrere Billionen Dollar schwere Industrie entstanden. Die Regierung würde dies einfach anordnen! Präsident Joe Biden und seine Regierung haben sich diese Darstellung voll und ganz zu eigen gemacht. Eine der ersten Durchführungsverordnungen Bidens (Nr. 14008, 20. Januar 2021) verkündete die „Klimakrise“, deren Lösung in einer „regierungsweiten“ Agenda zur Umgestaltung des Energiesystems zu finden sei. Auszug:

Die Vereinigten Staaten und die Welt stehen vor einer tiefgreifenden Klimakrise. Wir haben nur wenig Zeit, um im In- und Ausland Maßnahmen zu ergreifen, um die katastrophalsten Auswirkungen dieser Krise zu vermeiden und die Chancen zu nutzen, die der Kampf gegen den Klimawandel bietet. . . . Wir müssen auf die Wissenschaft hören – und handeln. . . . Es ist die Politik meiner Regierung, die gesamten Kapazitäten ihrer Behörden zu bündeln und einzusetzen, um die Klimakrise zu bekämpfen und einen regierungsweiten Ansatz umzusetzen, der die Klimabelastung in allen Wirtschaftsbereichen verringert. . . .

Im Anschluss an diese Durchführungsverordnung erließen die EPA, das Energieministerium, das Innenministerium, die SEC und viele weitere Behörden Vorschriften, um fossile Brennstoffe einzuschränken und einen mythischen Übergang zu erneuerbaren Energien voranzutreiben. Mit fossilen Brennstoffen betriebene Kraftwerke sollten per Verordnung verboten werden. Gleiches galt für Fahrzeuge ohne Elektroantrieb. Der (falsch benannte) „Inflation Reduction Act“ von 2022 warf zusätzlich Hunderte von Milliarden Dollar ohne Obergrenze für „grüne Energie“ in den Mix. Der Privatsektor folgte mit fast einhelligen Bekenntnissen zur Agenda. Vor weniger als vier Jahren befanden wir uns genau an diesem Punkt.

Heute, in der realen Welt, glaubt das niemand mehr. Und mit „realer Welt“ meine ich den privaten Sektor. Ford, GM und Stellantis/Chrysler haben ihre Investitionen in Elektrofahrzeuge massiv abgeschrieben. Die „Net Zero Banking Alliance“ – ein Kartell, dem im Wesentlichen alle großen Banken angehörten und das versprochen hatte, Investitionen in die Infrastruktur für fossile Brennstoffe zu unterbinden – löste sich im Oktober 2025 auf.

Und noch mehr: Vor ein paar Wochen berichtete Latitude Media, dass der von Bill Gates unterstützte riesige Fonds für grüne Energie namens Breakthrough Energy seine Tochtergesellschaft Catalyst schloss. Das ist die Einrichtung, die Finanzmittel für die vermeintlich neuen Technologien bereitstellte, die nötig waren, um die Energiewende zu ermöglichen. Auszug:

Breakthrough Energy hat beschlossen, keine neuen Investitionen mehr über Catalyst zu tätigen, seinem einzigartigen Projektfinanzierungszweig. Dies ist der jüngste Rückschlag für Klimatechnik-Start-ups, die versuchen, in einem ohnehin schon schwierigen Markt zu wachsen. . . . Catalyst hatte sich zum Ziel gesetzt, insgesamt 15 Milliarden US-Dollar an Projektfinanzierungen für Technologien wie grünen Wasserstoff, nachhaltigen Flugkraftstoff, Direktluftabscheidung, Langzeit-Energiespeicherung sowie kohlenstoffarmen Zement und Stahl zu mobilisieren.

Es sieht so aus, als würde „philanthropisches Kapital“ nicht die Lösung für grüne Energie sein. Kein privates Kapital mehr für „grünen Wasserstoff“ und „Kohlenstoffabscheidung“ – zwei Technologien, die der „Manhattan Contrarian“ als hoffnungslos unwirtschaftlich verspottet hat. Lara Pierpoint von der Prime Coalition äußerte sich dazu wie folgt:

„Die Tatsache, dass Catalyst verschwindet, ist ein schwerer Schlag“, sagte Lara Pierpoint, Geschäftsführerin von Trellis Climate bei der Prime Coalition, die philanthropisches Kapital in Klimatechnologie-Start-ups investiert, in einem Interview mit Latitude Media. „Es gibt keinen Ersatz für das, was Catalyst geleistet hat.“

Und natürlich verschwindet unter Präsident Trump auch der massive Geldsegen der US-Bundesregierung für grüne Energie rapide.

Aber keine Sorge – die „Experten“ sind immer noch da draußen und machen sich lächerlich, als wäre nichts passiert. Ich spreche insbesondere von Leuten in gemeinnützigen Organisationen und an Universitäten, die ihre Existenz nicht durch Gewinne oder Erfolge rechtfertigen müssen. Ich könnte aus Hunderten von Beispielen wählen, aber für den heutigen „Klimawandel-Experten-Trottel des Tages“ möchte ich meine eigene Alma Mater, die Yale University, herausgreifen.

Besuchen Sie die Website von Yale – oder vielleicht sollte man besser sagen: die Websites – und Sie werden Hunderte von Seiten über die verschiedenen Klimainitiativen, Programme und Mitteilungen der Universität finden. All diese scheinen unverändert weiterzulaufen, als hätte sich nichts geändert. Schauen Sie sich zum Beispiel den „Yale Sustainability Plan 2025“ an, ein Dokument von über 50 Seiten. Es gibt zwar kein Veröffentlichungsdatum, aber dieses Dokument wurde eindeutig verfasst, nachdem Donald Trump zum zweiten Mal Präsident geworden war. Ich zitiere einige ausgewählte Auszüge:

Ambitionen, Ziele und Vorgaben

Yales Nachhaltigkeitsverpflichtungen für 2025 sind in neun Ambitionen gegliedert. Diese werden durch 20 Ziele und 38 Vorgaben konkretisiert. Jedes Ziel wird durch zahlreiche Strategien untermauert; wichtige taktische Meilensteine sind in den Tabellen „Schritte“ und „Ziele“ aufgeführt.

Jegliche Ähnlichkeit mit einem sowjetischen Fünfjahresplan ist rein zufällig. Aus dem gleichen Nachhaltigkeitsplan stammt hier ein Beispiel für akademisches Schreiben, nach dem auch Sie streben können, wenn Sie nur einen schicken Ivy-League-Abschluss erwerben können:

Dieser Plan schafft die Voraussetzungen für eine Wissenschaft, die gängige Annahmen hinterfragt und dazu beiträgt, Wege in eine nachhaltigere Zukunft zu ebnen. Er wurde konzipiert, um den Austausch und die Zusammenarbeit zwischen den akademischen Disziplinen sowie zwischen den wissenschaftlichen und operativen Bereichen der Universität zu fördern. Dieser Plan bietet eine dynamische und verbindende Plattform für die Beteiligung aller Mitglieder der Yale-Gemeinschaft, einschließlich Studierender, Alumni, Lehrkräfte, Mitarbeiter und Führungskräfte. Er wird zudem auf einer Vielzahl von Partnerschaften mit führenden Institutionen und Netzwerken in allen Teilen der Welt und in allen Bereichen aufbauen und diese bereichern.

Puh! Hat ihnen schon jemand gesagt, dass die CO₂-Emissionen in der realen Welt Jahr für Jahr kontinuierlich steigen und die Emissionen von Yale so gering sind, dass man es gar nicht bemerken würde, wenn man sie auf null reduzieren würde? Anscheinend nicht, denn der Nachhaltigkeitsplan enthält separate Teilpläne für Einrichtungen wie die Bibliothek, die Theologische Fakultät und das Sportprogramm.

Und dann gibt es noch das Yale Climate Communications Program, dessen Zweck offenbar darin besteht, der Bevölkerung Angst einzujagen, um den Geldhahn weiter offen zu halten. Ihr Argument:

Die globale Erwärmung ist eine der größten Bedrohungen – und Chancen – des 21. Jahrhunderts. Unser gemeinsames Schicksal wird von den Entscheidungen von 8 Milliarden Menschen bestimmt, Tendenz steigend. Wir sind Wissenschaftler, welche die Ursachen und Folgen der öffentlichen Meinung und des Verhaltens untersuchen.

Yales Klima-„Experten“ werden durch ein Stiftungsvermögen von 44 Milliarden Dollar unterstützt, dazu kommen regelmäßige Zuschüsse von linken Stiftungen, deren Gesamtvermögen ein Vielfaches davon beträgt. Sie werden so schnell nicht verschwinden. Wir können uns also auf absehbare Zeit darauf freuen, von ihrer Torheit unterhalten zu werden.

Link: https://wattsupwiththat.com/2026/03/12/climate-change-where-the-experts-make-fools-of-themselves/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Den Optimismus bzgl. eines Zusammenbruchs des Klimawahns und vor allem die Wahrnehmung desselben in der Öffentlichkeit hierzulande kann ich nicht teilen. Dafür sind wir Deutsche zu Medien-hörig, und solange diese auf der Wahnwelle weiter schwimmen, habe ich wenig Hoffnung. Nur zu gerne würde ich mich aber eines Besseren belehren lassen.

 

Der Beitrag Klimawandel — Wo die Experten sich selbst zum Narren machen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Kältereport Nr. 11 / 2026

15. März 2026 - 11:00

Vorbemerkung: Dieser Kältereport ist kürzer als sonst. Cap Allon bringt meist nur ein oder zwei aktuelle Meldungen, dafür jedoch eine ganze Reihe von Nachrichten, die Eingang in die nächste Ausgabe der „Kurzmeldungen“ finden werden. Den Anfang der nächsten Woche deutet sich in den USA eine Mega-Entwicklung an, die hier aber als Vorausschau nur kurz Eingang findet.

Weiter geht es mit

Einer Meldung vom 10. Februar 2026:

Antarktis: unter –60°C – Meereis stabilisiert sich

Die eisige Kälte der Antarktis ist früh zurückgekehrt.

Am 8. März sanken die Temperaturen an der Concordia-Station auf -60,3 °C und markierten damit den ersten Wert unter -60 °C in dieser Saison.

Solche Extremwerte sind für das Hochplateau der Ostantarktis nicht ungewöhnlich, wo klarer Himmel, trockene Luft und lange Polarnächte dafür sorgen, dass Wärme rasch ins All abstrahlt. Wenn das Sonnenlicht im Winter nachlässt, sinken die Temperaturen regelmäßig stark ab. Dennoch wird die Schwelle von -60 °C normalerweise erst später im Herbst unterschritten, nicht bereits Anfang März.

Dieser Messwert wurde verzeichnet, während sich das antarktische Meereis nach der sommerlichen Schmelzperiode stabilisiert.

Nach Angaben des NSIDC erreichte das Meereis des Kontinents am 26. Februar mit 2,58 Millionen km² sein jährliches Minimum. Diese vorläufige Zahl stellt eine deutliche Erholung gegenüber dem 2023 beobachteten Tiefstand dar und liegt nahe am Durchschnitt der Jahre 1981–2010.

„Während des größten Teils des Jahres lag das antarktische Meereis deutlich unter dem Tagesdurchschnitt“, sagte Ted Scambos, leitender Wissenschaftler am CIRES und Mitarbeiter des NSIDC. „Dann drückten im Januar und Februar starke Winde aus dem Süden das Meereis in der Weddellsee nach außen. Dies verlangsamte den allgemeinen Rückgang der Ausdehnung und führte zu einem nahezu durchschnittlichen Minimum.“

Das Gesamtbild bestätigt, was die Daten aus der Antarktis schon seit langem zeigen: enorme Schwankungen von Jahr zu Jahr, die in erster Linie durch Wind- und Ozeanströmungen bedingt sind.

Link: https://electroverse.substack.com/p/antarctica-below-60c-as-sea-ice-stabilizes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Eine Meldung vom 11. März 2026:

Zentral-Asien: schwere Schneestürme

Ein heftiger Schneesturm in der späten Saison traf Astana in Kasachstan und brachte viel Schnee sowie extreme Kälte über die Hauptstadt und die umliegende Steppe.

Der Flugverkehr wurde beeinträchtigt, und die Straßen wurden schnell unpassierbar; auf der Autobahn zwischen Astana und Karaganda kam es zu einer Massenkarambolage mit sieben Fahrzeugen.

Die Temperaturen sanken rapide, als sich der Sturm verstärkte.

In der Hauptstadt wurden am frühen Mittwoch Tiefstwerte von -27 °C gemessen.

Im gesamten Norden Kasachstans sind die Tiefstwerte weitgehend auf -20 °C gefallen, begleitet von starkem Schneefall und Schneestürmen.

Der Kälteeinbruch ist Teil einer größeren arktischen Kaltluftwelle, die diese Woche über Zentral- und Nordasien hinwegfegt. Winterliche Bedingungen und Schnee haben unter dem Einfluss der gleichen arktischen Luftmasse auch Kirgisistan, Tadschikistan und Westchina erreicht.

Später Schneefall ist in der Steppe zwar üblich, doch die Kombination aus bitterer Kälte, starken Winden und weitreichenden Schneefällen hat zu einem der härtesten Kälteeinbrüche im März der letzten Jahre in Zentralasien geführt.

Link: https://electroverse.substack.com/p/blizzards-batter-central-asia-europes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Meldungen vom 12. März 2026:

Türkei: Rekord-Schneefälle im Osten des Landes

Im Osten der Türkei haben die Schneehöhen in den Bergen der Provinz Van ein außergewöhnliches Ausmaß erreicht.

Am Karabet-Pass entlang der Autobahn Van–Bahçesaray hat die Schneehöhe laut der türkischen Generaldirektion für Meteorologie auf einer Höhe von etwa 3.000 m 3,38 m erreicht.

Diese Schneehöhe zählt zu den extremsten Werten, die jemals im Land gemessen worden sind.

Der Pass ist seit dem 27. Dezember wegen ununterbrochenen Schneefalls und der anhaltenden Lawinengefahr für den Verkehr gesperrt. Da die Hauptstraße verschüttet ist, können die Einwohner von Bahçesaray die Provinzhauptstadt Van nur über einen 250 km langen Umweg erreichen.

In einigen Gebieten in der Nähe von Van hat die Schneehöhe inoffiziellen Angaben zufolge 4 m überschritten, so dass schwere Maschinen Tunnel durch die Schneemassen graben mussten, um die lokalen Straßen befahrbar zu halten.

Dazu gibt es ein YouTube-Video

Auch die Schneefälle in der gesamten Region Ostanatolien haben in letzter Zeit für Aufsehen gesorgt, so dass die Behörden Lawinenwarnungen für die Berggebiete in der Nähe der östlichen Schwarzmeerregion und entlang der türkisch-iranischen Grenze herausgegeben haben.

Die Region Bahçesaray selbst ist vor Ort als „neunter Planet“ bekannt – ein Spitzname, der auf die ungewöhnlich langen Winter und die anhaltende Schneedecke hinweist, die regelmäßig bis weit in den Frühling hinein bestehen bleibt.

——————————

USA: Schwerer Schneesturm droht im Gebiet der Großen Seen

Auf die Vereinigten Staaten zielt ein heftiger arktischer Kälteeinbruch zum Saisonende zu, wobei für Anfang nächster Woche ein schwerer Schneesturm erwartet wird, der die Region der Großen Seen heimsuchen wird.

Ein Ausläufer des Polarwirbels wird sich zwischen Sonntag und Dienstag von der kanadischen Arktis nach Süden ausbreiten und dabei eine Kaltluftmasse von winterlicher Stärke freisetzen, die in den letzten Wochen über Nordkanada gestaut war.

Wenn diese Luftmasse in die kontinentalen Vereinigten Staaten vordringt, wird sie auf ein sich verstärkendes Sturmsystem über dem Mittleren Westen und den Großen Seen treffen.

Das Ergebnis könnte eine heftige „Bombenzyklone“ zum Ende des Winters sein.

Link: https://electroverse.substack.com/p/record-snowfall-buries-eastern-turkey?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

——————————

Meldungen vom 13. März 2026:

China: Schwerer Schnee- und Kälteeinbruch in Xinjiang

Eine massive Kältewelle fegte diese Woche über den Nordwesten Chinas hinweg und bedeckte Teile von Xinjiang unter einer dicken Schneedecke.

In Urumqi führten starke Winde und heftige Schneefälle zu einer raschen Verschlechterung der Sichtverhältnisse, als arktische Luft nach Süden strömte. Die Temperaturen fielen innerhalb weniger Stunden um 20 Grad Celsius.

Der Sturm führte schnell zu Verkehrsbeeinträchtigungen. Abschnitte der Qitai-Schnellstraße wurden durch den Schnee blockiert, wodurch Fahrzeuge festsaßen.

Heftige Schneefälle breiteten sich über den Norden Xinjiangs aus, als die Kaltfront durchzog.

So sieht die Lage in Zentralasien in letzter Zeit aus: Eine wirklich ungewöhnliche Kältewelle erstreckt sich von der arktischen Küste Sibiriens über Kasachstan, Usbekistan, Turkmenistan und Afghanistan bis hinein in den Iran.

——————————

Tasmanien, Australien: Rückkehr des Schnees

Eine ausgeprägte Kaltfront ist über Südaustralien hinweggezogen und hat Tasmanien frühen Schnee beschert.

Das Tiefdruckgebiet zog Anfang der Woche über Victoria und New South Wales hinweg, drückte kältere Luft nach Norden und ließ die Temperaturen in den südlichen Bundesstaaten sinken.

Tasmanien wurde am stärksten davon getroffen.

Am Donnerstag wurden am Mount Williams Schneeschauer gemeldet, und in den höheren Lagen der Insel wird weiterer Schneefall erwartet. Laut Wettervorhersagen wird auch am Mount Wellington mit Neuschnee gerechnet.

——————————

USA: Hitze und Schneesturm gehen in den nördlichen Staaten Hand in Hand

Anfang nächster Woche wird sich über Nordamerika im 500hPa-Niveau ein starker Hochkeil bilden. Er erzeugt zunächst einen „Hitzedom“ zu Beginn der Saison. Während sich dieser Hochdruckkeil verstärkt, wird der Jetstream stark nach Norden in Richtung Kanada abgelenkt, bevor er über die östliche Hälfte des Kontinents nach Süden abfällt.

Auf der Rückseite kann sich dann ein arktischer Trog bis in die zentralen Teile der USA ausdehnen.

Das sieht aus heutiger Sicht (13. März) wirklich interessant aus. Tatsächlich treten derartig extreme Temperatursprünge zwar nicht in jedem Jahr, aber doch immer wieder auf. So konnte ich im September 1978 in Texas, genauer in der rund 1000 m hoch gelegenen Stadt Amarillo eines Tages eine Mittagstemperatur von 34°C dokumentieren. Am Abend des gleichen Tages, also nur 12 Stunden später, meldete die Stadt bei +1°C und starkem, vermutlich eisig kaltem Nordwind Schneeregen.

Mehr dazu wie angekündigt nächste Woche bei Eintreten des Ereignisses. A. d. Übers.

Link: https://electroverse.substack.com/p/blizzard-hits-xinjiang-as-temperatures?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email

Wird fortgesetzt mit Kältereport Nr. 12 / 2026

Redaktionsschluss für diesen Report: 13. März 2026

Zusammengestellt und übersetzt von Christian Freuer für das EIKE

Der Beitrag Kältereport Nr. 11 / 2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Woher kommt der Strom? Woche beginnt mit starker Windstromerzeugung

15. März 2026 - 9:00
9. Analysewoche 2026

Die aktuelle Analysewoche beginnt mit starker Windstromerzeugung. Dann folgte eine 1 ½- tägige Dunkelflautenphase. Am Dienstag kam es denn auch zu den Wochenhöchstpreisen: Vormittag (147€/MWh) und zum Vorabend (184€/MWh). Mit der PV-Stromerzeugung erreichen die Regenerativen zum Wochenende inkl. Freitag die Bedarfslinie. Die Strompreise fallen jeweils über Mittag auf die 0€/MWh-Linie. Am Montag wurde die Bedarfslinie über die Mittagsspitze ebenfalls erreicht. Da aber fiel der Preis „lediglich“ auf 3€/MWh. Während der Dunkelflautenphase kam es durchgehend zu Stromimporten. Im Rest der Woche wurde praktisch nur am Vorabend Strom importiert. Das ist gewollt, das hebt das Preisniveau.

Einen Überblick über die wichtigsten Aspekte der 9. Analysewoche 2026 gibt Agora-Energiewende. Diese NGO erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. Wir nehmen den möglichen Prognose-Höchstwert von 86 Prozent Ausbaurate. Die Residuallasten liegen am Dienstag wieder über 70 GW. Ansonsten kommt es außer an besagtem Dienstag zu starker Strom-Übererzeugung.

Der Iran-Krieg

Selbstverständlich wird der Krieg Auswirkungen auf die Strompreise haben. Weil die Bürger in aller Regel Festpreisverträge haben, wird sich dies erst später (Vertragsverlängerung/Neuvertrag) konkret auf die Haushalte auswirken.  Die Tatsache aber, dass die Kraftstoffpreise in Deutschland so massiv angezogen sind, hat in erster Linie mit den diversen „Energiewendezuschlägen plus Mehrwertsteuer auf Alles“ zu tun. Im Nachbarland Belgien habe ich aktuell 35 Cent weniger als in Deutschland für E10-Super bezahlt. Die Rohöl- und Gaspreise ab Quelle sind das eine. Die unsäglichen Abgaben in Deutschland sind das andere.

In diesem Zusammenhang mein wiederkehrender Appell an die Verantwortlichen von „Unsererdemokratie“ und die „Freunde der Energiewende“: Stoppen Sie die Energiewende. Streichen Sie die CO2-Steuern und bauen Sie wieder eine kostengünstige, verlässliche Energieversorgung mit Kernenergie auf, bevor es zu spät ist. Ein guter, weil wichtiger Schritt in die richtige Richtung ist die geplante Änderung des alten Habeck-Heizungsgesetzes in das Gebäudemodernisierungsgesetz. Ein weiterer guter Ansatz ist das sogenannte Netzpaket. Weiter so: Hören Sie auf, einer Schimäre nachzujagen. Die Energiewende ist zum Scheitern verurteilt.

Bitte beachten Sie Peter Hagers Ausführungen zum „Strom aus Island“ nach den Tagesanalysen.

Was ist Kraftwerks-Leistung? Was ist Energie?

Gigawatt (GW) ist eine Einheit für Leistung, also für die maximale Fähigkeit eines Kraftwerks, Strom zu erzeugen. Gigawattstunden (GWh, TWh) sind eine Einheit für Energie, also für die tatsächlich produzierte Strommenge über eine bestimmte Zeit. Die Beziehung ist einfach: Energie = Leistung × Zeit. Ein Kraftwerk mit 1 GW Leistung erzeugt bei Volllast theoretisch maximal: 1 GW × 8.760 h = 8,76 TWh pro Jahr. Wie viel elektrische Energie tatsächlich entsteht, bestimmt beim Kohle-, Gas- oder Kernkraftwerk im weitesten Sinn der Mensch über die Brennstoffzufuhr und Zufuhrdauer. Die Energie für eine Stunde wird üblicher- und für den Normalbetrachter irreführenderweise mit GW bezeichnet. Die manchmal verwendete Schreibweise „GWh pro Stunde“ ist nur eine umständliche Form von GW – mathematisch kürzt sich die Stunde („h“ und „pro Stunde“) weg.

Sonderfall Wind- und Solarkraft

Bei Wind- und Solarkraft bestimmt nicht der Betreiber, sondern das Wetter die Strom-Produktion. Eine 5-MW-Windkraftanlage könnte theoretisch 43,8 GWh/Jahr erzeugen, liefert an Land aber realistisch in Deutschland nur etwa 20 Prozent davon (auf See 40 bis 50 Prozent), also rund 8,8 GWh/Jahr – im Mittel 1 MW-Dauerenergie. Bei Solarpaneelen mit ebenfalls 5 MW installierter Leistung halbieren sich die Werte nochmals wegen verschiedener Kapazitätsfaktoren: Nacht, Winter, flacher Sonnenstand, Bewölkung und Temperaturverluste.

Tageswerte

Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potenzial.

Windstrom ist konstant stark. PV-Strom ist winterlich schwach. Die Strompreise wurden nicht ausgeworfen.

Wind-Stromerzeugung zieht zum Abend an. Die Strompreise.

Windflaute. Die Strompreise.

Ein Windloch über Mittag. Die Strompreise.

Wind-Stromerzeugung fällt über Tag leicht ab. Die Strompreise.

Jetzt wieder steigende regenerative Stromerzeugung auf hohem Niveau bei niedrigerem (Wochenend-)Bedarf. Die PV-Stromerzeugung dem Frühjahr entsprechend vorhanden. Die Strompreise.

Windstrom fällt wieder ab. PV-Strom ist stark. Die Strompreise.

Grüner Strom aus Island

Zum Beginn eines Jahres erhalten die Haushalte von den Stromlieferanten die Jahresabrechnung. Darin enthalten ist auch die gesetzlich vorgeschriebene Stromkennzeichnung des gelieferten Stroms an die Kunden gemäß § 42 Energiewirtschaftsgesetz.

Es werden neben den fossilen Energieträgern wie Kohle oder Gas auch die Erneuerbaren Energien und deren Herkunftsländer unterschieden. Bei den Erneuerbaren gibt es weitere Differenzierungen:  Gefördert nach dem EEG, aus der Region (gefördert nach dem EEG) oder mit Herkunftsnachweis (nicht gefördert nach dem EEG).

Ein Herkunftsnachweis ist ein elektronisches Dokument, welches die Erzeugung einer MWh Strom aus erneuerbaren Energien bestätigt. Diese können unabhängig vom physikalisch erzeugten Strom gehandelt werden und sowohl aus Deutschland, der EU oder dem Europäischen Wirtschaftsraum (zum Beispiel Norwegen oder Island) stammen. Für die Richtigkeit der Herkunftsnachweise ist das Umweltbundesamt zuständig.

Ein großer Teil der Herkunftsnachweise in Deutschland stammt aus nordeuropäischen Ländern. Das ist sehr lukrativ, da Herkunftsnachweise aus Nordeuropa bis zu zehnmal günstiger sind als Herkunftsnachweise aus Deutschland. Jedoch sind die Herkunftsnachweise aus anderen Ländern kein Garant für eine reale Stromlieferung. Denn zwischen Island und Europa gibt es keine Stromverbindung. Der in Island regenerativ erzeugte Strom gelangt nicht ins deutsche Stromnetz.

Wenn in der Jahresabrechnung bei den Herkunftsnachweisen „Island“ angegeben ist, weiß man, dass dieser EE-Strom eine Mogelpackung ist.

Da fühlt man sich als Stromkunde – noch dazu, wenn man einen Grünstromvertrag hat – doch irgendwie verschaukelt. Aber so ist es halt. Merkwürdig ist auch, dass Deutschland viel Strom aus den Nordländern importiert aber (noch) nicht genügend Übertragungsleitungen für den selbst erzeugten Strom in Nord- und Ostsee und/oder Norddeutschland in den Süden Deutschlands hat. Da wird dann abgeregelt und „Geisterstrom“ vergütet. Dass Hamburg zu knapp 70 Prozent mit fossil erzeugtem Strom versorgt wird, ist ebenfalls bemerkenswert. Warum werden Teile des abgeregelten Stroms nicht nach Hamburg geleitet?

In diesem Zusammenhang sei erwähnt, dass Strom IMMER den kürzesten Weg zum Nutzer (Stromsenke) nimmt. Das ist im Raum Aachen zum Beispiel in der Hauptsache Strom, welcher im Braunkohlekraftwerk „Weisweiler“ erzeugt wird.  Egal, ob der Stromvertrag „grün“ oder „schwarz“ ist. Übrigens wird in Weisweiler auch die Fernwärme für Aachen und Umgebung erzeugt. Was nach Abschaltung des Kraftwerks kommt, weiß man nicht. Von Geothermie in großem Umfang ist die Rede. Ob das dann ausreicht? Die Fernwärmekunden werden es erleben.

Quelle

Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Ab Ausgabe 1/2026 bilden die öffentlichen Analyseseiten smard.deAgora Energiewende und Energy-Charts die Datengrundlage dieser Kolumne. Stromdaten.info läuft aus.

Der Beitrag Woher kommt der Strom? Woche beginnt mit starker Windstromerzeugung erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Kaliforniens drohende Treibstoffkrise: Raffinerien versuchen, den Staat zu warnen

14. März 2026 - 18:00

Charles Rotter

Kalifornien baut die Kraftstoffinfrastruktur stetig ab, die seine Wirtschaft am Laufen hält. Gleichzeitig bleibt die Nachfrage nach diesem Kraftstoff enorm. Dieses Missverhältnis erreicht nun einen Punkt, an dem die Unternehmen, die den Kraftstoff tatsächlich produzieren, zunehmend deutliche Warnungen aussprechen.

Die Botschaft ist einfach: Wenn die derzeitige Politik fortgesetzt wird, werden weitere Raffinerien schließen. Wenn Raffinerien schließen, verschwindet das Benzin nicht. Es kommt einfach von woanders her – in der Regel aus größerer Entfernung, zu höheren Kosten und oft aus Anlagen, die unter weniger strengen Umweltstandards betrieben werden.

Die Warnungen kommen zu einem Zeitpunkt, an dem Kalifornien bereits Raffineriekapazitäten verliert.

Und die Verluste sind nicht gering.

Phillips 66 hat Ende 2025 seine Raffinerie in Los Angeles geschlossen. Die Anlage verarbeitete täglich rund 140.000 Barrel Rohöl. Eine weitere große Raffinerie bereitet sich darauf vor, diesem Beispiel zu folgen. Valero hat Pläne angekündigt, seine Raffinerie in Benicia bis April 2026 stillzulegen, wodurch weitere 145.000 Barrel pro Tag aus dem kalifornischen Kraftstoffsystem verschwinden würden.

Zusammen genommen führen diese beiden Schließungen zu einem Verlust von fast 300.000 Barrel Raffineriekapazität pro Tag. Praktisch gesehen bedeutet dies, dass innerhalb kurzer Zeit fast ein Fünftel der Gesamtkapazität des Bundesstaates verloren geht.

Dies ist keine unbedeutende Anpassung in einem Markt, der ohnehin schon ungewöhnlich fragil ist.

Das Kraftstoffsystem Kaliforniens funktioniert fast wie eine Insel. Der Bundesstaat benötigt eine spezielle Benzinmischung, die nur wenige Raffinerien außerhalb der Region herstellen. Außerdem fehlen wichtige Pipeline-Verbindungen zu den großen Raffineriezentren in Texas oder im Mittleren Westen. Wenn eine kalifornische Raffinerie stillgelegt wird, muss Ersatzkraftstoff oft per Schiff aus Übersee angeliefert werden.

Dieses System funktioniert, solange alles stabil ist. Es wird jedoch deutlich problematischer, wenn das Angebot zu schrumpfen beginnt.

Die Erdölraffinerien scheinen dieses Risiko zu verstehen. Mehrere Unternehmen warnen die kalifornischen Behörden derzeit davor, dass zusätzlicher regulatorischer Druck diesen Trend beschleunigen könnte.

In einem kürzlich an Gouverneur Gavin Newsom und die staatlichen Regulierungsbehörden gerichteten Schreiben hat Marathon Petroleum das Problem direkt angesprochen. Das Schreiben betrifft vorgeschlagene Änderungen am kalifornischen Cap-and-Invest-Programm, das vom California Air Resources Board verwaltet wird.

Dieser Brief steht im Wortlaut hier (PDF)

Laut Marathon würde der Vorschlag die Betriebskosten von Raffinerien innerhalb des Bundesstaates drastisch erhöhen.

„Kalifornische Raffinerien gehören bereits zu den teuersten Raffinerien der Welt“, schrieb das Unternehmen. „In seiner jetzigen Form würde der Vorschlag der CARB die Kostenunterschiede weiter vergrößern und Raffinerien dazu zwingen, zu überdenken, ob ein Betrieb in Kalifornien weiterhin rentabel ist.“

Dieser Satz sollte Beachtung finden, da Raffinerieschließungen bereits ohne zusätzliche politische Änderungen stattfinden.

Marathon betonte auch das Ausmaß der mit dem Raffineriebetrieb verbundenen wirtschaftlichen Aktivitäten.

„Erdölraffinerien sind für die kalifornische Wirtschaft von entscheidender Bedeutung und sichern hochwertige gewerkschaftlich organisierte und nicht gewerkschaftlich organisierte Arbeitsplätze. Allein Marathon beschäftigt in Kalifornien über 2.000 Mitarbeiter und hat für die Jahre 2024 und 2025 rund 5.300 Vollzeitäquivalente an Auftragnehmer unter Vertrag genommen.“

Raffinerien sind nicht nur Kraftstoffproduzenten. Sie sind große Industriezentren, die Wartungsunternehmen, Ausrüstungslieferanten, Transportnetzwerke und umliegende Gemeinden unterstützen.

Das Unternehmen wies auch auf die Rolle hin, die Raffinerien für die Gesamtwirtschaft des Bundesstaates spielen.

„Raffinerien zahlen staatliche und lokale Steuern, die wichtige öffentliche Dienstleistungen finanzieren und eine zuverlässige Versorgung der Verbraucher und Unternehmen in Kalifornien mit Kraftstoffen für den Transport gewährleisten. Diese Kraftstoffe sorgen dafür, dass Waren über komplexe Lieferketten in den Bereichen Landwirtschaft, Fertigung, Logistik und Verbrauchermärkte transportiert werden können.“

Dieser letzte Punkt wird in klimapolitischen Diskussionen oft übersehen. Moderne Lieferketten sind stark von Kraftstoffen abhängig. Lkw, Schiffe, Züge, Flugzeuge, landwirtschaftliche Geräte und Baumaschinen sind alle auf Erdölprodukte angewiesen.

Die kalifornische Wirtschaft hat nicht plötzlich aufgehört, diese Kraftstoffe zu benötigen.

Tatsächlich bleibt die Nachfrage weiterhin hoch. Rund neunzig Prozent der im Bundesstaat zugelassenen Fahrzeuge werden nach wie vor mit Benzin betrieben.

Hier wird das politische Problem deutlich.

Falls Kalifornien seine Raffineriekapazitäten reduziert, während die Nachfrage hoch bleibt, wird der Bundesstaat stärker von importierten Kraftstoffen abhängig. Dies führt zu Preisschwankungen und Versorgungsrisiken.

Marathon hat die Folgen der vorgeschlagenen regulatorischen Änderungen in einer kurzen Liste zusammengefasst.

„Wenn CARB diese vorgeschlagenen Änderungen in der vorliegenden Form verabschiedet, werden sie den Raffinerien im Bundesstaat so hohe Kosten auferlegen, dass sie höhere Kraftstoffpreise für die Einwohner Kaliforniens, den Verlust hochwertiger Arbeitsplätze, Rückgänge bei den staatlichen und lokalen Steuereinnahmen, eine erhöhte Abhängigkeit von Importen, eine Verringerung der Versorgungssicherheit mit Benzin, Diesel und Düsentreibstoff sowie eine Beeinträchtigung der Verfügbarkeit von Militärtreibstoff und der nationalen Sicherheit riskieren.“

Der letzte Punkt verdient besondere Aufmerksamkeit.

Kalifornische Raffinerien produzieren große Mengen an Flugkraftstoff und Diesel für das US-Militär. An der Westküste befinden sich zahlreiche Marine- und Luftwaffenstützpunkte, deren Betrieb eine zuverlässige Kraftstoffversorgung erfordert.

Marathon hat diese Bedenken klar zum Ausdruck gebracht.

„Kalifornische Raffinerien liefern erhebliche Mengen an Kraftstoff an das US-Militär, das Operationen entlang der Westküste und an wichtigen Verteidigungsanlagen unterstützt.“

Wenn die heimische Produktion weiter zurückgeht, wird das Militär zunehmend auf importierte Kraftstofflieferungen angewiesen sein.

„In einem solchen Szenario wird das Militär gezwungen sein, sich stärker auf importierten Jet- und Dieselkraftstoff zu verlassen, was zu unvorhersehbaren Versorgungsbedingungen in Notfällen oder bei erhöhtem geopolitischen Risiko führen würde.“

Die Energieversorgung war in Konfliktzeiten schon immer ein strategischer Faktor. Die heimische Raffineriekapazität diente in der Vergangenheit als Puffer gegen Störungen auf den internationalen Kraftstoffmärkten.

Eine Verringerung dieser Kapazität führt zu Unsicherheiten in Systemen, die traditionell Unsicherheiten nach Möglichkeit vermieden haben.

Der Brief von Marathon hebt auch eine Ironie hervor, die vielen Klimapolitikmaßnahmen innewohnt.

Die Raffinerien in Kalifornien unterliegen einigen der strengsten Umweltvorschriften weltweit. Wenn diese Anlagen geschlossen werden, verschwindet die Kraftstoffproduktion nicht. Sie verlagert sich lediglich auf andere Raffinerien, die unter anderen regulatorischen Rahmenbedingungen arbeiten.

„Dies wird lediglich dazu führen, dass Kraftstoff aus Raffinerien in anderen Bundesstaaten und Ländern importiert wird, in denen weniger strenge Vorschriften gelten und die Kosten aufgrund der Vorschriften niedriger sind“, schrieb das Unternehmen. „Der Nettoeffekt wird ein Anstieg der globalen Treibhausgasemissionen sein.“

Ökonomen bezeichnen diesen Prozess oft als Carbon Leakage. Die industrielle Tätigkeit verlagert sich in Länder mit geringeren Regulierungskosten, während die globalen Emissionen weitgehend unverändert bleiben.

Manchmal steigen sie sogar.

In der Zwischenzeit verliert die Gerichtsbarkeit, die die Verordnung umgesetzt hat, die Industrie.

Die Warnungen beschränken sich nicht nur auf Marathon.

Auch Führungskräfte von Chevron haben begonnen, Alarm hinsichtlich des regulatorischen Umfelds in Kalifornien zu schlagen. In einem kürzlich geführten Interview beschrieb Andy Walz, Vizepräsident von Chevron, die Situation in ungewöhnlich deutlichen Worten:

„Ich weiß, dass Chevron und meine Konkurrenten Schwierigkeiten haben, ihre Geschäfte im Bundesstaat Kalifornien zu betreiben“, sagte Walz. „Falls sie unseren Raffinerien diese Steuerlast auferlegen, ist es meiner Meinung nach nur eine Frage der Zeit. Es geht nicht darum, ob sie schließen werden, sondern wann.“

Aussagen wie diese lassen sich leicht als Lobbyismus der Industrie abtun. Aber wenn bereits Raffinerien geschlossen werden, erscheinen die Warnungen weniger theoretisch.

Kalifornien hatte einst rund vierzig Raffinerien. Heute sind es nur noch etwa ein Dutzend.

Jede Schließung führt zu einer Verknappung des verbleibenden Systems. Jede Verknappung erhöht die Wahrscheinlichkeit von Versorgungsengpässen.

Die Betreiber dieser Raffinerien scheinen zu versuchen, diese Realität zu vermitteln, bevor weitere Kapazitäten verloren gehen.

Ob die politischen Entscheidungsträger diese Warnungen als nützliche Informationen oder als unbequeme Störgeräusche betrachten, wird die Energiezukunft Kaliforniens prägen.

Das Kraftstoffsystem, auf das sich der Staat derzeit stützt, wurde über viele Jahrzehnte hinweg aufgebaut. Es kann nicht schnell ersetzt werden und ohne die Infrastruktur, die den Kraftstoff erzeugt, nicht funktionieren.

Das Ignorieren dieser Einschränkung wird sie nicht beseitigen. Es wird lediglich dazu führen, dass die Folgen früher eintreten.

Link: https://wattsupwiththat.com/2026/03/11/petroleum-refiners-are-trying-to-warn-california/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Kaliforniens drohende Treibstoffkrise: Raffinerien versuchen, den Staat zu warnen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Die Bewertung des Energieungleichgewichts der Erde durch den IPCC basiert auf physikalisch ungültigen Schätzungen des globalen Wärmegehalts der Ozeane, die wiederum auf Argo-Floats basieren.

14. März 2026 - 13:30

Jonathan Cohler (Massachusetts Institute of Technology), David Legates (University of Delaware, retired), Kesten Green (Adelaide University), Ole Humlum (University of Oslo), Franklin Soon (Marblehead High School) und Willie Soon (Institute of Earth Physics and Space Science)

Eine bahnbrechende Studie widerlegt die Kernaussagen der Klimabewertungen des IPCC. Die Studie belegt, dass die Behauptungen des IPCC, wonach die Erde durch menschliche Aktivitäten zusätzliche Wärme speichert, auf grundlegend fehlerhaften und thermodynamisch bedeutungslosen Berechnungen basieren, die swiederum auf Daten von Ozeanbojen beruhen. Die in Science of Climate Change (Band 6.1, 2026) veröffentlichte Studie zeigt, dass diese Messwerte gegen grundlegende physikalische Gesetze und wissenschaftliche Methoden verstoßen und daher für jedwede politische Entscheidungen unzuverlässig sind.

Das Kernproblem: Ungültige Methode zur Messung des ozeanischen Wärmegehalts

Der IPCC behauptet, dass die Ozeane etwa 90 % der Energie absorbieren, die angeblich durch vom Menschen verursachte Treibhausgase „gefangen” wird. Diese Schlussfolgerung stützt sich hauptsächlich auf Daten, die von Argo-Bojen gesammelt wurden. Diese Geräte tauchen bis zu einer Tiefe von 2.000 Metern, messen Temperatur, Salzgehalt und Druck und tauchen dann alle 10 Tage an die Oberfläche, um die gesammelten Daten an Satelliten zu übertragen.

Unsere Analyse deckt jedoch mehrere schwerwiegende Mängel auf:

● Über die Hälfte des Ozeans wird nicht erfasst: Die Argo-Bojen messen nur die obere Hälfte der Tiefe und des Volumens des Ozeans und lassen mehrere andere Bereiche ebenfalls unberücksichtigt. Der Tiefseeabschnitt unterhalb von 2.000 m enthält die Hälfte der thermischen Energie, wird jedoch praktisch nicht gemessen, da die wenigen „Deep Argo”-Bojen völlig unzureichend sind.

● Vermutungen dominieren: Die Bojen sind in der Regel 200 bis 500 Kilometer voneinander entfernt. Das bedeutet, dass es riesige Bereiche des Ozeans gibt, in denen keine Bojen Messungen vornehmen. Um vollständige weltweite Karten oder Raster von Größen wie Temperatur und Salzgehalt zu erstellen, müssen Wissenschaftler die Lücken zwischen den Bojen schätzen/ausfüllen (dies wird als Interpolation bezeichnet). Diese Schätzungen berücksichtigen jedoch kleinere Strukturen nicht angemessen, wie z. B.:

– Wirbelbildungen (wie Strudel mit einem Durchmesser von 10 bis 100 km),

– turbulente Vermischung und

– schmale Strömungen.

Diese kleineren, energiereichen Bewegungen sind im realen Ozean sehr wichtig, da sie Wärme, Salz, Nährstoffe usw. transportieren, aber durch den großen Abstand und den Füllungsprozess werden sie übersehen oder geglättet. Infolgedessen zeigen die endgültigen globalen Karten oft falsche Muster oder Fehler (sogenannte „Artefakte”), die im Ozean tatsächlich nicht vorkommen; sie sind lediglich Nebenwirkungen der Schätzmethode. Kurz gesagt, die Datenpunkte sind zu spärlich, um das tatsächliche kleine bis mittlere Chaos des Ozeans zu erfassen, weshalb die vom Computer ausgefüllten Karten glatter und sauberer aussehen als die Realität und manchmal sogar Merkmale erfinden, die es einfach nicht gibt.

● Anomalien sind physikalisch bedeutungslos: Der IPCC verwendet „Anomalien“, bei denen es sich um aktuelle Messungen abzüglich willkürlicher Werte von Basis-/Referenzperioden handelt. Die Temperatur, eine intensive Eigenschaft, ist in Nicht-Gleichgewichtssystemen wie dem Ozean nicht additiv. Die Mittelung von Temperaturen aus verschiedenen Orten und Zeiten führt zu rechnerischen Fiktionen, nicht zu tatsächlichen Temperatur- oder Energieänderungen, und steht in direktem Widerspruch zu den seit 150 Jahren unveränderten Gesetzen der Thermodynamik steht (Essex et al., 2007; Cohler, 2025).

● Ungenaue Verfolgung: Unter Wasser treiben Schwimmer völlig unkontrolliert mit der Strömung, doch alle während jedes Auftauchens gesammelten Daten werden diesem einzigen 10-tägigen Auftauchort zugeordnet, was zu erheblichen räumlichen und zeitlichen Fehlern in den Daten führt.

Zirkularität und massive versteckte Unsicherheiten

Der im IPCC AR6 angegebene Wert von 0,7 ± 0,2 W/m² für das „Energieungleichgewicht der Erde” (EEI) wird durch die Änderung der gemessenen Satellitendatenbereiche abgeleitet, um diese ungültigen Schätzungen der Meeresenergie anzupassen – ein zirkulärer Prozess. Der Artikel quantifiziert all diese übersehenen Unsicherheiten: mesoskalige Variabilität (±0,9 W/m²), Unkenntnis über die Tiefsee (±0,35 W/m²), Diskrepanzen beim Meeresspiegel (±0,33 W/m²), unzureichende Datenerfassung an den Polen (±0,1 W/m²), Überlagerungseffekte und mehr. Die Gesamtunsicherheit liegt bei einem Konfidenzniveau von 95 % deutlich über ±1 W/m² und ist damit um eine Größenordnung größer als die vom IPCC-Bericht AR6 angegebenen ±0,2 W/m², wodurch sich ihr EEI-Wert statistisch nicht von 0 W/m² unterscheiden lässt.

In Wahrheit ist es sogar noch schlimmer

Diese OHC- und EEI-Schätzungen sind nicht nur ungewiss, sondern auch physikalisch ungültig, basierend auf den 150 Jahre alten grundlegenden Prinzipien der Thermodynamik (der Wissenschaft vom Energiefluss). Bei einem standardisierten Test, der auf den Prinzipien der wissenschaftlichen Methode basiert, versagen diese Schätzungen und müssen daher verworfen werden. Die tatsächlichen Wärmetrends der Ozeane lassen sich mit der aktuellen Argo-Technologie nach wie vor nicht quantifizieren. Dieser Artikel deckt letztendlich auf, wie die Bewertungen des IPCC unbegründete Alarmstimmung schüren und zu pseudowissenschaftlich begründeten politischen Maßnahmen in Höhe von mehreren Billionen Dollar führen.

Klicken Sie hier, um den vollständigen Artikel zu lesen.

Link: https://zenodo.org/records/18944694

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Die Bewertung des Energieungleichgewichts der Erde durch den IPCC basiert auf physikalisch ungültigen Schätzungen des globalen Wärmegehalts der Ozeane, die wiederum auf Argo-Floats basieren. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Klimawandel und CO₂-Störfaktor

14. März 2026 - 9:00

Jules de Waart

Recht zu haben reicht nicht aus

Cargo-Kult-Wissenschaft und das CO₂-Wahnsinns-Syndrom

1. Einführung

Nach zwei relativ kühlen Jahren stiegen die Temperaturen im Jahr 2023 über einen Zeitraum von mehr als einem Jahr dramatisch an. Darauf folgte ab etwa April 2024 ein fast ebenso dramatischer Rückgang, der sich über das gesamte Jahr 2025 und die ersten Monate des Jahres 2026 fortsetzte. (Siehe auch die untenstehende Grafik mit den Satellitenmessungen, veröffentlicht von Roy Spencer von der University of Alabama in Huntsville.)

Von Januar 2023 bis April 2024 stieg die Temperatur um ein ganzes Grad Celsius. Dieser Anstieg war spektakulär und unerklärlich. Die Erwärmung während der gesamten Industriezeit (von 1850 bis heute), der Hauptgrund für die Besorgnis des IPCC, betrug etwa ein ganzes Grad Celsius. Die renommierten Klimawissenschaftler Zeke Hausfather und Gavin Schmidt schrieben in einem gemeinsamen Artikel in der New York Times: „Wir verstehen nicht ganz, warum 2023 so warm war wie es war.“ Gavin Schmidt äußerte sich 2024 noch deutlicher: „Klimamodelle können die enorme Hitzeanomalie von 2023 nicht erklären – wir könnten uns in unbekanntem Terrain befinden.“ Aber der Rückgang, der etwa im April 2024 begann und sich über das gesamte Jahr 2025 fortsetzte, war ebenso unerklärlich. In unbekanntem Terrain konnte uns der IPCC nicht mehr als Wegweiser dienen. Wir wissen nicht wirklich, ob sich diese Abkühlung im Jahr 2026 und darüber hinaus fortsetzen wird, aber eines ist sicher: CO₂ und andere Treibhausgase können nicht die Hauptursache für diese Temperatursprünge gewesen sein. Die CO₂-Konzentrationen stiegen um etwa ein Prozent pro Jahr, viel zu wenig, um solch dramatische Auswirkungen zu haben!

Praktisch alle Maxima und Minima in der Grafik von 1980 bis heute lassen sich auf natürliche Ursachen zurückführen. El Niño, ENSO und andere periodische Veränderungen der weltweiten Meeresströmungen können zumindest einen wesentlichen Teil der Erwärmung erklären. Als Erklärung für die „Rekordhitze” im Jahr 2023 und zu Beginn des Jahres 2024 kamen Lightfoot&Ratzer zu dem Schluss, dass nicht CO₂, sondern ein Ausbruch des Unterwasservulkans Hunga Tonga für den raschen Temperaturanstieg verantwortlich war (Journal of Basic and Applied Sciences (August 2025)). Dieser einzelne Ausbruch erhöhte den Wassergehalt der Stratosphäre um etwa 10 %, was ausreichte, um die Temperatur vorübergehend anzuheben. Sie sagten auch eine bevorstehende Abkühlung voraus und hatten damit absolut Recht. Dies war ein entscheidendes Gegenbeispiel zur Position des IPCC.

Es erscheinen immer mehr (von Fachkollegen begutachtete) Publikationen, die andere Erklärungsfaktoren anführen. Dazu gehören Veränderungen der Sonnenstrahlung, Wolken, kosmische Strahlung, Wasserdampfemissionen aus Unterwasser-Vulkanausbrüchen, atmosphärische braune Wolken, Veränderungen der Albedo der Erde, unabhängig davon, ob diese auf menschlichen Einfluss zurückzuführen sind oder nicht, sowie ein gewisser (aber nicht dominanter) Einfluss der Treibhausgaskonzentrationen.

Das ändert alles! Die Fixierung der internationalen Klimagemeinschaft (IPCC, UNFCCC, Universitäten usw.) auf die Reduzierung von CO₂ entbehrt einer soliden wissenschaftlichen Grundlage. CO₂ ist nicht mehr die unbestrittene Hauptursache für die globale Erwärmung. Natürliche Faktoren sind mindestens ebenso wichtig. Roy Spencer stellte jedoch fest, dass „die Klimawissenschaft sich unverhältnismäßig stark auf menschliche Ursachen konzentriert, anstatt die natürliche Erwärmung zu untersuchen”. Es gibt praktisch keine Forschung zu den positiven Auswirkungen von CO₂ auf das Pflanzenwachstum und die landwirtschaftlichen Erträge. In praktisch allen Modellen bedeutet mehr CO₂ mehr Erwärmung. Wenn man CO₂ entfernt, zeigen die Modelle eine Abkühlung. Der Tunnelblick verdeckt alle Alternativen.

2. Die Rolle von CO₂ bzgl. Klimawandel

Natürlich können solche weitreichenden und kontroversen Aussagen nicht nur auf den Temperaturen der letzten vier Jahre basieren, so dramatisch und unerklärlich diese auch sein mögen. Und das tun sie auch nicht! Die Argumente gegen CO₂ sind überzeugend. Sie werden von Zehntausenden skeptischen Wissenschaftlern und einer Vielzahl von Argumenten gestützt. Hier eine kurze Zusammenfassung.

Die meisten Geologen und Physischen Geographen glauben nicht an einen menschlichen Einfluss auf die Temperaturen. Sie verweisen auf stark unterschiedliche Temperaturen in der Vergangenheit, auf Skalen von 1000, 10.000, 100.000 und 1.000.000 Jahren. Die Korrelation zwischen CO₂ und Temperaturen auf geologischer Ebene ist schwach. Wenn sie überhaupt nachgewiesen werden kann, beispielsweise im Fall des Aufkommens und Verschwindens von Gletschern und Zwischeneiszeiten oder in der jüngsten „Satellitenära” (Koutsoyiannis, 2023), gehen Temperaturänderungen den CO₂-Konzentrationen voraus. Steigende CO₂-Konzentrationen können keine Ursache für die Erwärmung sein, sondern sind eine Folge davon. Darüber hinaus wurde der Einfluss von unterirdischen Vulkanausbrüchen und anderen geothermischen Faktoren kaum untersucht oder in die Klimamodelle einbezogen.

– Klimatologen und Meteorologen äußern sich zurückhaltend und betonen die Komplexität des Prozesses auf globaler Ebene. Die berühmte Beschreibung des Klimas im IPCC-Bericht 3 lautet: „Das Klimasystem ist ein gekoppeltes, nichtlineares, chaotisches System, weshalb eine langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. (IPCC TAR, 14.2.2.2). Dies widerspricht den wichtigsten Aussagen des IPCC selbst.

– Im Jahr 2021 veröffentlichte Steven Koonin seine kritische Analyse der Aussagen des IPCC zu extremen Wetterereignissen und betonte in seinem Buch „Unsettled“ die keineswegs dominante Rolle von CO₂. Es handelt sich um eine dringend notwendige Realitätsprüfung durch einen Spitzenwissenschaftler und Berater der Obama-Regierung.

– In den Veröffentlichungen von Physikern und Astrophysikern scheinen derzeit Artikel mit skeptischem Inhalt zu dominieren. Happer & Van Wijngaarden (2021) berechneten, dass eine Verdopplung des CO₂-Gehalts von 400 auf 800 ppm nur einen Anstieg des CO₂-Antriebs um 1 % bedeuten würde.

– Kosmo- und Platten-Klimatologen sind in der Regel Skeptiker. Zharkova (2023) prognostizierte eine bevorstehende Abkühlung um das Jahr 2025 im Zusammenhang mit dem derzeit einsetzenden Grand Solar Minimum.

– Neben diesen Befürwortern natürlicher Ursachen gibt es eine Gruppe von Wissenschaftlern, die an menschliche Ursachen glauben, jedoch andere als CO₂. (Z. B. S. Bauer, 2022 zu Aerosolen; V. Ramanathan, 2008 zu atmosphärischen braunen Wolken; R. A. Pielke (2005) zur Landnutzung; A. Watts (2009) zu städtischen Wärmeinseln).

Diese wissenschaftlichen Positionen wurden kürzlich in einem Bericht des US-Energieministeriums aus dem Jahr 2025 mit dem Titel „A critical Review of Impacts of Greenhouse Gas Emissions on the U.S. Climate” (Eine kritische Überprüfung der Auswirkungen von Treibhausgasemissionen auf das Klima der Vereinigten Staaten) erweitert, zusammengefasst und verteidigt. Lindzen und Happer, zwei prominente Physiker und Gründer/Mitglieder der CO₂Coalition, bezeichneten ihn als „einen äußerst wichtigen Bericht”.

Aber … Recht zu haben reicht nicht aus.

3. Wissenschaft, Cargo-Kult-Wissenschaft und das „doppelte ethische Dilemma“

Es ist nun angebracht, einige Fragen zu stellen: „Aber warum glaubt immer noch eine große Mehrheit der Klimawissenschaftler an eine vorwiegend anthropogene globale Erwärmung und unterstützt den IPCC? Und warum glauben so viele Menschen fest an einen vom Menschen verursachten, katastrophalen Klimawandel?“

Die kurze Antwort auf die erste Frage ist relativ einfach: „Die meisten Wissenschaftler tun das nicht!“ Die Mehrheit der Klimawissenschaftler glaubt an einen nicht quantifizierten („gewissen“) menschlichen Einfluss auf die globale Erwärmung, unterstützt jedoch nicht die Behauptung des IPCC, dass dies die „dominante Ursache“ sei. Ich komme später darauf zurück.

Der zweite Teil der Frage ist noch wichtiger und weitaus schwieriger zu beantworten. Ich versuche mich daran im letzten Abschnitt dieses Beitrags.

Die meisten Menschen bilden sich ihre Meinung anhand der Meinungen anderer. Indem sie Bücher lesen, fernsehen und mit Familie, Freunden und Nachbarn sprechen. Nur wenige gehen hinaus und überprüfen die Fakten. Meinungen sind frei, und das ist auch gut so. Aber während Meinungen frei sind, ist es der Weg zu diesen Meinungen nicht. Für Regierungen und Märkte ist es sehr wichtig zu wissen, was die Menschen denken, wie sie wählen wollen, was sie kaufen wollen. Sie scheuen sich nicht davor, Menschen zu beeinflussen, „das Richtige” zu tun. Die Methoden zur Beeinflussung der Menschen sind heute vielfältig und ausgefeilt. Ein Teil davon ist geheim, wie Werbestrategien und die Forschung zu Massen-Gehirnwäsche und Social Engineering. Ein Teil davon ist „offen”.

Ein kleiner Teil der Meinungen kann als „wissenschaftliche Tatsache“ bezeichnet werden. Mit dieser Bezeichnung erhalten Meinungen eine Aura der Wahrheit und haben einen viel höheren Überzeugungswert als andere Meinungen. Sie können leicht dazu verwendet werden, Menschen zu beeinflussen. Was ist der Unterschied zwischen einer Meinung und einer wissenschaftlichen Tatsache? Was macht Wissenschaft aus?

Die Klimawissenschaft hat das Aussehen und das Gefühl von „Wissenschaft“. Ihre Modelle, mathematischen Formeln, Diagramme und Zahlen sind beeindruckend. Ebenso wie die Menge der von Fachkollegen begutachteten Literatur, die sie stützt. Aber erfüllt sie die Anforderungen, die von Wissenschaftsphilosophen wie Popper, Kuhn, Lakatos und Feynman gestellt werden?

Popper argumentierte bekanntlich, dass das, was Wissenschaft von Nicht-Wissenschaft (Pseudowissenschaft) unterscheidet, die Falsifizierbarkeit ist: Eine Theorie ist nur dann wissenschaftlich, wenn sie grundsätzlich widerlegt werden kann. Oft wird dazu T.E. Hugley hinzugefügt: „Die große Tragödie der Wissenschaft – die Zerschlagung einer schönen Theorie durch eine hässliche Tatsache”.

Kuhn ist weniger streng. Seiner Meinung nach widerlegen Wissenschaftler in Zeiten „normaler Wissenschaft“ nicht so leicht die Paradigmen, die das gesamte Fachgebiet prägen. Anomalien führen nicht sofort zum Sturz des Paradigmas, sondern sind Teil der Forschung innerhalb dieses Paradigmas. Nur in Zeiten des Paradigmenwechsels kommt es zu wissenschaftlichen Revolutionen.

Lakatos glaubt auch, dass die Wissenschaft nicht aufgrund eines einzigen negativen Experiments untergeht. Entscheidend ist, ob ein gesamtes Forschungsprogramm fortschrittlich ist oder degeneriert.

Und nun kommt Feynman ins Spiel. Feynman war streng genommen kein Wissenschaftsphilosoph, sondern ein berühmter Physiker und Nobelpreisträger. Er unterscheidet nicht zwischen „Wissenschaft und Pseudowissenschaft“, sondern zwischen „Wissenschaft und Cargo-Kult-Wissenschaft“. Feynman stimmt mit Popper in den meisten Punkten überein: „Es spielt keine Rolle, wie schön Ihre Theorie ist, … wenn sie nicht mit den Beobachtungen übereinstimmt, ist sie falsch“. Aber Feynman fügt einen völlig neuen Gesichtspunkt hinzu: intellektuelle Ehrlichkeit. In seiner berühmten Caltech-Vorlesung von 1974 mit dem Titel „Cargo Cult Science“ argumentiert er, dass Wissenschaft nicht nur ein Verfahren aus Experimenten und Gleichungen ist. Sie erfordert eine bestimmte moralische Haltung, einen „inneren Drang, die Wahrheit zu finden“. Er fährt fort, dass man alles melden muss, was das Ergebnis ungültig machen könnte, und vermeiden sollte, nur die Beweise anzuführen, die die eigenen Schlussfolgerungen stützen. Man darf sich selbst und andere nicht täuschen. Ohne diese innere Disziplin entsteht das, was er als „Cargo-Kult-Wissenschaft“ bezeichnet: Arbeit, die oberflächlich betrachtet wie Wissenschaft aussieht, es aber nicht ist, weil ihr der wesentliche innere Zwang fehlt, die Wahrheit zu finden.

Feynmans Vortrag wurde hoch gelobt, aber seine „Cargo-Kult-Wissenschaft“ geriet schnell in Vergessenheit. Feynman bezog sich dabei auf sogenannte Cargo-Kulte im Südpazifik nach dem Zweiten Weltkrieg. Die Inselbewohner bauten Landebahnen und Holzflugzeuge in der Hoffnung, dass die Frachtflugzeuge zurückkehren würden – sie kopierten die Form, verstanden aber nicht die zugrunde liegende Physik. Das passte nicht gut zu der antikolonialistischen, „inklusiven“ Haltung, die an den amerikanischen Universitäten vorherrschte. Der Begriff wurde mehrere Jahrzehnte lang nicht mehr verwendet, und mit dem Namen gerieten auch Feynmans zugrunde liegenden Prinzipien in Vergessenheit.

Keiner dieser vier Wissenschaftsphilosophen erwähnte den Klimawandel oder die Klimawissenschaft. Aus wissenschaftsphilosophischer Sicht und nur anhand der Definitionen erfüllt die Klimawissenschaft die Popper’schen Kriterien der Falsifizierbarkeit; sie ist Wissenschaft und keine Pseudowissenschaft. Die Mehrheit der Klimawissenschaftler würde Kuhn zustimmen und glauben, dass wir in einer Welt der normalen Wissenschaft innerhalb eines stabilen Paradigmas agieren. Viele sind der Meinung, dass das gesamte Forschungsprogramm der Klimawissenschaften nach wie vor progressiv und weder stagnierend noch regressiv ist.

Aber der Schein trügt. In vielen kritischen Bereichen macht die Klimawissenschaft keine Fortschritte. Die Klimasensitivität im Gleichgewichtszustand ist nach wie vor unannehmbar hoch und verringert sich nicht. Viele skeptische Wissenschaftler haben erhebliche Diskrepanzen zwischen der Theorie und den Beobachtungen im Feld und im Labor aufgezeigt. Immer mehr Hinweise deuten darauf hin, dass die Temperatur nicht aufgrund höherer CO₂-Konzentrationen steigt. Stattdessen glauben sie, dass die höheren CO₂-Konzentrationen eine direkte Folge der höheren Temperaturen sind. Die Zahl der wissenschaftlichen Artikel mit skeptischem Unterton nimmt stark zu. Ist das Forschungsprogramm also fortschrittlich oder degeneriert es? Ich fürchte, dass dies noch einige Zeit ein Streitpunkt bleiben wird. Aber ein plötzlicher Paradigmenwechsel und eine neue wissenschaftliche Revolution innerhalb weniger Jahre würden mich nicht überraschen.

Feynman kommt erneut ins Spiel. Er würde wahrscheinlich zustimmen, dass die Klimawissenschaft keine Pseudowissenschaft ist, aber er würde sie sicherlich auch nicht als echte Wissenschaft bezeichnen. Für ihn ist sie „Cargo-Kult-Wissenschaft“. Er wäre überrascht zu sehen, dass das, was er als moralisch falsch bezeichnet und verurteilt hat, offen zur Hauptsäule der internationalen Klimawissenschaft und des IPCC geworden ist.

Der verstorbene Stephen Schneider, ein hoch angesehener Klimaforscher und von 1988 bis zu seinem frühen Tod eine prominente Stimme des IPCC, prägte 1989 seinen Begriff des „doppelten ethischen Dilemmas”. Dieser steht in krassem Gegensatz zu der Botschaft, die Feynman über wissenschaftliche Ehrlichkeit vermitteln wollte. Schneider wurde Hauptautor des IPCC AR1 (1990), AR2 (1996), AR3 (2003) und IPCC AR4 (2007). Seine Beschreibung, wie Klimawissenschaft in der realen Welt betrieben wird, war eine offene Verteidigung der reinen Cargo-Kult-Wissenschaft.

Ich folge Koonin (2021) und zitiere ihn wörtlich:

„Einerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode gebunden und versprechen damit die Wahrheit, die ganze Wahrheit und nichts als die Wahrheit, was bedeutet, dass wir alle Zweifel, Vorbehalte, Wenns und Abers einbeziehen müssen. Andererseits sind wir nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen möchten wir, dass die Welt ein besserer Ort wird, was in diesem Zusammenhang bedeutet, dass wir daran arbeiten, das Risiko eines potenziell katastrophalen Klimawandels zu verringern. Dazu brauchen wir eine breite Unterstützung, um die Öffentlichkeit zu begeistern. Das erfordert natürlich eine umfangreiche Berichterstattung in den Medien. Also müssen wir beängstigende Szenarien entwerfen, vereinfachte, dramatische Aussagen machen und unsere Zweifel, die wir vielleicht haben, kaum erwähnen. Dieses „doppelte ethische Dilemma“, in dem wir uns häufig befinden, lässt sich nicht mit einer Formel lösen. Jeder von uns muss selbst entscheiden, wo das richtige Gleichgewicht zwischen Wirksamkeit und Ehrlichkeit liegt. Ich hoffe, das bedeutet, beides zu sein.“

Koonin ist der Ansicht, dass die zugrunde liegende Prämisse des doppelten ethischen Dilemmas gefährlich falsch ist. Ich stimme ihm voll und ganz zu. Schneider folgt allen Punkten, die Feynman in seiner Rede am Caltech angesprochen hat. Aber alle Haltungen, die Feynman als moralisch falsch angeprangert hat, verteidigt er. Er weiß genau, was er tut. Er sieht nichts Schlimmes darin, ein wenig Fehlinformation zu verbreiten, um seine Ideen durchzusetzen. Es sei nicht mehr ein „innerer Drang, die Wahrheit zu finden” erforderlich, sondern eine „breite Unterstützung, um die Vorstellungskraft der Öffentlichkeit zu wecken”. Schneider folgend entschied sich der IPCC für den „doppelten ethischen Zwang” und die Cargo-Kult-Wissenschaft und verschloss die Augen vor Fehlinformationen.

4. Die Neu-Definition des IPCC der wissenschaftlichen Arbeitsweise

Wissenschaftliche Erkenntnisse müssen mit wissenschaftlichen Verfahren gewonnen werden. Die Übereinstimmung mit Beobachtungen ist der Maßstab für wissenschaftliche Wahrheit. Dies ist seit mehr als vierhundert Jahren das wissenschaftliche Verfahren, das uns die Aufklärung und ihre Vorfahren hinterlassen haben. Dieses wissenschaftliche Verfahren unterscheidet sich grundlegend von den Analysemethoden, die von den heutigen Mainstream-Klimawissenschaftlern und dem IPCC verwendet werden.

Was sind die Unterschiede zwischen „Klimawissenschaft” und „Cargo-Kult-Wissenschaft”?

Während die Mainstream-Klimawissenschaft die Falsifizierung ihrer eigenen Theorien durch widersprüchliche Fakten zulässt und akzeptiert, ist Widerlegung sicherlich nicht die Methode des IPCC, um die Wahrheit zu finden. Der IPCC bevorzugt „Konsens” und beruft sich auf einen Konsens von 97 bis 99 % der Meinungen von Wissenschaftlern als wissenschaftliche Grundlage für seine Aussagen und Szenarien.

Aber Konsens ist weitgehend irrelevant, denn historisch gesehen hat sich der Konsens der Wissenschaftler oft als falsch erwiesen. Kein Wissenschaftsphilosoph hat Konsens als Abgrenzungslinie für Wissenschaft verwendet. Konsens ist ein Bonus für gute Wissenschaft, er ist kein Weg, um zur Wahrheit zu gelangen. Außerdem sind die Zahlen völlig falsch. Der Konsens zwischen den Meinungen der Wissenschaftler und dem IPCC liegt nicht bei 97–99 %, wie sie behaupten, sondern bei weniger als 1 %! (Wer das nicht glaubt, dem empfehle ich meinen Artikel in WUWT vom 9. November 2025 „Consensus, Likelyhood and Confidence” oder mein Buch „Crisis or Hoax?”)

– Die Anzahl wissenschaftlicher Artikel in der begutachteten Literatur mit den Schlüsselbegriffen „Klimawandel” oder „globaler Klimawandel”, die zwischen 2015 und 2025 veröffentlicht worden waren, lag bei etwa 500.000! (Quelle: Scopus und Web of Science). Diese Zahl ist schockierend. Niemand und keine Institution kann 500.000 Publikationen lesen. Niemand kann überprüfen, ob die Informationen korrekt sind. Sehr oft sind sie es nicht! R. Lindzen (2018) stellte fest: „Falsche Darstellungen, Übertreibungen, selektive Auswahl oder regelrechte Lügen decken so ziemlich alle sogenannten Beweise für die Notwendigkeit ab, fossile Brennstoffe bis 2050 auf netto null zu reduzieren”.

– Der IPCC ist nicht verpflichtet, die von ihm zitierte Literatur auf ihre Richtigkeit zu überprüfen; der IPCC ist nicht verpflichtet, willkürlich ausgewählte Artikel aus der umfangreichen Literatur zu zitieren. Der IPCC kann auswählen, was er will, sogar eine Minderheitsmeinung, seine Regeln und seine „doppelte ethische Bindung“ erlauben alles, mit der möglichen Ausnahme von glatten Lügen. Es gibt keine Beweise dafür, dass der IPCC immer die wissenschaftlich fundierten Artikel oder sogar die in der wissenschaftlichen Literatur am weitesten verbreitete Meinung auswählt.

– Feynman (1998) hat es sehr deutlich gesagt: „Keine Regierung hat das Recht, über die Wahrheit wissenschaftlicher Prinzipien zu entscheiden”. Aber das war vor 25 Jahren und es ging nicht um den Klimawandel. Heute ist die Situation ganz anders. Nur wenige Menschen wissen, dass die Regeln des IPCC klar festlegen, dass dieser nicht von Wissenschaftlern, sondern von den 195 Regierungen kontrolliert wird, die Mitglieder des IPCC sind. Regierungsbeamte müssen die wissenschaftlichen Erkenntnisse auf zwei Ebenen genehmigen. Erstens verlangen die Regeln des IPCC ausdrücklich, dass die äußerst einflussreichen Zusammenfassungen für politische Entscheidungsträger (SPM) von allen Regierungen „Zeile für Zeile“ genehmigt werden müssen. Die SPM sind also lediglich die Meinungen von 195 Regierungen und keine wissenschaftlichen Erkenntnisse, die durch wissenschaftliche Verfahren ermittelt wurden. Zweitens verlangen die IPCC-Regierungsvorschriften ausdrücklich, dass die wissenschaftlichen Erkenntnisse ihrer vollständigen Berichte umgeschrieben werden, um „die Übereinstimmung” mit den von den Regierungen festgelegten SPM sicherzustellen.

– Der IPCC verwendet Klimamodelle und Szenarien, die recht umstritten sind. Beispielsweise sagten die meisten Modelle höhere Temperaturen voraus, als tatsächlich eingetreten sind. Da der IPCC viele Szenarien mit unterschiedlichen Parametern veröffentlicht, stellt dies nicht unbedingt ein Problem dar. Es stehen mehrere Szenarien zur Auswahl. Mindestens fünf Kernszenarien basieren auf unterschiedlichen Treibhausgasemissionswerten und sozioökonomischen Entwicklungen. Alle Modelle sind jedoch so programmiert, dass sie bei steigenden CO₂-Emissionswerten höhere Temperaturen vorhersagen. In letzter Zeit gibt es ernsthafte wissenschaftliche Bedenken hinsichtlich dieser Annahme, die jedoch nicht Eingang in die Klimapolitik finden.

– Und schließlich habe ich noch nie eine überzeugende Widerlegung der Theorie gelesen, dass die Atmosphäre ab einer bestimmten CO₂-Konzentration gesättigt ist – einer Konzentration, die höchstwahrscheinlich niedriger oder sogar viel niedriger ist als die derzeitigen Konzentrationen.

5. Recht haben reicht nicht!

Das ist eine berechtigte Frage. „Wie ist es möglich, dass so viele kontroverse und manchmal eindeutig übertriebene Schlussfolgerungen von so vielen so vehement verteidigt werden?“ Das ist sehr schwer zu beantworten und liegt nicht in meinem Kompetenzbereich. Aber ich habe das Gefühl, dass ich es versuchen muss.

„Warum verteidigen so viele angesehene Wissenschaftler die Position des IPCC?“

– Es ist leicht zu verstehen, warum die Cargo-Kult-Wissenschaft des IPCC für Klimawissenschaftler so attraktiv ist. Sie bietet ihnen die besten Möglichkeiten für ihre Forschung, etwas, das die meisten Wissenschaftler gerne tun. Sie bekommen leicht Fördermittel und liegen nie falsch! Falls sie doch einmal falsch liegen, erlaubt ihnen die doppelte ethische Bindung, beängstigende Szenarien zu entwerfen, auch wenn die Fakten dies nicht zulassen. Man kann vereinfachte, dramatische Aussagen treffen und Zweifel, die man möglicherweise hat, kaum erwähnen. Feynman sagte mehrmals, dass man alles melden muss, was das Ergebnis ungültig machen könnte, und vermeiden sollte, nur die Beweise anzuführen, die die eigenen Schlussfolgerungen stützen. Aber in der Cargo-Kult-Wissenschaft muss man das nicht, und man darf genau das Gegenteil tun.

Die meisten Wissenschaftler sind keine Lügner. Sie sind Menschen, die gelernt haben, welche Fragen unbedenklich sind und welche Fragen Ehen und Hypotheken kosten können. Wenn ihre Arbeitsplätze nicht sicher sind, sind sie sehr anfällig für institutionellen Druck.

Dennoch versucht eine überraschend große Zahl von Wissenschaftlern, auch unter Druck ehrlich zu bleiben.

Es ist ein schwerwiegender Irrtum, dass die meisten Wissenschaftler mit allen oder sogar den meisten Aussagen des IPCC übereinstimmen. In den Veröffentlichungen des IPCC wird die „Zuversicht“ angegeben, welche die Autoren der wissenschaftlichen Berichte in Bezug auf ihre eigenen Texte haben. Diese Angabe ist sehr ehrlich, aber auch bemerkenswert niedrig. Nicht mehr als 6 % der Verfasser der wissenschaftlichen Kapitel geben ihrer eigenen Meinung eine „sehr hohe Zuversicht“! Der AR5 (2013) gibt eine „sehr geringe Zuversicht” von 20 % an! Im AR6 (2021) sind es 6 %, ohne Erklärung. Und nur sehr wenige, sicherlich weit weniger als 97 % der wissenschaftlichen Publikationen, unterstützen die Behauptung, dass der Klimawandel überwiegend vom Menschen verursacht wird. Ob es sich nun um eine absichtliche Fehlinformation handelt oder nicht, es ist nicht wahr. Der Punkt ist, dass die alarmistischen Entscheidungsträger meiner Meinung nach bewusst keine Unterscheidung zwischen „einer menschlichen Ursache“ und „einer dominanten menschlichen Ursache“ treffen. Fast alle Wissenschaftler, ob Mainstream oder Skeptiker, glauben an eine menschliche Ursache, eine uneingeschränkte menschliche Ursache, an „eine gewisse Erwärmung“. Aber im AR6 hat sich der IPCC sehr klar zu einer dominanten menschlichen Ursache geäußert, und das ist etwas ganz anderes.

Es wurden zwei sehr gut recherchierte, anonyme und zufällige Zählungen von Peer-Review-Publikationen durchgeführt. (J. Cook, 2015 und M. Lynas, 2021) In beiden Umfragen lag die Zustimmung zur Position des IPCC („es gibt eine dominante menschliche Ursache“) bei weniger als 1 %! (siehe WUWT, 9. November 2025). Noch überraschender ist die Tatsache, dass beide Studien als Unterstützung für den Konsens des IPCC angesehen werden. Hat jemand tatsächlich mehr als den Titel und die Zusammenfassungen dieser Veröffentlichungen gelesen?

Die Finanzierung wissenschaftlicher Forschung ist sehr großzügig, mehrere Milliarden pro Jahr. Der größte Teil davon fließt in die Erforschung menschlicher Ursachen, viel weniger in die Erforschung natürlicher Ursachen. Universitäten und andere Institutionen üben starken Druck auf ihre Wissenschaftler aus, ihre Forschung auf anthropogene Ursachen zu konzentrieren und nicht auf natürliche Ursachen. Dieser Druck kann sehr wirksam sein, weil die meisten (jüngeren) Wissenschaftler keine Arbeitsplatzsicherheit haben.

Für mehr Chancengleichheit und relevantere Wissenschaft ist es unerlässlich, dass die Zahl der unbefristeten Professorenstellen an Universitäten deutlich erhöht wird. Die Lehrpläne müssen Raum für skeptische Wissenschaft bieten, und Postdoktoranden müssen ihre Themen selbst wählen dürfen.

Damit bleibt die letzte Frage: „Warum glauben so viele Menschen, ob gebildet oder nicht, ob sie sich für Natur und Umwelt interessieren oder nicht, so fest an einen katastrophalen Einfluss des Menschen auf das Klima? Warum glauben sie, dass CO₂ eine eindeutige und unmittelbare Gefahr für alle Menschen, für die Natur und für die Gesellschaft darstellt? Warum sind sie bereit, Billionen für die Reduzierung von CO₂ auszugeben, obwohl dies offensichtlich Unsinn ist?“

Antworten müssen auf mehreren Ebenen gegeben werden: auf Gruppen- und individueller Ebene, von Wissenschaftlern und Nichtwissenschaftlern.

Sind „Mainstream-Klimawissenschaftler” eine Gruppe? Sind Skeptiker eine Gruppe?

Ja, beide sind es, wenn auch auf leicht unterschiedliche Weise.

Mainstream-Wissenschaftler sind eine starke Berufsgruppe; sie arbeiten in den gleichen wissenschaftlichen Einrichtungen, veröffentlichen in den gleichen Fachzeitschriften, beteiligen sich an den Aktivitäten des IPCC und der UNFCCC, verfolgen deren Arbeit und verteidigen ihre wissenschaftlichen Ansichten mit Nachdruck. Wenn sie sich von Außenstehenden, den „Leugnern”, angegriffen fühlen, schließen sie sich zusammen und werden ebenfalls zu einer ideologischen Gruppe. Ideologisch gesehen unterscheiden sie sich kaum von Nichtwissenschaftlern und reagieren ähnlich.

Skeptiker sind eine lose Gruppe von konträren Wissenschaftlern und politischen Befürwortern. Sie sind keine einheitliche wissenschaftliche Gruppe und sind oft untereinander uneinig. Aber sie fühlen sich ideologisch miteinander und mit Nichtwissenschaftlern verbunden, die ihre Position unterstützen.

Beide Gruppen sind mehr als nur eine Ansammlung von Individuen; sie können als psychologische Einheiten fungieren, in denen Menschen ihr Verhalten, ihre Überzeugungen und ihre Identität anpassen. Die Sozialpsychologie untersucht, wie die Dynamik innerhalb einer Gruppe das kritische Denken eines Individuums außer Kraft setzen kann. Sie erforscht „Gruppendenken“, Tunnelblick und Massenpsychologie. Das Forschungsgebiet ist nicht neu, aber die Forschungsgegenstände waren nicht immer die gleichen. Der berühmte Psychiater S. Freud konzentrierte sich 1921 in seinem Buch Massenpsychologie und Ich-Analyse auf das Verhalten von Individuen in Menschenmengen und auf die Faszination hypnotisierter Patienten für ihren Hypnotiseur. In einem etwas anderen Umfeld kann Hypnose im Marketing und in der Politik eingesetzt werden. Die Politik, aber auch Wissenschaftler und Talkshows nutzen Angst und Hoffnung, oft durch ständige Wiederholung der Botschaft, häufig während einer leichten Trance.

In den jährlichen CoPs der UNFCCCP mit mehr als 50.000 bis 100.000 (!) Teilnehmern und ohne Kritiker werden alarmistische Positionen zum Klimawandel immer wieder wiederholt. Gegenmeinungen scheinen unter den mehr als 50.000 Teilnehmern nicht zu existieren. Dies bietet große Möglichkeiten zur Massenmanipulation.

6. Lehren vom Gorilla. Der CO₂-Störfaktor

Diese Phänomene lassen sich auch im individuellen Verhalten beobachten.

Besonders interessant ist der Artikel „Gorillas in our midsts” von D. Simons und F. Chabris (1999). Die meisten Leser, die sich für Bewusstsein, Unterbewusstsein oder Entscheidungsfindung interessieren, haben ihn gesehen und gelesen und waren schockiert. Der Artikel wird von einem Schwarz-Weiß-Video begleitet. Wir sehen 6 Personen, 3 in weißen und 3 in schwarzen Trikots, die eine Art Basketball spielen. Der Versuchsleiter bittet die Zuschauer, genau auf die weißen Spieler zu achten. Nach einigen Minuten fragt er die Zuschauer, ob sie etwas Interessantes gesehen haben. Die große Mehrheit, mehr als 80 %, hat nichts Ungewöhnliches gesehen. Dann wird das Video erneut gezeigt, aber diesmal bittet der Versuchsleiter die Zuschauer, auf die rechte Seite des Spielfelds zu achten. Und dann sehen sie es, zumindest die meisten Zuschauer. Ein riesiger Gorilla betritt das Spielfeld und läuft darüber hinweg! Viele Zuschauer weigern sich, dies zu glauben, und behaupten, es handele sich um ein anderes Video. Aber das ist nicht der Fall! Auf den ersten Blick haben sie den Gorilla einfach nicht gesehen! Dies wurde als „Unaufmerksamkeitsblindheit” bezeichnet und in vielen Labors immer neu wiederholt.

Viele Theorien haben versucht, dies zu erklären. Aber Tatsache bleibt, dass es erschreckend einfach ist, Menschen zu täuschen und sie die offensichtlichsten Dinge übersehen zu lassen. Wenn die Aufmerksamkeit abgelenkt wird, selbst durch eine so unbedeutende Sache wie die Aufforderung „Beobachten Sie die weißen Spieler“, übersehen die Menschen einen Gorilla, der über den Bildschirm läuft. Abgelenkte Aufmerksamkeit? Sicher, aber wahrscheinlich viel mehr als das. Ein Gorilla, der durch ein Basketballspiel läuft, ist so fremd für alles, was wir kennen und erwarten, dass unser Gehirn sich weigert, ihn zu sehen.

Der „Gorilla in unserer Mitte“ ist ein Experiment mit Einzelpersonen, kann aber auch ein grundlegender Erklärungsfaktor für viele Ergebnisse der Massenpsychologie sein. Es zeigt, wie leicht es ist, Menschen zu beeinflussen. Angst und Unsicherheit tragen zur Konformität bei, der soziale Druck durch die Medien verstärkt das Gruppendenken und den Tunnelblick, Polarisierung trägt zur Konformität und Voreingenommenheit bei.

Wenn dies das kritische Denken außer Kraft setzt, wird es gefährlich. Wenn eine Mehrheit der Menschen taub und blind für Kritik ist, ist das sehr gefährlich. Wenn diese Art des unkritischen Denkens von der Wissenschaft und (einem Teil) der Politik unterstützt wird – wenn loyale Anhänger gelobt werden und unangefochten bleiben, während Kritiker als illoyal abgestempelt werden –, ist das sehr, sehr gefährlich.

Für mich ist der Gorilla, der über den Boden läuft, für jeden sichtbar, aber nur von wenigen bemerkt wird, nicht nur ein interessantes Experiment. Es zeigt, dass Menschen offensichtliche Tatsachen nicht sehen, die nicht mit ihren lang gehegten Meinungen übereinstimmen. Als Beispiel zitiere ich den niederländischen Klimaminister, jetzt unser Premierminister, während einer Debatte im niederländischen Parlament. Auf die Frage, wie stark sich ein zusätzliches niederländisches Klimapaket von etwa 28 Milliarden Euro auf die globale Temperatur auswirken würde, antwortete er, dass dies etwa 0,000036 Grad Celsius entsprechen würde. In diesem Jahr 2023 reduzierte die niederländische Regierung das prognostizierte Wachstum der Gesundheitskosten und senkte die Ausgaben für die Altenpflege. In finanziell schwierigen Zeiten wurden also 28 Milliarden Euro für eine Verringerung der globalen Erwärmung um 0,000036 Grad ausgegeben! Das klingt absolut lächerlich, aber er kam ohne Probleme und mit einem Lächeln davon.

Und auch heute noch wird diese Entscheidung verteidigt; nicht nur in seiner eigenen Partei, sondern auch von einer Mehrheit des Parlaments, der Gerichte und der Bevölkerung.

Am extremsten sind die Menschen in Bezug auf CO₂. Für sie ist CO₂ ein Gift, eine Bedrohung für die Erde und eine Gefahr für die Menschheit. Sie sind bereit, dafür Billionen auszugeben. Sie sind bereit, die Umwelt zu zerstören und die grundlegenden Anforderungen der Wissenschaft zu vergessen. Wenn den Menschen gesagt wird, dass CO₂ keine Bedrohung darstellt, sehen sie es nicht, hören es nicht und glauben es nicht. Es ist der Gorilla in unserer Mitte, und ich halte es für gefährlich.

Können wir es Massenpsychose, Klimasyndrom, CO₂-Syndrom, CO₂-Verwirrungssyndrom nennen? Das sind starke Worte, aber die Realität ist noch stärker.

Die Klimawissenschaft in ihrer alarmistischen Form weist mehrere Symptome auf, die als Anzeichen einer möglichen Massenpsychose beschrieben werden. Die Psychologie bietet keine explizite offizielle Diagnose für „Massenverwirrung“. Ich halte dies für richtig, aber gleichzeitig halte ich den Begriff „CO₂-Verwirrungssyndrom“ für akzeptabel, da er in seinem Umfang begrenzter und leichter zu erkennen ist.

Skeptiker, die diese Ideen in Frage stellen wollen, stehen vor einem sehr harten Kampf. Und Recht zu haben reicht nicht aus. Eine Bombe zu werfen, wie es das US-Energieministerium (DOE) getan hat, ist hilfreich, aber es reicht nicht aus, um die Herzen und Köpfe der Menschen zu gewinnen.

Die Wiederholung und Ausweitung des Gorilla-Experiments zeigt, dass die Zahl der Menschen, die den Gorilla auf den ersten Blick „sehen” steigt, wenn er nicht mehr völlig unerwartet auftaucht. Sie ist auch höher, wenn der Gorilla durch eine Frau ersetzt wird. Sie ist höher in einer stressfreien Umgebung.

Ich denke, Skeptiker sollten dies im Hinterkopf behalten. Man sollte nicht mit aller Kraft gegen alarmistische Ideen vorgehen, auch wenn man sie für dumm hält. Wenn abweichende Ideen zu abwegig sind, wird niemand zuhören. Es ist besser, Gelegenheiten zum Meinungsaustausch in einer stressfreien Umgebung zu finden und die Botschaft abzuschwächen. Versuchen Sie, die Kommunikationskanäle offen zu halten. Eine überraschend hohe Anzahl von Alarmisten möchte von Skeptikern ernst genommen werden.

Zum Schluss noch ein Beispiel. Die fünf gängigsten IPCC-Szenarien haben eine wichtige Gemeinsamkeit. Sie basieren auf Algorithmen, die einen kausalen Zusammenhang zwischen CO₂ und Erwärmung annehmen. Mehr CO₂-Emissionen? Dann wird es wärmer! Weniger CO₂? Dann wird es kühler. Ich halte diese Szenarien für Fehlinformationen, jedes einzelne davon. Wie kann man Alarmisten davon überzeugen? Nicht, indem man es als unwissenschaftliche Fehlinformation bezeichnet. Sie werden den Gorilla nicht sehen! Besser ist es, ihnen zu sagen, dass es klug ist, zu den vielen bereits existierenden Szenarien ein weiteres hinzuzufügen. Ein Szenario, in dem CO₂ nicht der wichtigste Regler ist, sondern einer von vielen. Ein Szenario, das sowohl natürliche als auch menschliche Ursachen akzeptiert. Ein Szenario wie „Mord im Orient-Express“. Ein Szenario, in dem Investitionen in Windkraftanlagen, Solarparks und andere Formen der „erneuerbaren“ Energiewende zurückgefahren werden können. In dem fossile Brennstoffe noch jahrzehntelang als zuverlässige, vorübergehende Energiequelle dienen und später durch Kernenergie ersetzt werden können.

Der „Zwischenschritt“ einer Welt, in der Energie aus Wind- und Sonnenkraft gewonnen wird, kann weitgehend übersprungen werden, wodurch finanzielle Anreize geschaffen werden, um den Übergang zur Kernenergie zu beschleunigen, die Zerstörung unserer Umwelt zu verhindern und die Natur zu retten.

Autor: Jules de Waart (geb. 1942) ist ehemaliger Abgeordneter des niederländischen Parlaments und Publizist. Nach seinem Studium der Physischen Geographie an der Universität Amsterdam promovierte er 1971 mit einer geologischen Forschungsarbeit über Südfrankreich. Er war einer der ersten (1971), der die Zusammensetzung von Tonmineralien als Indikator für vergangene Klimata und Landschaftsentwicklung nutzte. Anschließend arbeitete er als Geologe in Afrika und später im Ministerium für Gesundheit und Klimapolitik. Nach seiner politischen Karriere konzentrierte er sich auf das Schreiben und Debattieren über Klima, Wissenschaft und Politik. Er ist bekannt für seine kritische Haltung gegenüber vorherrschenden Annahmen im Klimadiskurs und für mehrere Bücher und Artikel. Sein neuestes Buch „Crisis or Hoax?” wurde 2025 veröffentlicht.

Link: https://wattsupwiththat.com/2026/03/10/climate-change-and-CO₂-derangement-syndrome/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Klimawandel und CO₂-Störfaktor erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Neue Studie dokumentiert eine 20-jährige Pause im Rückgang des arktischen Meereises – verursacht durch interne Variabilität

13. März 2026 - 18:00

Kenneth Richard

„Der Trend der arktischen Meereisausdehnung im September für die letzten zwei Jahrzehnte 2005–2024 beträgt laut den Meereisindizes des NSIDC und der OSISAF jeweils -0,35 und -0,29 Millionen km² pro Jahrzehnt … Diese Trends unterscheiden sich bei einem Konfidenzniveau von 95 % statistisch nicht signifikant von Null.“ – England et al., 2025

Trotz mehrerer begutachteter, „übermäßig alarmistischer“ Vorhersagen aus den 2010er Jahren, wonach es bis 2020 im Sommer kein Meereis mehr geben würde, gab es „seit 2005 keinen statistisch signifikanten Rückgang der Meereisfläche im September“.

Nicht nur im jährlichen Minimum im September hat sich der Rückgang des Meereises in den letzten zwei Jahrzehnten verlangsamt, sondern „die derzeitige Pause bzgl. des Rückgangs des arktischen Meereises ist in jedem einzelnen Monat des Jahres zu beobachten“.

Das Ausbleiben eines statistisch signifikanten Rückgangs des Meereises ist „über alle Beobachtungsdatensätze, Messgrößen und Jahreszeiten hinweg eindeutig“, und die Dauer der Pause ist in den letzten 47 Jahren der Beobachtungen beispiellos.

„Der Trend für den Zeitraum 2005–2024 ist der langsamste Rückgang der Meereisfläche in einem beliebigen 20-Jahres-Zeitraum seit Beginn der Satellitenaufzeichnungen.“

Die Pressemitteilung von polarbearsinternational.org beschreibt, wie „bemerkenswert“ es ist, dass 2025 das 13. Jahr in Folge (2012) war, in dem kein neues Rekordminimum erreicht wurde. Der vergangene September (2025) war das zehntniedrigste September-Minimum in den Daten von 1979 bis heute.

Interne Variabilität erklärt die Trends

Das arktische Meereis ist zwischen 1995 und 2005 tatsächlich rapide zurückgegangen. Die Autoren vermuten jedoch, dass interne Schwankungen (AMO, PDO) „möglicherweise eine größere Rolle“ gespielt haben als anthropogene Einflüsse, um diesen jahrzehntelangen Rückgang zu erklären.

„Interne Schwankungen sind mindestens ebenso bedeutsam, möglicherweise sogar noch bedeutsamer, um den starken Rückgang in diesem Zeitraum [1990er- bis 2000er-Jahre] zu erklären.“

Die Wissenschaftler behaupten, dass interne Klimavariabilität die Auswirkungen des Menschen „vollständig ausgleichen“ und in den kommenden Jahrzehnten sogar zu einem Wachstum des Meereises führen kann.

Es wird erwartet, dass die Pause „weitere fünf bis zehn Jahre“ andauern wird.

Image Source: England et al., 2025 and polarbearsinternational.org press release

Link: https://notrickszone.com/2026/03/11/new-study-documents-a-20-year-pause-in-arctic-sea-ice-decline-driven-by-internal-variability/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Neue Studie dokumentiert eine 20-jährige Pause im Rückgang des arktischen Meereises – verursacht durch interne Variabilität erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Wintererwärmung ja, aber nicht durch Kohlendioxid

13. März 2026 - 13:30
Grund der Erwärmung seit 1988: stark erwärmend wirkende Süd-Westlagen mit feuchter Atmosphäre

Von Josef Kowatsch, Matthias Baritz,

  • Die Wintererwärmung Deutschlands begann 1987 auf 1988 mit einem Temperatursprung.
  • Davor gab es über 100 Jahre gar keine Erwärmung, sondern sogar eine Abkühlung.
  • Keine CO₂-Treibhauserwärmung erkennbar in den Grafiken
  • Die Erwärmung in Europa seit 1988 hat natürliche und anthropogene Gründe

Zum Winter 2026 gehören die drei Monate Dezember 25, sowie Januar und Februar 2026. Laut dem europäischen Klimadienst Copernicus waren alle drei Monate die fünftwärmsten seit Beginn der Temperaturmessungen. Der Deutsche Wetterdienst (DWD) gibt den Winter 2026 mit knapp 1,7°C an, ermittelt mithilfe seiner über 2000 Wetterstationen. Und trotz des milden Februars am Schluss doch etwas kälter als letztes Jahr. Die Aufzeichnungen des DWD begannen für die Jahreszeit Winter 1882. Damals mit ganz anderen Messstationen und nach ganz anderen Messverfahren in der englischen Wetterhütte an ganz anderen, nämlich kälteren Örtlichkeiten ermittelt. Wollen wir mal hoffen, dass die damals ermittelten Temperaturen mit heute vergleichbar sind und der DWD „sauber“ umgerechnet, d.h. wärmer gemacht hat. Wie gesagt: Hoffen. Insgesamt lag der Niederschlag unter dem Schnitt und die Sonnenstunden deutlich darüber.

Behauptet wird vom IPCC und vom PIK, dass allein das in der Atmosphäre zunehmende CO₂ zur Erwärmung geführt haben soll, siehe Definition: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe

Grafik 1, Quelle Umweltbundesamt, stetig steigender CO₂-Anteil überall auf der Welt.

Wir fragen uns: Wo ordnet sich dieser 1,7 Grad Winterschnitt für 2025/26 ein in der langen DWD-Messreihe und wie ist die Erwärmung seit 1988 zu erklären?

In der folgenden Grafik handelt es sich um Original-DWD-Temperaturen, man sieht gleich bei der ersten Grafik, dass Copernicus falsch liegt, was Deutschland anbelangt.

Grafik 2: Seit Messbeginn im Kaiserreich war die Jahreszeit Winter über 100 Jahre ausgeglichen, mal wärmere, mal kältere Jahrzehnte – siehe blaue Trendlinie – dann erfolgte 1987/88 ein Temperatur-sprung von gut einem Grad, mit anschließender Weitererwärmung der drei Monate bis heute.

Bei näherer Betrachtung sieht man, dass das DWD-Startjahr in einem Kältetief lag, (etwa von 1840 bis 1900). Beginnt man die Reihe erst um 1900, dann ergibt sich folgende Grafik

Grafik 3a: Der Winter laut den Daten des DWD 90 Jahre erst einmal kälter. Erst nach dem Temperatursprung, also erst seit 1988 beginnt die Erwärmung.

Grafik 3b: Und schließlich noch der Zeitraum während der Mouna-Loa-CO₂-Messungen in Grafik 1. Und zu Copernicus: Nicht einmal in den letzten 40 Jahren war es der fünftwärmste Winter.

Anhand dieser drei Grafiken ist bereits bewiesen, dass die stetige CO₂-Zunahme der Atmosphäre nichts mit den DWD-Temperaturreihen zu tun hat. Es besteht keine Korrelation, denn CO₂ kann nicht 90 Jahre lang und insbesondere seit 1957 abkühlend wirken, dann 87/88 einen großen Temperatursprung verursachen, und anschließend eine Weitererwärmung hinlegen.

Nach den DWD-Temperaturreihen zu folgern hätte CO₂ bis 1987 abkühlend gewirkt, und dann ab 1988 plötzlich stark erwärmend. Solche Gaseigenschaften, die erst seit 1988 plötzlich erwärmend wirken, (davor noch abkühlend) gibt es nicht.

Interessant ist nun die Aufschlüsselung der Wintertemperaturen in Tag- und Nachtvergleiche, die wir als Tmin und Tmax darstellen werden.

Leider bietet der Deutsche Wetterdienst für seine ca. 2000 Wetterstationen keine Tages- und Nachttemperaturen im Schnitt seit 1900 an. Er bietet überhaupt keinen Schnitt an. Aber es gibt etwa 550 Wetterstationen die ab Kriegsende alle drei Temperaturen aufzeichnen. Wir mussten diese aus der DWD-Stationendatei raussuchen und selbst zu einem Schnitt aufsummieren. Zunächst mal erst seit 1948, denn nach dem Kriege hat der DWD bedingt durch die neuen Außengrenzen Deutschlands neue Wetterstationen hinzugefügt und andere entfernt. Und nach der Einheit 1990 musste auch wieder umsortiert werden.

Bitte beachten: Für jeden Jahrespunkt musste M. Baritz aus 545 Stationen erst den Schnitt errechnen, und zwar für alle drei Graphen. Welch zeitraubende Aufgabe für einen unbezahlten Klimawissenschaftler, wo dies doch die Aufgabe der DWD-Angestellten wäre. Die nächste Grafik findet man deshalb bei der bezahlten Treibhauswissenschaftsgilde nirgendwo. Warum wohl?

Grafik 4: Dargestellt sind die Wintertemperaturen vor und nach dem Temperatursprung, die obere graue Linie ist Tmax, die untere Tmin. Der braune Graph ist der Tagesschnitt. Bitte die Steigung ab 1988 selbst vergleichen mit dem DWD-Schnitt der vorigen Grafiken. Es besteht fast kein Unterschied.

Ergebnisse:
  1. Von 1948 bis 1987, also 40 Jahre kühlen die Winter tagsüber etwas stärker ab als die Nächte
  2. Gleich großer Temperatursprung bei allen drei Graphen von 1987 auf 1988
  3. Die Winter erwärmen sich ab 1988 tagsüber etwas stärker als T-min nächtens.

Erkenntnis: Dieses unterschiedliche Verhalten von Tages- und Nachttemperaturen ist auch mit keinerlei CO₂-Treibhauserwärmungstheorie erklärbar. Und nur deshalb findet man diese Grafik nirgendwo, denn sie widerlegt die Behauptung, CO₂ wäre der maßgebliche Temperaturregelknopf für die Erdatmosphäre.

Aufforderung: Die CO₂- Treibhauserwärmungsüberzeugten sollten die vollkommen unterschiedliche Tag-Nachterwärmung endlich mit Ihrer Theorie erklären. Und das hat einer versucht im Oktober 2020. Der selbst ernannte und gut bezahlte CO₂-RTL-Klimaexperte Christian Häckl behauptet sogar, die Nächte würden sich stärker erwärmen wie die Tage, rein von seiner alimentierten Theorieüberzeugung so dahergeschwätzt, ohne seine Vorhersagen an DWD-Temperaturreihen zu überprüfen. Siehe RTL-Häckl im Oktober 2020.

Anmerkung zur IR-Absorption: Richtig sind die physikalischen Grundlagen, die wir auch nicht bezweifeln: Die IR-Rot Absorption einiger Gase, die in Deutschland irrtümlich Treibhausgase genannt werden, gibt es. Hier anschaulich erklärt.

Diese IR-Absorption/Emission ist physikalisch leicht in Versuchen nachweisbar. Aber: die behauptete Erwärmung diese behauptete Thermalisierung der Luft ist nicht nachweisbar. Unsere Graphiken beweisen zusätzlich, dass eine Treibhauswirkung allerhöchstens minimalst und versteckt wirken könnte.

Sieben weitere Gründe für ein Nichtwirken von CO₂:

1) es gibt keine Versuchsbeweise zum erwärmenden CO₂-Treibhauseffekt, aber auch

2) keine natürlichen Erwärmungshotspots in freier Natur, wo naturbedingt ständig oder plötzlich große Mengen an Treibhausgasen freigesetzt werden wie im September 2022 beim ungewollten Großversuch mit dem ausströmenden Methan über der Ostsee. Und es gibt auch

3) keine technische Anwendung, die auf dem Treibhaus-Erwärmungseffekt beruht. Und

4) Das wussten bereits die deutschen Physiker-Größen wie Einstein, Planck, Schrödinger, Heisenberg und Otto Hahn. Siehe “Albert Einstein said 1917 no to CO radiative warming of the atmosphere” (hier)

5) alle DWD Temperatur-Grafiken können nur für kurze Zeiträume Korrelationen mit dem steigenden CO₂-Gehalt in der Atmosphäre finden. Das sind Zufallskorrelationen.

6) Insbesondere begann die Klimaerwärmung in Mitteleuropa nicht nach der Kleinen Eiszeit, wie die bezahlte Treibhausreligion behauptet, sondern erst durch einen Temperatursprung 1987/88 und danach die steile Weitererwärmung.

7) Dabei sind vor allem im Sommer bis in die Herbst hinein die Tagestemperaturen gestiegen, die Nachttemperaturen kaum, gar nicht oder bei manchen Wetterstationen sogar leicht gesunken.

Fazit: All diese Gründe und noch viele mehr mitsamt unserer Wintergrafiken sind der Beweis, dass der Treibhauseffekt keinerlei erkennbare wärmende Wirkung hat, eine homöopathische Dosenwirkung ist möglich. Die seit 1988 stattfindende Erwärmung hat andere Gründe. Wir nennen einige weiter unten.

Wir verlangen von der Politik: Ein Absenken der jährlich gemessenen CO₂-ppm-Zuwachsraten ist somit vollkommen unnütz, weil wirkungslos, zudem sehr teuer und sollte unterlassen werden. CO₂-Bodenverpressungen sind absolut sinnlos. Eine Gefahr für die Bodenorganismen und für die Umwelt.

Die letzte Generation, viele Jugendliche, sowie viele Bürger Deutschlands sind ein Opfer der CO₂- Klimaangstpropaganda, ein Teil des Geschäftsmodells „Treibhausgase“, oftmals zugleich aber auch Mitverdiener an der von uns bezahlten CO₂-Ablaßhandelssteuer. Tatsache ist: Wir sind weit entfernt von irgendwelchen irdischen Erwärmungs-Katastrophen aufgrund der CO₂-Zunahme. Die Atmosphäre braucht mehr CO₂ und nicht weniger.

Diese Klimapropaganda ist ein Geschäftsmodell ähnlich dem Ablasshandelsmodell der Kirche im Mittelalter. Die kirchlichen mainstream-Wissenschaftler vor 700 Jahren haben die Begriffe „Erbsünde“, „Fegefeuer“ und „Todsünde“ eigens erfunden, um den Leuten Angst einzujagen. Von dieser Lebensangst konnte man sich durch eine Ablassteuer freikaufen. Heute heißen die Begriffe Treibhausgas, Klimakipppunkte und ständige weitere Erderhitzung mit vorhergesagten angeblichen von CO₂ verursachten Klimakatastrophen.

Wir müssen diesen politisch gewollten und durchgeplanten Blödsinn der CO₂-Angstmache endlich stoppen. Letztlich ist unsere Demokratie in Gefahr. Was bedeutet, jeder auf seinem Weg, dynamisch und selbstbewusst auftretend. Die Vertreter der Treibhauskirche lächerlich machen ist auch ein Weg, der bisher noch kaum gewählt wurde. Endlose physikalische Diskussionen sind sinnlos.

Und was meldet der klimapanikverbreitende EU-Klimadienst mit seinen gekauften Klimaangestellten über diesen Winter: „weltweit der …..wärmste:

Unsere Anmerkung:. Es gibt überhaupt keine zuverlässigen weltweiten Messungen von früher, mit denen man diesen Winter vergleichen könnte. Bezahlte Wissenschaftler melden, was von Ihnen verlangt wird, weil ihr Gehalt davon abhängt.

Was hat nun tatsächlich zu den winterlichen Erwärmungen in Mitteleuropa seit 1987/88 geführt?
  1. Die ständige Ausbreitung der Wärmeinseln, die innerhalb Deutschlands schon längst keine Inseln mehr sind: 15% der Deutschlandfläche sind inzwischen bebaut und versiegelt, täglich kommen 45 bis 50 ha dazu: Siehe hier, Stand aktuell 51 000 km²

Allerdings ist die Wärmeinselwirkung im Winter nicht so stark ausgeprägt wie im Sommerhalbjahr, weil die Sonne nur kurz scheint und tief am Horizont steht. Die Aufheizung kommt hauptsächlich aus den Heizungen, den Autos und der Industrie. Im Gegensatz zu früher mündet der Rhein heute bereits als warmer „Golfstrom“ in den Bodensee, aufgeheizt durch uns.

  1. Natürliche Klimaveränderungen
  1. Temperatursprung 1987/88, er fand in ganz Mittel- Nord- und Westeuropa statt.

In Holland wurden die Gründe des Temperatursprunges genauer in dieser Arbeit untersucht. Zitat aus der Introduction: „This warming has not takenplace uniformly: there is a jump around 1988 of about one degree in the average temperature.“

Die Änderung der Großwetterlagen: plötzlich mehr Süd-und SW-Anteil, mitbedingt durch natürliche Atlantikzyklen. Das sind natürliche Ursachen der ständigen Klimaänderungen, die weder CO₂ noch sonst menschenverursacht sein kann.

Abb. 5: Noch nie seit Aufzeichnungsbeginn (1881) gab es über einen so langen Zeitraum derart viele Großwetterlagen mit westlichem und südwestlichem Strömungsanteil (rotviolett), wie seit dem Klimasprung im Winter 1987/88. Diese transportierten teils extrem milde atlantische Luftmassen (mPs, mSp, mS) nach Deutschland, so dass die Winter seitdem teils extrem mild verliefen. Großwetterlagen-Klassifikation nach HESS/BREZOWSKY und zwecks besserer Veranschaulichung Umrechnung aller Größen in Index-Werte. Daten für Winter 2023/24 noch nicht vollständig ausgewertet, aber auch da im Dezember und Februar sehr viele West- und SW-Lagen.

Die Änderung der Wetterlagen von Nord auf mehr Südanteil und der Windrichtungen ab 1987/88 führt auch zu einer Änderung der Sonnenstunden und der Niederschläge.

Abb. 6a/b: Die Abnahme der Sonnenstunden bis 1987 könnte auch die Abnahme der deutschen Tagestemperaturen bis 1987, siehe Grafik 4, erklären. Seit 1988 verzeichnen die Sonnenstunden einen leichten Anstieg. Niederschläge: steigend bis 1987, dann leichter Abfall.

Besonders eindrucksvoll zeigt sich die Häufung der stark erwärmend wirkenden Lagen mit westlichem Strömungsanteil in feuchter Atmosphäre nach der Objektiven Wetterlagen-Klassifikation des DWD (seit dem Winter 1979/80 vorliegend). Deren Häufigkeit stieg mit dem Klimasprung 1987/88 stark an und erreichte im abgelaufenen, sehr milden und nassen Winter einen neuen Häufigkeitsrekord.

Abb. 7: Häufigkeitsentwicklung der westlichen Lagen mit feuchter Atmosphäre seit dem Aufzeichnungsbeginn 1979/80. Unsere aktuelle, 1988 begonnene moderne Warmzeit zeichnet sich durch besonders viele feuchte Westlagen aus; diese behindern die nächtliche Abkühlung (Wolken und Wasserdampf).

Fazit: Kohlendioxid soll laut Treibhausglaubenskirche das temperaturtreibende Erwärmungsgas sein, angeblich ein Giftgas und Klimakiller. Kipppunkte sollen laut dem Treibhausangstgeschrei der bezahlten und unseriösen Klimawissenschaft unmittelbar bevorstehen, so deren Orakel. Unsere Wintergrafiken zeigen, dass meistens überhaupt keine Korrelation zur Grafik 1, dem steilen CO₂-Anstieg in der Atmosphäre besteht.

Zusammenfassungen:

CO₂ ist ein lebensnotwendiges Gas für die Photosynthese und das Pflanzenwachstum auf dieser Erde. Die Schöpfung der Erde ist auf Kohlenstoff und Kohlendioxid aufgebaut. Ein weiterer CO₂-Anstieg hätte positive Wirkungen für das Leben und wäre wünschenswert.

Ebenso wünschenswert wäre, wenn der Winter in Mitteleuropa weiterhin so mild bleiben würde wie seit 1988, nach dem Temperatursprung. Von einer Klimakatastrophe oder gar von Klima-Kipppunkten sind wir weit entfernt. Das sind Kindermärchen-Erfindungen und Teil des Geschäftsmodelles Klimahysterie

Der fast überall auf der Welt steigende WI-Effekt der Landmassen ist der tatsächlich anthropogene Anteil an der Erwärmung und nicht der wirkungslose nicht nachweisbare CO₂-Effekt. Es handelt sich um eine gewollt wissenschaftliche Verwechslung. Will man den WI-Effekt zurückfahren, dann muss die flächenversiegelnde Naturzerstörung, nicht nur in Deutschland reduziert werden.

Leider nimmt die Naturzerstörung täglich weiter zu und die DWD Wetterstationen sind mehrheitlich dort, wo der Mensch wohnt, arbeitet und die Landschaft besonders erwärmt, dort wo geheizt wird. (ca. 15% der Deutschlandfläche)

Anstatt sich sinnlose CO₂-Einsparungen zu überlegen, sollten die Umweltministerien der Länder sofort einen Ideenwettbewerb starten wie man den Niederschlag wieder in der freien Landschaft, in den Städten und Gemeinden halten und versickern lassen kann.

Die Klimaerwärmung brachte Deutschland bisher nur Vorteile. Deshalb sind gerade die jungen Leute aufgefordert, sich am regen Ideenwettbewerb gegen die Versteppung und Austrocknung Deutschlands im Sommer zu beteiligen. Das Wasser muss wieder dort gehalten werden, wo es niedergeht. Wir haben hier vorläufig 15 Vorschläge erarbeitet.

Wir brauchen mehr CO₂ in der Atmosphäre, CO₂ ist das Lebensgas

Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Nicht nur für das Pflanzenwachstum, wahrscheinlich auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Tatsächlich mussten die Pflanzen einige Tricks entwickeln, um mit diesem geringen Lebensangebot CO₂ überhaupt zurecht zu kommen. So haben die C3-Pflanzen ein Enzym mit dem Namen Rubisco entwickelt, das die Fotosynthese unterstützt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Eben ein Geschäftsmodell. Und die linksgrüne Klimalüge will letztendlich unsere Demokratie, unser Deutschland mit der gewachsenen 1000-jährigen Kultur zerstören.

Gegen die Terrorgruppe „letzte Generation“ und gegen die „Klimakleber“ und andere grünlinken Gruppierungen muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppen keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Sie sind aufgehetzt, um das lebensnotwendige CO₂ zu verteufeln, um die CO₂-Steuer weiter von uns einzufordern. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier beschrieben

Die Wintertemperaturreihen des Deutschen Wetterdienstes beweisen: Es gibt keinen von Kohlendioxid verursachten Klimanotstand. Deshalb muss auch keiner bekämpft werden.

Matthias Baritz, Naturschützer und Naturwissenschaftler

Josef Kowatsch, aktiver Naturschützer, ausgezeichnet mit Dutzenden Natur-und Umweltpreisen, unabhängiger, weil unbezahlter Klimaforscher.

 

Der Beitrag Wintererwärmung ja, aber nicht durch Kohlendioxid erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Wie viel Batterieparks sind nötig, um Deutschland mit Strom zu versorgen?

13. März 2026 - 9:00

Allein mit immer mehr Windkraft- und Solaranlagen ist eine durchgehende Stromversorgung nicht möglich. Die Lösung sollen Batterieparks sein. Mit gut 25 GWh ist ein Anfang gemacht. Das garantiert aber nur eine landesweite Versorgung von wenigen Minuten – wenn sie voll geladen sind. Was wäre also nötig, um Deutschland ausreichend zu versorgen?

Von Maurice Forgeng

Die deutsche Energiewende hat ein windiges Problem: Durch die starke Priorisierung von Windkraft- und Solaranlagen ist unsere Energieerzeugung zu einem nicht vernachlässigbaren Anteil wetterabhängig geworden.

Es gibt Zeiten, in denen die Wetterbedingungen gut sind, wo viel Wind weht und die Sonne scheint. Dann können diese erneuerbaren Energien viel Strom bereitstellen, teilweise mehr, als das Land gerade benötigt. In so einem Fall müssen die Netzbetreiber den überschüssigen Strom entweder günstig oder zu Minuspreisen an andere Länder abgeben.

Falls das nicht reicht, müssen sie Windräder oder Solaranlagen drosseln oder komplett abschalten. Diese Drosselungen haben im vergangenen Jahr einen neuen Rekordwert erreicht.

Im Gegensatz dazu gibt es Zeiten, in denen die Erneuerbaren zu wenig oder keinen Strom produzieren. Im Extremfall ist hier von einer sogenannten Dunkelflaute die Rede. Dann ist Deutschland auf Importstrom von Nachbarländern angewiesen.

Stromerzeugung nach Kraftwerksarten (bunt) und -verbrauch (schwarze Linie) in Deutschland vom 11. bis 17. August 2025.

Foto: energy-charts.info/Fraunhofer ISE, Bearbeitung: mf/Epoch Times

Hoffen auf mehr Großspeicher

Pumpspeicherkraftwerke können die Differenz zwischen Überschuss- und Mangelzeiten in gewissem Umfang ausgleichen. Bei Stromüberschuss befördern Pumpen Wasser in einen höhergelegenen Speichersee, was Strom verbraucht. Bei Strommangel fließt das Wasser wieder hinab, wobei die Anlagen Strom abgeben.

Deren Gesamtkapazität ist deutschlandweit auf knapp 10 Gigawatt (GW) an Leistung begrenzt. Diese ist nicht ständig komplett verfügbar. Wenn ein Speichersee voll oder leer ist, kann er nicht weiter befüllt beziehungsweise entleert werden.

Hoffnung geben soll der seit wenigen Jahren anhaltende Boom der Batteriespeicher. Laut dem Portal „Battery-Charts“ ist hierzulande eine Gesamtkapazität von knapp 26 Gigawattstunden (GWh) in Betrieb. Diese bestehen überwiegend aus Heimspeichern in Privathaushalten (20,2 GWh), Gewerbespeichern (1,3 GWh) und Großspeichern (4,3 GWh).

Der Anstieg der Speicherkapazität in Deutschland von Januar 2020 bis Februar 2026.Foto: Battery Charts, CC BY 4.0

Relevant bei Batterien ist neben der Kapazität auch ihre Leistung. Aktuell bringen es alle hierzulande in Betrieb befindlichen Batteriesysteme auf rund 17,1 GW. Das entspricht rund einem Drittel des sommerlichen Strombedarfs von Deutschland in Höhe von rund 50 GW. Alle vorhandenen Batterien könnten also ein Drittel Deutschlands für rund 1,5 Stunden mit Strom versorgen können.

Allerdings sind derzeit nur die Großspeicher wirklich netzdienlich. Sie können – ebenfalls für rund 1,5 Stunden – rund 2,8 GW der Netzlast abdecken. Das entspricht einem Anteil von etwas über 5 Prozent des deutschen Sommerstrombedarfs. Gewerbe- und Heimspeicher sind nur bedingt netzdienlich, da sie vielmehr auf das individuelle Verbrauchsverhalten ihrer Betreiber ausgerichtet sind.

Die aktuellen Kapazitäten reichen somit keinesfalls, um die Stromüberschüsse mit den Mangelphasen im deutschen Netz in vollem Umfang zu harmonisieren. Welche Kapazität und Leistung wären nötig, um das zu schaffen und um mit den Erneuerbaren autark zu werden? Autark bedeutet hier, dass die Bundesrepublik nicht mehr auf Strom aus dem Ausland oder von fossilen Kraftwerken angewiesen wäre – und ebenso keinen Überschussstrom abstoßen müsste.

60 Millionen Tonnen Batterie für zehn Tage Strom

Um der Antwort auf diese Frage näherzukommen, hat Staffan Reveman, Autor, Redner und Berater in energieintensiven Branchen, eine Rechnung aufgestellt. Im Sommer liegt der durchschnittliche Strombedarf hierzulande bei rund 50 GW, im Winter bei rund 60 GW, wobei die Spitzenwerte rund 80 GW betragen. Die ebenfalls angestrebte Elektrifizierung wird diese Werte sommers wie winters steigen lassen.

Reveman rechnete dennoch nur mit dem Sommerschnitt von 50 GW. Um diese Leistung über 12 Stunden abgeben zu können, sei eine Batteriekapazität von 600 GWh erforderlich, also rund dem 24-fachen der heutigen gesamten Batteriekapazität. „Eine solche ‚Deutschland-Batterie‘ wiegt bei 5 Kilogramm pro Kilowattstunde (kWh) mindestens 3 Millionen Tonnen“, so der Fachmann. Das verdeutlicht den hohen Materialbedarf, primär an Lithium.

Im Winter gewinnt der Strom aus Batterien noch mehr an Bedeutung. Bei Dunkelflauten liefern Windkraft- und Solaranlagen nur einen Bruchteil ihrer installierten Leistung. Reveman rechnet daher mit einer Überbrückungszeit von bis zu zehn Tagen. Sollen 50 GW über 240 Stunden lang bereitstehen, bedeutet das eine Speicherkapazität von 12.000 GWh. Das wäre rund das 470-fache der heutigen Batteriekapazität und rund das 2.800-fache der heutigen Großbatterien. „Eine solche Batterie wiegt mindestens 60 Millionen Tonnen“, ergänzte Reveman.

Viel zu lange Bauzeit?

Zugleich wies Reveman mehrfach darauf hin, dass eine solche „Deutschland-Batterie“ vor jeder Entladung erst neu aufgeladen werden muss. Da die deutsche Bundesregierung fossile Kraftwerke im Optimalfall künftig nicht mehr im Strommix haben möchte – die Kohleverstromung ist gesetzlich auf 2038 begrenzt – müssten die erneuerbaren Energiequellen den Strombedarf Deutschlands abdecken und entsprechend hohe Stromüberschüsse für das gleichzeitige Laden der Batterien bereitstellen. Doch es gibt ein weiteres Problem.

In den vergangenen drei Jahren gingen 6,0 bis 6,5 GWh pro Jahr an zusätzlicher Batteriekapazität in Deutschland ans Netz. Laut Reveman könnte eine große Batteriezellenfertigung, wie der chinesische Hersteller CATL in Thüringen, bis zu 14 GWh pro Jahr produzieren. „Für die Produktion der 12-Stunden-Batterie benötige die Fabrik 43 Jahre, für die Großbatterie 857 Jahre“, so Reveman.

Er fügte allerdings hinzu: „Das Traurige daran ist, dass sie nach 25 bis 30 Jahren immer wieder von vorn anfangen müssen, da die Gebrauchsdauererwartung der Batterie begrenzt ist.“ Im Laufe der Jahre verringern sich Leistung und Kapazität einer Batterie. Die meisten kennen das vom Handyakku, der nach wenigen Jahren nachlässt und ausgetauscht werden sollte. Laut Branchenkreisen könnten Batterieparks 10 bis 15 Jahre ihren Dienst leisten.

Um das Wettrennen gegen die Zeit gewinnen zu können, bräuchte es eine Vielzahl solcher Großfabriken. Angenommen, die Batterien könnten 15 Jahre im Einsatz sein, bräuchte es 57 solche Fabriken, um die 12.000 GWh zu errichten – und dauerhaft aufrechtzuerhalten. Speicherzeiten über zehn Tage hinaus, um etwas Solarstrom aus dem Sommer in den Winter mitzunehmen, sind dabei wiederum nicht Teil der Rechnung.

Reveman fügte hinzu, dass es sich bei seiner Berechnung um „eine einfache Plausibilitätsprüfung der Möglichkeiten, Batterien zum Ausgleich der schwankenden Stromerzeugung durch Photovoltaik und Wind einzusetzen“, handelt.

Simulierte Stromerzeugung für 2030

Wie würde sich nun eine große Speicherkapazität auswirken, falls genügend Batterieparks in den kommenden Jahren entstehen sollten? Hierzu bietet „Energy-Charts“ vom Fraunhofer-Institut eine Simulation der künftigen erneuerbaren Stromerzeugung an. Hier kann man das Verbrauchs- und Wettermuster einer bereits vergangenen Woche mit künftigen installierten Leistungen der Erneuerbaren kombinieren.

Im folgenden Beispiel ist das Muster vom 11. bis 17. August 2025 mit den Ausbauzielen für 2030 kombiniert. Bei angenommenen 360 GW installierter Leistung bei Windkraft und Solar fallen besonders die hohen Solarspitzen auf, die viel Strom für die Batterien bereitstellen, sofern die Netze ausreichend dimensioniert sind. Die Last ist auf 550 Terawattstunden pro Jahr gesetzt, rund 20 Prozent mehr als aktuell.

Simulierte Stromerzeugung mit dem Verbrauchs- und Wettermuster von Woche 33 aus 2025 in Kombination mit den Ausbauzielen von Windkraft und Photovoltaik für 2030.

Foto: Bildschirmfoto /energy-charts.info/Fraunhofer ISE

Bei aktiviertem „Verbrauch“ und „Erzeugung“ – besser: Stromaufnahme und -abgabe – der Batteriekapazität in der Simulation kann der solare Stromüberschuss den Strommangel der Nacht ausgleichen. Wenn allerdings die Windkraft mangels Wind kaum Strom liefert, ist dennoch eine Zusatzstromerzeugung von teils mehr als 19 GW nötig. Diese müsste durch flexibel regelbare Kraftwerke, beispielsweise Gaskraftwerke, und/oder Stromimporte erfolgen. Andererseits sind auch weiterhin Stromexporte erforderlich, um das Netz zu stabilisieren.

Simulierte Stromerzeugung von Woche 33 aus 2025 in Kombination mit den Ausbauzielen von Windkraft und Photovoltaik für 2030 sowie dem Betrieb von Batterieparks.

Foto: Bildschirmfoto /energy-charts.info/Fraunhofer ISE

Flexible Kraftwerksreserve doch unverzichtbar?

In Zeiten mit ausreichend Wind und Sonneneinstrahlung ist rechnerisch keine Zusatzstromerzeugung notwendig. Im vergangenen Jahr war dies jedoch nur selten für eine komplette Woche wie Mitte September der Fall. Zwischendurch müssten immer wieder Reservekraftwerke einspringen, um entstehende Lücken zu füllen, die über Stromimporte allein nicht zu kompensieren sind.

Andererseits wäre in fünf Jahren im Falle einer Dunkelflaute wie in der ersten Dezemberwoche 2025 eine Zusatzstromerzeugung von rund 63,5 GW nötig. Das entspräche 45 großen Kernreaktoren oder 218 durchschnittlichen Gaskraftwerken. In der Simulation ist nicht angegeben, wie hoch die Batteriekapazität ist.

Der Bedarf einer teils massiven Zusatzstromerzeugung in der Simulation lässt die Vermutung aufkommen, dass eine vollständige Versorgung nur durch Erneuerbare auch dann nicht möglich ist, wenn große Batterieparks zur Verfügung stehen. Es muss offenbar stets eine flexible Kraftwerksreserve vorhanden sein, die bei zu großer Lücke einspringt. Eine solche Lücke kann besonders im Winter entstehen, wenn der Strombedarf hoch und die Solarenergie niedrig ist.

60 GWh allein in einem Landkreis?

Eine Rechnung hierzu hat auch der Energieexperte Stefan Spiegelsperger aufgestellt – nicht für ganz Deutschland, aber für den Landkreis Traunstein im Südosten Bayerns. Diese Region soll 700 GWh pro Jahr verbrauchen.

Seiner Rechnung zufolge wären in dieser Gegend Batterien mit insgesamt rund 60 GWh Kapazität nötig, um Traunstein weitestgehend mit der Energie von Windkraft und Solar zu versorgen. Zur Erinnerung: Ganz Deutschland mit seinen rund 400 Landkreisen hat aktuell 25,5 GWh.

Die Kosten für die Kombination Solar, Windkraft und Batterie lägen für Traunstein im Großhandel bei 217 Cent pro kWh anstatt bei 6 Cent pro kWh ohne Speicher.

So viel Platz benötigen die Batterieparks

Generell benötigt ein Batteriepark mit einer Kapazität von 200 MWh rund 1 Hektar (ha) an Fläche. Die im Juni 2025 in Betrieb genommene Anlage im schleswig-holsteinischen Bollingstedt hat 238 MWh auf 1,2 ha.

Die „Deutschland-Batterie“ für 12 Stunden mit 600 GWh käme demnach auf eine Gesamtfläche von rund 3.000 ha. Für die Version, die Deutschland vollgeladen für 240 Stunden versorgen könnte, wären 60.000 ha, oder 600 Quadratkilometer, nötig. Das entspricht etwa zwei Drittel der Fläche Berlins.

Das ist eine große, aber überschaubare Fläche. Zudem ist es sinnvoll, die Speicherblöcke nicht geballt in einer Region zu errichten, sondern verteilt im ganzen Land, nahe an Verbrauchern und Kraftwerken, für möglichst kurze Leitungswege.

Mangelnde Netzstabilität vergessen?

Bei einem Strommix, der zu mindestens 80 Prozent aus Windkraft, Photovoltaik und Batterien besteht, wird jedoch häufig ein entscheidender Punkt vergessen: die Netzstabilität. Nach heutigem Stand der Infrastruktur in Deutschland wäre unser Stromnetz noch gar nicht bereit für diese Form der Energieversorgung.

Aktuell tragen große und tonnenschwere Schwungmassen in Kraftwerksturbinen zur Momentanreserve und einer ausreichenden Blindleistungssteuerung bei. Diese mechanischen Schwungmassen können Spannungs- und Frequenzschwankungen im Netz ausgleichen. Für ein ausreichend stabiles Stromnetz sollte mindestens 40 Prozent der einspeisenden Kraftwerksleistung von Anlagen mit diesen Schwungmassen stammen.

Wenn dieser Wert deutlich unterschritten wird, droht ein flächendeckender Stromausfall, wie im vergangenen Jahr in Spanien und Portugal geschehen. Die Momentanreserve lag kurz davor bei nur noch 24 Prozent.

Windkraft- und Solaranlagen haben diese Schwungmassen nicht. Sie speisen den Strom elektronisch über Wechselrichter ins Netz ein. Diese elektronisch gebildeten Sinuswellen können ungleichmäßig werden und Störungen im Netz verursachen.

Eine Lösung können sogenannte E-STATCOM-Anlagen sein. Ihr Name bedeutet Elektr(on)ischer STATischer BlindleistungsKOMpensator. Es handelt sich um einen Blindleistungskompensator mit Superkondensatoren, der Netzspannung und -frequenz automatisiert und durchgehend stabil halten soll. Derzeit ist in Deutschland nur eine solche Anlage in Betrieb. Für ein stabiles Windkraft-Solar-Batterie-Netz bräuchte es jedoch mehrere Dutzend solcher Anlagen.

 

Maurice Forgeng

Das Fachgebiet von Maurice Forgeng beinhaltet Themen rund um die Energiewende. Er hat sich im Bereich der erneuerbaren Energien und Klima spezialisiert und verfügt über einen Hintergrund im Bereich der Energie- und Gebäudetechnik.

Der Beitrag erschien zuerst bei EPOCHTIMES hier

Der Beitrag Wie viel Batterieparks sind nötig, um Deutschland mit Strom zu versorgen? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

310 begutachtete Studien, welche das „Mkonsens“-Narrativ in Frage stellen

12. März 2026 - 18:00

Cap Allon

Der unabhängige Forscher David Siegel hat eine Datenbank mit 310 begutachteten wissenschaftlichen Artikeln zusammengestellt (Tendenz steigend), die zentrale Elemente der vorherrschenden Klimadiskussion in Frage stellen – insbesondere die Behauptung, dass die jüngsten Temperaturveränderungen eindeutig auf menschliche Aktivitäten zurückzuführen sind.

Die Sammlung umfasst mehrere Bereiche der Klimawissenschaft, darunter Temperaturzuordnung, Sonnenvariabilität, Physik der Treibhausgase, Chemie der Ozeane und Veränderungen des Meeresspiegels.

Zu den vorgestellten Artikeln gehört eine 2024 in Nature veröffentlichte Studie, in der untersucht wird, ob der jüngste Anstieg der globalen Temperaturen eine Beschleunigung der Erwärmung darstellt [Ein jüngster Anstieg der globalen Erwärmung ist noch nicht feststellbar].

Die Autoren kommen zu folgendem Schluss:

„Unsere Ergebnisse zeigen nur begrenzte Hinweise auf einen Erwärmungsschub; in den meisten Temperatur-Zeitreihen ist keine Veränderung der Erwärmungsrate über die 1970er Jahre hinaus festzustellen … Über alle Datensätze hinweg ist ein Anstieg von mindestens 55 % erforderlich, damit ein Erwärmungsschub zum gegenwärtigen Zeitpunkt erkennbar ist.“

Ein weiterer hervorgehobener Artikel, veröffentlicht im Journal of Sustainable Development [Simpson (2024)] argumentiert, dass umfassende Netto-Null-Maßnahmen ohne fundierte wissenschaftliche Debatte über die zugrunde liegenden Annahmen der Treibhausgas-Hypothese verfolgt wurden.

Siegel verweist auch auf die Arbeit der Physiker William Happer und William van Wijngaarden, deren Analysen des Strahlungstransfers in der Atmosphäre zu dem Schluss kommen, dass zusätzliches CO₂ aufgrund der Sättigung der Infrarotabsorptionsbänder zu abnehmenden Erwärmungseffekten führt.

Andere zitierte Forschungsarbeiten untersuchen die Sonnenvariabilität als Treiber von Klimaschwankungen, darunter frühere Arbeiten der Physikerin Joanna Haigh vom Imperial College, während Judith Currys Auswertung von Meeresspiegeldaten große Unsicherheiten bei Langzeitprognosen aufzeigt.

Siegels Datenbank verlinkt derzeit auf 310 Klimastudien, was verdeutlicht, dass die wissenschaftliche Literatur zur Klimazuschreibung weitaus umfangreicher – und weitaus umstrittener – ist als die oft wiederholten Behauptungen einer „gesicherten Wissenschaft”.

Die vollständige Liste der Artikel ist hier verfügbar.

Link: https://electroverse.substack.com/p/antarctica-below-60c-as-sea-ice-stabilizes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag 310 begutachtete Studien, welche das „Mkonsens“-Narrativ in Frage stellen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Wetter und Klima: Modelle, Modelle über alles in der Welt!

12. März 2026 - 13:30

Dipl.-Met. Christian Freuer

In einer Welt der Klima-Propaganda, in der Möchtegern-Gurus, Links-Chaoten und Erwärmungs-Fetischisten immer irgendwelche Modelle heranziehen, um ihre Glaubenssätze zu belegen, ist es vielleicht angebracht, mal ein ganz konkretes Beispiel für die Qualität derartiger Modelle aufzuzeigen.

Ich bin ganz zufällig darauf gestoßen bei meinem üblichen morgendlichen Vergleich verschiedener Wettervorhersage-Modelle. Ob man sich da Wetter- oder Klimamodelle anschaut, ist zweitrangig, denn das Prinzip ist in beiden das Gleiche: Man erfasst die aktuelle Lage, bringt sie in eine Computer-lesbare Form und lässt es dann laufen.

Modelle müssen zu 100% programmiert werden, und falls Wunschdenken der Programmierer auch nur ansatzweise zum Tragen kommt, fließt das unweigerlich in die Modelle ein, das muss nicht einmal böse oder ideologische Absicht sein. In meiner über 40-jährigen Zeit als Prognostiker war es gar nicht so einfach, irgendwelches Wunschdenken aus der Formulierung von Wetterprognosen herauszuhalten.

Aber genug der Vorrede. Wie gesagt sind die folgenden Tage rein zufällig ausgewählt worden. Besonders eklatant erschienen mir nämlich die Unterschiede der Wetter-Modellsimulationen vom 22. Februar 2026 für den 9. März 2026 zu sein (360 Stunden ≅ 15 Tage).

In den folgenden Darstellungen stehen in der oberen Zeile die Simulationen von Geopotential und Bodendruck der 500-hPa-Fläche, darunter jeweils (als Ausschnitt) Temperatur und Geopotential der 850-hPa-Fläche. Verglichen werden die Modelle GFS, EZMW und AIFS. Was sich dahinter verbirgt, kann man gut bei wetterzentrale.de nachlesen.

Hier also zunächst die Simulationen vom 22. Februar für den 9. März 2026:

Es sollen hier keine langatmigen Interpretationen folgen, denn es geht ja ausschließlich um die Unterschiede der Simulationen. In diesem Fall ist den Simulationen zufolge von 20°C bis 20 cm Schnee alles möglich. Was man dabei nicht aus dem Auge verlieren darf: Alle Lösungen sind gleich wahrscheinlich!

Nun wäre zu erwarten, dass sich die Unterschiede umso mehr verringern, je näher man dem Vorhersagetag kommt. Wie sehen die Modelle die Entwicklung für 240 ≅ 10 Tage im Voraus?

Nun, wie man sieht, sind die Unterschiede tatsächlich schon deutlich geringer. Vor allem GFS (links in den Graphiken) und EZMW (in der Mitte) sehen plötzlich ziemlich gleich aus. Jedenfalls ist nichts mehr von dem Kaltluftvorstoß des AIFS-Modells zu sehen, obwohl dieses Modell den immer noch zeigt, nur viel weiter östlich.

Kommen wir nun dem Vorhersagetermin noch näher und betrachten die Simulationen 168 Stunden ≅ eine Woche im Voraus.

Allzu große Unterschiede zeigen sich jetzt nicht mehr. Zumindest kann man ziemlich sicher sagen, was NICHT kommen wird, nämlich ein Wintereinbruch, wie ihn das AIFS-Modell 15 Tage im Voraus noch simuliert hatte.

Und wie ist nun die aktuell eingetretene Lage am 9. März 2026? So:

Da kann man nun alles hinein interpretieren, was man möchte. Mir geht es um etwas ganz anderes, nämlich um das

Fazit: Wie in aller Welt kann man bei den aufgezeigten Unterschieden schon nach 15 Tagen behaupten, dass ähnliche Modellsimulationen für 80 JAHRE im Voraus so genau sind, dass damit die Zerschlagung einer ganzen Industrienation gerechtfertigt wird?!

Dies ist nur als weiterer kleiner Baustein gedacht zusätzlich zu der Fülle der Argumente und Belege gegen CO₂ als Ursache allen Übels.

Der Beitrag Wetter und Klima: Modelle, Modelle über alles in der Welt! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Zuverlässige Solarenergie hat einen viel größeren Flächenbedarf als bisher angenommen

12. März 2026 - 9:00

H. Sterling Burnett

Im Vergleich zu klassischen Stromerzeugungsquellen wie Kohle, Erdgas, Kern- und Wasserkraft hat Solarenergie einen enormen Flächenbedarf pro erzeugter Strommenge.

Wie in „Energy at a Glance: Solar Power“ und „Affordable, Reliable, and Clean: An Objective Scorecard to Assess Competing Energy Sources“ dargelegt, zeigen Untersuchungen, dass Solarenergie pro Megawatt erzeugter Elektrizität mehr als dreimal so viel Land benötigt wie Kohle, Erdgas oder Kernkraft. Das bedeutet, dass dreimal mehr Lebensraum zerstört oder Ackerland für den Anbau von Nutzpflanzen oder die Viehzucht unbrauchbar gemacht wird als bei anderen Energiequellen, wenn man einen direkten Vergleich anstellt, der den Bergbau einschließt, aber möglicherweise die Abfallentsorgung für Solarenergie ausschließt, die in den meisten Analysen normalerweise nicht berücksichtigt wird.

Eine aktuelle Studie der Energieanalysten Isaac Orr und Mitch Rolling von „Energy Bad Boys“ legt jedoch nahe, dass der Flächenbedarf der Solarenergie viel größer ist als bisher angenommen und dass sich die Situation noch verschlimmert, wenn in einem Gebiet mehr Solarenergie zur Ersetzung bestehender Kohlekraftwerke hinzukommt oder wenn Erdgas als Alternative für den gestiegenen Energiebedarf ausgeschlossen wird.

Orr und Rolling schreiben in ihrer Analyse:

Die meisten öffentlichen Diskussionen über Solarenergie konzentrieren sich auf die Energieerzeugung, aber Stromversorgungssysteme sind auf Zuverlässigkeit während Spitzenlastzeiten ausgelegt. Betrachtet man das Stromnetz einmal unter dem Gesichtspunkt der akkreditierten Kapazität – also der Kapazität, auf die man sich während Spitzenlastzeiten verlassen kann – statt unter dem Gesichtspunkt der jährlichen Energie, so sieht der Flächenbedarf für verschiedene Technologien ganz anders aus.

Orr und Rolling verglichen die Auswirkungen einer geplanten 500-Megawatt (MW)-Solaranlage, dem River City Energy Project im Cerro Gordo County in Iowa auf die Umwelt mit denen einem alternativen Erdgas-Kombikraftwerk.

Das bestehende Erdgaskraftwerk Emery Generating Station im Cerro Gordo County hat eine Nennleistung von 602,8 MW. Unter Berücksichtigung eines „vergleichbaren“ Solarkomplexes hinsichtlich der akkreditierten oder Spitzenkapazität, die über längere Zeiträume benötigt wird, berechneten Orr und Rolling, dass dafür mehr als 105.792 Acres (ca. 428 km²) an Solarmodulen erforderlich wären, was etwa 29 Prozent der gesamten Landfläche von Cerro Gordo County entspricht. Das liegt weit über den 2.894 Acres, die für das Projekt auf Basis der durchschnittlichen Kapazität geplant sind.

Betrachtet man nur die installierte Leistung, würde die für Cerro Gordo County vorgeschlagene 500-MW-Industriesolaranlage von Ranger Power etwa 5,8 Acres pro MW installierter Nennleistung erfordern. Im Gegensatz dazu steht das bestehende Gaskraftwerk auf etwa 0,096 Acres pro MW installierter Leistung. Somit benötigt Solarenergie etwa 60-mal mehr Land pro MW erzeugter Energie. Und dabei wird natürlich nur die installierte Leistung berücksichtigt, nicht die akkreditierte oder erforderliche Spitzenlastkapazität.

Der Midcontinent Independent System Operator (MISO), die regionale Übertragungsbehörde und Marktclearingstelle, zu der Cerro Gordo County gehört, hat kürzlich sein Leistungsbewertungssystem aktualisiert, um die Zuverlässigkeit aller Erzeugungsquellen in seinem System in Zeiten zu berücksichtigen, in denen das System am ehesten mit Lastverluststunden zu kämpfen hat. Unter seinem neuen Bewertungssystem für direkte Lastverluste kommt MISO zu dem Schluss, dass bis 2030 während der Sommer-Spitzenlast die erwartete zuverlässige Solarenergie in seinem gesamten Gebiet etwa 4 Prozent des benötigten Stroms ausmachen würde, bis 2043 jedoch auf nur noch 2 Prozent sinken würde, was weniger als der Hälfte der erwarteten Betriebsdauer einer neuen, in Betrieb genommenen Anlage entspricht. Im Laufe des Jahres sind die Zahlen sogar noch schlechter: MISO schätzt, dass Solaranlagen nur 2,25 Prozent der akkreditierten Energie liefern werden, und weniger als 1 Prozent im Jahr 2043, weit weniger als die 50 Prozent, die MISO unter seinem früheren Bewertungssystem geschätzt hatte.

Im Vergleich dazu geht MISO davon aus, dass Erdgasanlagen im gleichen Zeitraum, also während der Sommer-Spitzenlastzeiten und im Jahresdurchschnitt, im Sommer 2030 89 Prozent der akkreditierten Energie erzeugen werden, wobei dieser Anteil bis 2043 auf 88 Prozent und im Jahresdurchschnitt 2030 auf 82 Prozent sinken wird, um dann bis 2043 auf 81 Prozent zu fallen. Erdgas ist während Spitzenlastzeiten einfach viel, viel zuverlässiger als Solarenergie, wenn man bedenkt, dass Solarenergie nachts vollständig ausfällt und bei Bewölkung, Regen oder Schnee viel weniger Strom produziert als angegeben.

Unter Berücksichtigung des neuen Akkreditierungssystems von MISO würde die Bereitstellung einer vergleichbaren Leistung zu einer vorgeschlagenen 500-MW-Erdgasalternative viel mehr Fläche erfordern, als die Befürworter der Solaranlage des River City Energy Project schätzen.

Nach dem Bewertungssystem von MISO wären „im Planungsjahr 2025–2026 für einen MW akkreditierter Kapazität 19,29 Acres Solarmodule erforderlich, verglichen mit 0,14 Acres für ein Erdgas-Kombikraftwerk“, schätzen Orr und Rolling.

„In den Jahren 2030 und 2033 wären 257,24 Acres Solarpanels für ein MW akkreditierter Kapazität erforderlich, wobei diese Fläche bis 2043 auf 578,80 Acres anwachsen würde“, so die Energy Bad Boys weiter. „Im Vergleich dazu würde Erdgas im Jahr 2030, 2033 und 2043 jeweils 0,14 Acres, 0,14 Acres und 0,14 Acres benötigen.“

Das bedeutet, dass die Solaranlage fast 1.838 Prozent mehr Fläche benötigen würde, um die gleiche Menge an zuverlässigem Strom wie ein Gaskraftwerk zu produzieren.

Die Forscher weiteten ihre Analyse auf ganz Iowa aus. Die folgende Tabelle verdeutlicht dies:

An anderen Orten variieren diese Zahlen je nach geografischer Lage und Klima etwas. Schließlich haben New Mexico und Arizona jährlich mehr Sonnenstunden als Iowa. Dies macht jedoch keinen großen Unterschied, da der Spitzenbedarf in den sonnigeren und heißeren Bundesstaaten höher ist. Außerdem sinkt die Leistung von Solarmodulen bei extremer Hitze erheblich. Solarzellen verlieren pro Grad Celsius über 25 °C 0,30 bis 0,50 Prozent ihrer Effizienz, was bei längeren Perioden extremer Hitze zu einem Rückgang ihrer Effizienz um 10 bis 25 Prozent führt.

Der letzte Punkt ist wichtig, denn wenn der fortschreitende Klimawandel in Zukunft zu mehr extrem heißen Tagen und einer Zunahme längerer Hitzewellen führt, wie Klimamodelle prognostizieren – obwohl Erfahrungen und Daten diese Vorhersage bislang nicht bestätigen –, dann wird Solarenergie, eine vermeintliche Lösung für die Energieversorgung der modernen Gesellschaft angesichts des Klimawandels, weniger effektiv sein als versprochen. Je mehr sich die Erde erwärmt, insbesondere je höher die Anzahl sehr heißer Tage ist, desto weniger effektiv ist Solarenergie als Klimaschutzlösung. Stromversorger müssen immer mehr Solarmodule installieren und damit immer mehr Wild- und Ackerland bedecken, um die Effizienzverluste der Solarenergie auszugleichen, die bei Temperaturen über 25 °C auftreten, was eigentlich gar nicht so heiß ist.

Kurz gesagt: Unabhängig davon, ob man nur die angegebene Nennleistung berücksichtigt oder auch die wichtigere akkreditierte Leistung einbezieht, sollte jeder, dem der Schutz von Land und Freiflächen am Herzen liegt, neue Solarenergieprojekte ablehnen, wenn es darum geht, den wachsenden Bedarf an stabiler Stromversorgung zu decken.

Quellen: Energy Bad Boys;Energy at a Glance

Link: https://heartland.org/opinion/climate-change-weekly-573-reliable-solar-has-larger-land-footprint-than-previously-thought/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Zuverlässige Solarenergie hat einen viel größeren Flächenbedarf als bisher angenommen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Eine weitere wirre Story beleuchtet, warum die Zeit für Klima-Hysterie und Linksaußen-Medien abläuft

11. März 2026 - 18:00

Gary Abernathy

Nur wenige Tage bevor Präsident Trump verkündete, dass sich die EPA in Bezug auf den Klimawandel nicht mehr an der sogenannten „Gefährdungsfeststellung” orientieren werde, beschloss die Redaktion der Washington Post, sich erneut mit dem alten Thema „Die Erde wird immer heißer” zu befassen.

Entgegen ihrer Absicht ließ der daraus resultierende Artikel mit der Überschrift [übersetzt] „Wissenschaftler glaubten, sie hätten die globale Erwärmung verstanden. Dann kamen die letzten drei Jahre” die Entscheidung der Trump-Regierung völlig logisch erscheinen.

Der am 11. Februar veröffentlichte Artikel ist eine Lektion über die Gefahren, die entstehen, wenn eine Organisation, die sich angeblich auf Journalismus konzentriert, ihre eigenen Analysen im Bereich der Klimawissenschaft durchführt und dann einen Artikel hervorbringt, der nicht verwirrender sein könnte, wenn er absichtlich versuchen würde, Abbott und Costellos „Who’s On First?“ als die lustigste Comedy-Nummer aller Zeiten zu ersetzen, die auf dem Konzept der Verwirrung basiert.

„Laut einer Analyse der Washington Post“, so der erste Absatz des Artikels, „war die höchste Erwärmungsrate seit Beginn der Aufzeichnungen in den letzten 30 Jahren zu verzeichnen.“ Die Post merkte an, dass ihre Analyse auf „einem Datensatz der NASA zur Analyse der globalen durchschnittlichen Temperaturen von 1880 bis 2025“ basiere.

Der Artikel war vermutlich bereits in Arbeit, bevor die USA von einer der kältesten Perioden der letzten Jahre heimgesucht worden sind. Aber das machte nichts. Die Post hatte auch dafür vorgesorgt.

„Während die Vereinigten Staaten unter einer eisigen Kältewelle leiden, ist es im Rest der Welt weiterhin ungewöhnlich warm“, versicherte uns die Post. Man denke nur an Nuuk in Grönland, wo „die Temperaturen im Januar mehr als 10 Grad Celsius über dem Durchschnitt lagen. In Teilen Australiens stiegen die Temperaturen unterdessen inmitten einer Rekordhitzewelle über 49 Grad Celsius.“

An manchen Orten wird es kalt. An anderen Orten wird es heiß. Willkommen auf der Erde, liebe Besucher. Die Post war besorgt, weil „etwa 40 Jahre lang – von 1970 bis 2010 – die globale Erwärmung mit einer relativ konstanten Geschwindigkeit voranschritt“, nämlich pro Jahrzehnt um etwa 0,19 Grad Celsius. „Dann begann sich diese Geschwindigkeit zu verändern“, berichtete die Post. „Die Erwärmungsrate stieg um eine Stufe an. Die Temperaturen sind in den letzten zehn Jahren um fast 0,27 Grad Celsius pro Jahrzehnt gestiegen – ein Anstieg von etwa 42 Prozent.“

Wenn Ihnen das völlig verwirrend erscheint, sind Sie nicht allein. Die Post begann mit der Aussage, dass die höchste jemals gemessene Erwärmungsrate „in den letzten 30 Jahren“ zu verzeichnen war, also seit etwa 1996. Dann hieß es jedoch, dass die globale Erwärmung von 1970 bis 2010 „ziemlich konstant“ war. Wie bitte?

Es ist nie ganz klar, warum „die letzten drei Jahre“ in der Überschrift hervorgehoben und im Artikel mehrmals erwähnt werden. Versuchen Sie nicht zu sehr, einen Sinn darin zu erkennen. Diese Leute sind Journalisten, äh, ich meine Wissenschaftler, äh, Wissenschaftsjournalisten – nun, sie sind sicher keine Mathematiker. Seien Sie nachsichtig mit ihnen.

Folgen Sie dem gewundenen Verlauf der Geschichte: Sulfataerosole in der Atmosphäre trugen tatsächlich zur Abkühlung bei. Aber sie sind schädlich für die Gesundheit, und als die Länder gegen solche Stoffe vorgingen, heizte sich die Lage wieder auf. Außerdem gibt es weniger tief liegende Wolken, sodass mehr Sonnenwärme durchkommt. Andererseits „sind Wolken seit langem eine der größten Unsicherheiten in der Klimawissenschaft. Wahrscheinlich tragen Wolken wie Aerosole zur Abkühlung der Erde bei, aber in welchem Umfang, ist eine offene Frage.“ Wie alles andere auch.

Bitte lesen Sie den folgenden Abschnitt aufmerksam durch – wenn nötig auch mehrmals – und lassen Sie uns dann gemeinsam eine Zusammenfassung erstellen.

Vor etwa zwei Jahrzehnten, so die Post, „begannen die Länder auch, von Kohle und Öl auf Wind- und Solarenergie umzusteigen. Infolgedessen sind die weltweiten Schwefeldioxidemissionen seit Mitte der 2000er Jahre um etwa 40 Prozent gesunken; Chinas Emissionen sind sogar noch stärker zurückgegangen. Dieser Effekt wurde in den letzten Jahren durch eine neue internationale Verordnung verstärkt, die die Schwefelemissionen von Schiffen um etwa 85 Prozent reduzierte. Das erklärt zum Teil, warum sich die Erwärmung etwas beschleunigt hat.“

Moment mal, Kohle-, Öl- und Schwefelemissionen haben dazu beigetragen, die Erde kühler zu halten? Und die Reduzierung dieser Emissionen hat die Erde erwärmt? Hier ist die Erklärung der Post: „Jahrzehntelang wurde ein Teil der durch Treibhausgasemissionen verursachten Erwärmung durch Sulfataerosole ‚maskiert‘. Diese winzigen Partikel verursachen Herz- und Lungenerkrankungen, wenn Menschen verschmutzte Luft einatmen, aber sie lenken auch die Sonnenstrahlen ab.“ Man muss sich also entscheiden, welches Übel man in Kauf nehmen will.

Die Post zitierte einen Experten, der sich dieser „zu heiß, um damit umzugehen“-Erzählung noch nicht anschließen kann. Chris Smith, wissenschaftlicher Mitarbeiter an der Universität Leeds, sagte gegenüber der Post: „Es ist noch zu früh, um definitiv zu sagen, dass die Erwärmungsrate zugenommen hat“, und er möchte noch einige Jahre lang weitere Daten sammeln.

Die Post hingegen hat möglicherweise nicht so viel Zeit. Anfang Februar kündigte das Blatt eine weitere Entlassungswelle an, und während erste Schätzungen von einem Verlust von etwa einem Drittel der Redaktion ausgingen, „ergab eine Berechnung der Washington-Baltimore Newspaper Guild, der Gewerkschaft, die die Journalisten der Post vertritt, dass die Geschäftsführung der Zeitung fast die Hälfte der zuvor beschäftigten Journalisten entlassen hat“, so The Washingtonian.

Den linksradikalen (ehemals Mainstream-)Medien kommt es nie in den Sinn, dass ihr Niedergang nicht nur auf wirtschaftliche Faktoren oder den Aufstieg des Internets zurückzuführen sein könnte. Ebenso wichtig sind die offensichtliche Voreingenommenheit und die agenda-getriebene Politik, die zu einem Vertrauensverlust bei Millionen von Amerikanern geführt haben, die nicht Teil der linksradikalen Blase sind, der sich die Medien zunehmend verschrieben haben.

Die Ära der Klimawandel-Hysterie neigt sich glücklicherweise ihrem Ende zu. Einige ihrer größten Befürworter teilen ihr Schicksal.

This article was published at RealClear Energy

Link: https://www.cfact.org/2026/03/07/another-confusing-story-highlights-why-climate-hysteria-and-far-left-media-are-reaching-their-end/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Auch hier sehe ich die Lage in unserem Land leider nicht so optimistisch. Der relative Erfolg der grünen Totengräber Deutschlands bei der jüngsten Wahl in Süddeutschland lässt keine andere Folgerung zu.

 

Der Beitrag Eine weitere wirre Story beleuchtet, warum die Zeit für Klima-Hysterie und Linksaußen-Medien abläuft erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

Keine signifikanten Änderungen bzgl. Überschwemmungen in Europa

11. März 2026 - 13:30

H. Sterling Burnett

Die Website Climate Cosmos veröffentlichte kürzlich einen Artikel, in dem Behauptungen widerlegt werden, wonach die jüngsten Überschwemmungen in Europa, die Schlagzeilen machten, historisch beispiellos und ein Beweis für den Klimawandel seien.

Climate Cosmos ist eine deutsche Medienplattform, die sich auf Klimawandel, erneuerbare Energien, Nachhaltigkeitsbemühungen und Weltraumwissenschaft konzentriert.

In „European Floods and Storms Defy Claims of Climate Change Amplification” (Europäische Überschwemmungen und Stürme widerlegen Behauptungen über eine Verstärkung des Klimawandels) untersucht der Autor Jeff Morgan die Behauptungen der Medien, wonach der Klimawandel die Überschwemmungen in Teilen Europas verstärkt und sie dadurch schwerwiegender oder wahrscheinlicher gemacht habe, wobei einige Medien behaupteten, die Überschwemmungen seien beispiellos gewesen. Morgan führt historische und aktuelle Belege an, die zeigen, dass die jüngsten Überschwemmungen weder beispiellos noch extremer waren als frühere Überschwemmungen, die zu einer Zeit auftraten, als die globalen Durchschnittstemperaturen und Kohlendioxidemissionen niedriger waren als heute. Morgan schreibt:

Langfristige Daten zeigen, dass es im Laufe der Geschichte wiederholt zu schweren Überschwemmungen in ganz Europa gekommen ist, deren Ausmaß oft mit den jüngsten Ereignissen vergleichbar war oder diese sogar übertraf. So kam es beispielsweise 1997 zu verheerenden Überschwemmungen an der Donau, die in ihrer Schwere viele zeitgenössische Ereignisse übertrafen.

Aufzeichnungen aus Städten wie Budapest und Wien dokumentieren bedeutende Überschwemmungen, die Jahrhunderte zurückreichen, darunter ein bemerkenswertes Ereignis im Jahr 1838. Diese historischen Präzedenzfälle zeigen, dass extremes Wetter seit langem Teil der Klimavariabilität des Kontinents ist. Aktuelle Analysen bestätigen, dass die Zahl der großen Überschwemmungen in natürlichen Flüssen während der letzten 80 Jahre insgesamt nicht zugenommen hat.

Der sechste Sachstandsbericht des IPCC liefert eindeutige Belege dafür, dass es keinen Anstieg bei Starkniederschlägen oder Überschwemmungen gibt. In Kapitel 12 wird ausdrücklich festgestellt, dass selbst bei moderaten Erwärmungsszenarien kein Anstieg solcher Phänomene zu beobachten ist.

Prognosen für mögliche Veränderungen gibt es nur in hochspekulativen, extremen Zukunftsszenarien nach 2050, und diese weisen nur eine mittlere Zuverlässigkeit auf. Diese Einschätzung unterstreicht, dass die beobachteten Wetterextreme in Europa keinen eindeutigen Anstieg im Zusammenhang mit steigender Temperatur zeigen.

In einer für ein Medienunternehmen ungewöhnlichen Wendung enthält Morgans Artikel Fußnoten, die seine Behauptungen mit Verweisen untermauern.

Die Website „Climate Realism” des Heartland Institute reagierte zuvor auf frühere Medienberichte über Überschwemmungen in Europa und wies auf die historischen Vorläufer der aktuellen Überschwemmungen sowie auf das Fehlen erkennbarer Trends hinsichtlich einer Zunahme der Schwere oder Häufigkeit von Überschwemmungen hin.

Natürlich beweist die Tatsache, dass die Überschwemmungen der Vergangenheit mindestens genauso schwerwiegend und sicherlich tödlicher waren wie die jüngsten Überschwemmungen nicht, dass der Klimawandel keine Rolle bei den aktuellen Überschwemmungen gespielt hat. Sie deutet jedoch darauf hin, dass Überschwemmungen komplexer sind als die einfache Zuschreibung „Der Klimawandel findet statt, also ist er dafür verantwortlich“, die Medien regelmäßig auf der Grundlage von leider voreingenommenen und fehlerhaften Schnellberichten von Klimaaktivistenorganisationen vornehmen.

„Stadtentwicklung und Hochwassermanagement spielen eine größere Rolle bei der Bestimmung der Schäden durch Stürme als jedes angebliche Klimasignal“, schreibt Morgan. „Regionen mit robusten Infrastrukturinvestitionen haben die jüngsten Ereignisse weitaus besser überstanden als solche ohne.“

Climate Realism hat bereits zuvor den gleichen Punkt angesprochen. Städte sind mit dem Aufkommen von Vororten, einem massiven Bevölkerungswachstum und einer Verlagerung von ländlichen Gebieten und Landwirtschaft hin zu industriellen und kommerziellen Aktivitäten entlang historischer Transportwege – Flüsse, Bäche und Häfen – dramatisch gewachsen. Mehr Menschen und mehr Gebäude in hochwassergefährdeten Gebieten bedeuten, dass bei Hochwasser die Schäden oder zumindest der nominale Wert der Schäden größer sind als bei früheren Hochwassern. Eine besser gefestigte Infrastruktur kann nur einen Bruchteil der Auswirkungen einer schlechten Planung und Standortwahl von Wohnhäusern und Unternehmen ausgleichen. Letztendlich, wie Morgan ausführlich darlegt, wird die Behauptung, dass menschliche Treibhausgasemissionen ungewöhnliche Überschwemmungen in Europa verursachen, weder durch historische Beweise noch durch aktuelle Analysen und Trends gestützt.

Quellen: Climate Cosmos; Climate Realism; Climate Realism

Link: https://heartland.org/opinion/climate-change-weekly-573-reliable-solar-has-larger-land-footprint-than-previously-thought/, zweite Meldung

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag Keine signifikanten Änderungen bzgl. Überschwemmungen in Europa erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker

„Grüne“ Ideologie: eine Kraft für Unterdrückung in Afrika

11. März 2026 - 9:00

Vijay Jayaraj

Nach 2030 wird die Zahl der Menschen in extremer Armut voraussichtlich wieder steigen, vor allem in Afrika. Während der Rest der Welt auf dem Weg zum Wohlstand ist, wird Afrika in die Armut getrieben. Die Daten sind eine Anklage gegen die moderne „grüne” Agenda.

Anatomie der Verzweiflung

Extreme Armut ist in Afrika keine abstrakte Größe. In Subsahara-Afrika leben heute etwa 67 % der weltweit in extremer Armut lebenden Bevölkerung, was einen starken Anstieg gegenüber vor einigen Jahrzehnten darstellt.

Umfragen in 39 afrikanischen Ländern zwischen 2021 und 2023 ergaben, dass mindestens 90 % der Befragten angaben, unter materieller Not zu leiden. Etwa 80 % der Befragten hatten im vergangenen Jahr mindestens einmal kein Bargeld zur Verfügung gehabt, 66 % hatten keine Medikamente oder medizinische Versorgung erhalten und etwa sechs von zehn hatten nicht genug zu essen. Mehr als 50 % gaben an, dass sie mindestens einmal keinen Zugang zu Kochbrennstoff oder sauberem Wasser hatten.

Für Westler, die sich über Netflix-Streaming-Abonnements oder die Größe von Flugzeugsitzen aufregen, ist dies eine andere Welt – eine, die man sich kaum vorstellen kann.

In Ländern wie der Demokratischen Republik Kongo, Mosambik, Malawi, Burundi und der Zentralafrikanischen Republik lebt mehr als die Hälfte der Bevölkerung weiterhin unterhalb der globalen Armutsgrenze, und die Zahl der Armen steigt mit dem Bevölkerungswachstum, weil es an realen wirtschaftlichen Möglichkeiten mangelt.

Diese wirtschaftliche Stagnation hat eine erschreckende mathematische Konsequenz: Mit dem Bevölkerungswachstum steigt auch die Zahl der Menschen, die in extremer Armut leben. Prognosen zufolge wird die Zahl der weltweit in extremer Armut lebenden Menschen nach 2030 steigen, was fast ausschließlich auf die Krise in Afrika zurückzuführen ist.

Afrika braucht dringend einen aggressiven Expansionsplan, der alle Ressourcen freisetzt. Der Kontinent strotzt nur so vor unerschlossenen Bodenschätzen, Ackerland und jungen Arbeitskräften, aber um diese zu erschließen, braucht es Energie – reichlich, bezahlbar und zuverlässig.

Die Geschichte zeigt, dass keine Region der Armut entkommen ist, ohne Wachstum über alles zu stellen und lokale Stärken zu nutzen, um Fabriken, Bauernhöfe und Städte mit Energie zu versorgen.

Seit den 1980er Jahren stieg das Pro-Kopf-Bruttoinlandsprodukt in weiten Teilen Asiens im Vergleich zu Subsahara-Afrika sprunghaft. Die asiatischen Volkswirtschaften – angeführt von China und Indien – haben Hunderte Millionen Menschen aus der Armut befreit. Dies gelang ihnen durch die Industrialisierung und die dafür erforderliche hohe und zuverlässige Energieversorgung – hauptsächlich mit Kohle. In Westeuropa, den Vereinigten Staaten, Kanada und Australien sind die Pro-Kopf-Einkommen über Jahrzehnte hinweg gestiegen, haben doch die Gesellschaften aufeinanderfolgende Wachstumswellen erlebt, die durch fossile Brennstoffe angetrieben worden sind.

Es ist eindeutig: wo der Energieverbrauch schnell wächst, geht die Armut rasch zurück.

Falls es in den kommenden Jahrzehnten nicht zu einem entscheidenden Wachstumsschub in Afrika kommt, werden die Prognosen über zunehmende Armut eintreten. Für eine Region, die mit Energiequellen und anderen Rohstoffen gesegnet ist, wäre das ein peinlicher und tragischer Misserfolg.

Afrika ist flächenmäßig der zweitgrößte Kontinent und hat die jüngste Bevölkerung. Die 1,6 Milliarden Menschen haben ein Durchschnittsalter unter 20 Jahren, verglichen mit einem weltweiten Durchschnitt von über 31 Jahren. (Das Durchschnittsalter in Nordamerika und Europa liegt bei 39 bzw. 43 Jahren.)

Der bevorstehende demografische Anstieg in Afrika, den diese Jugend mit sich bringt bedeutet, dass Hunderte Millionen Menschen in einem Kreislauf aus Entbehrung, Unruhen und humanitären Krisen dahinvegetieren werden, die über die Grenzen hinausgreifen. Es sei denn, halbherzige Maßnahmen werden durch eine enthusiastische Förderung des Wirtschaftswachstums ersetzt.

Das Tragische daran ist, dass die politische Führung in Afrika weiß, was erforderlich ist. Die Staats- und Regierungschefs des gesamten Kontinents haben ihre Bereitschaft gezeigt, heimische Gasreserven zu erschließen, Kohlevorkommen zu erschließen und Investitionen in Raffinerien und Petrochemie anzuziehen. Das geht aus den Reden der Staatschefs von Nigeria, Senegal und Mosambik hervor. Sie sprechen von „Energiesouveränität” und dem Recht, ihre eigenen Ressourcen zur Bekämpfung der Armut zu nutzen.

Die Reichweite der globalen Anti-Fossilbrennstoff-Kampagne ist jedoch größer als jede afrikanische Regierung allein bekämpfen kann. Westliche Organisationen und öffentliche Entwicklungsbanken haben jahrelang ihre Kreditvergaberegeln überarbeitet, um die Unterstützung für Kohleprojekte und zunehmend auch für Öl- und Gasinfrastrukturprojekte einzuschränken. Große europäische und amerikanische Finanzinstitute haben Richtlinien verabschiedet, welche die Finanzierung von Projekten mit fossilen Brennstoffen in Afrika erschweren, während sie selbst weiterhin auf diese Brennstoffe angewiesen sind.

Afrika braucht kein Mitleid aus dem Westen und schon gar keine Solarzellen. Es braucht die Freiheit, Gas zu verbrennen, Kohle abzubauen und Öl zu fördern – genau wie es der Westen getan hat. Die junge Bevölkerung Afrikas verdient den gleichen industriellen gesellschaftlichen Aufschwung, der Milliarden Menschen in Asien und im Westen aus der Armut befreit hat. Die grüne Ideologie, die dieser Vision entgegensteht, ist die Ideologie der Unterdrücker, nicht die der Hüter der Natur.

[Hervorhebung vom Übersetzer]

This piece originally appeared at  PJ Media  on February 16th and has been republished here with permission.

Autor: Vijay Jayaraj is a Research Associate at the CO2 Coalition, Arlington, VA and writes frequently for the Cornwall Alliance. He holds a master’s degree in environmental sciences from the University of East Anglia, UK, and resides in India.

Link: https://cornwallalliance.org/green-ideology-a-force-for-african-oppression/

Übersetzt von Christian Freuer für das EIKE

 

Der Beitrag „Grüne“ Ideologie: eine Kraft für Unterdrückung in Afrika erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.

Kategorien: Externe Ticker