«Wenn ich sagen soll, was mir neben dem Frieden wichtiger sei als alles andere, dann lautet meine Antwort ohne Wenn und Aber: Freiheit. Die Freiheit für viele, nicht nur für die wenigen. Freiheit des Gewissens und der Meinung. Auch Freiheit von Not und von Furcht.» (– Willy Brandt, 14. Juni 1987).
EIKE - Europäisches Institut für Klima und Energie e.V.
Großbanken nicht mehr an die Klima-Bilanzierungsvorschriften der US-Regierung gebunden
H. Sterling Burnett
In einem weiteren großen Schritt gegen den Klimaalarmismus unter der Trump-Regierung haben die Federal Reserve, die Federal Deposit Insurance Corporation und das Office of the Comptroller of the Currency am 16. Oktober stillschweigend eine Reihe von Vorschriften aufgehoben, die als „Grundsätze für das klimabezogene Finanzrisikomanagement für große Finanzinstitute” bezeichnet werden und 2023 unter der Biden-Regierung eingeführt worden waren.
Die Vorschriften verlangten von den Banken, dass sie offenlegen, welche Maßnahmen sie ergreifen, um klimabezogene Finanzrisiken für ihre Institute zu berücksichtigen, zu steuern oder zu mindern. Die Vorschriften von 2023 waren speziell darauf zugeschnitten, Banken mit einem Vermögen von mehr als 100 Milliarden Dollar zu zwingen, „Klimabelange in die Unternehmensführung, Szenarioanalyse und Risikoüberwachung zu integrieren”, einschließlich des operativen Geschäfts und des Firmenkundengeschäfts, der Privatkredite und der Zeichnung öffentlicher Anleihen. In der gemeinsamen Erklärung der Behörden, in der die Aufhebung der Vorschriften bekannt gegeben wurde, hieß es:
Die Behörden halten Grundsätze für das Management klimabezogener Finanzrisiken nicht für erforderlich, da die bestehenden Sicherheits- und Soliditätsstandards der Behörden von allen beaufsichtigten Instituten ein wirksames Risikomanagement verlangen, das ihrer Größe, Komplexität und ihren Aktivitäten angemessen ist. Darüber hinaus wird von allen beaufsichtigten Instituten erwartet, dass sie alle wesentlichen Finanzrisiken berücksichtigen und angemessen behandeln und gegenüber einer Reihe von Risiken, einschließlich neu auftretender Risiken, widerstandsfähig sind.
Die Trump-Regierung, mehrere Bundesstaaten und viele republikanische Gesetzgeber hatten Einwände gegen die Vorschriften erhoben und argumentiert, dass sie die Banken davon abhielten, sich auf ihre Kernfunktionen zu konzentrieren, wie z. B. die Bereitstellung konkreter Dienstleistungen für Menschen und Unternehmen sowie die Versorgung des Marktes mit Liquidität, was auf Kosten der Rentabilität und geringerer Renditen für Aktionäre/Eigentümer ginge.
„Die Aufsichtsbehörden erklärten, die Rücknahme reflektiere eine Rückkehr zu den seit langem bestehenden Sicherheits- und Soliditätsstandards, die von den Banken bereits verlangen, alle wesentlichen Risiken zu managen – ohne dabei das Klima herauszugreifen“, schrieb The Epoch Times. „Michelle Bowman, die stellvertretende Vorsitzende der Federal Reserve für Aufsicht, … unterstützte die Rücknahme und sagte, … Banken sollten sich auf „Kernrisiken“ wie Kredite und Liquidität konzentrieren, anstatt auf spekulative langfristige Klimaszenarien, und dass die Vorschriften das Kreditangebot verringern und die Kreditkosten für amerikanische Haushalte erhöhen könnten.
„Eine mögliche Folge könnte sein, dass Banken davon abgehalten werden, Kredite zu vergeben und Finanzdienstleistungen für bestimmte Branchen anzubieten, so dass diese gezwungen wären, Kredite außerhalb des Bankensystems bei Nicht-Bank-Kreditgebern aufzunehmen“, berichtete The Epoch Times unter Berufung auf Bowman. „Dies könnte dazu führen, dass der Zugang zu Finanzdienstleistungen eingeschränkt oder ganz unterbunden wird und die Kreditkosten für diese Branchen steigen. Diese Kosten würden letztendlich von den Verbrauchern getragen werden.“
Die Epoch Times merkte an, dass die Maßnahme dieser Behörden nicht die erste Rücknahme von Finanz-Klimavorschriften durch Bundesbehörden war. Der US-Finanzstabilitätsrat unter dem Vorsitz von Finanzminister Scott Bessent löste zwei Gremien auf, die eingerichtet worden waren, um klimabezogene systemische Risiken für den gesamten Finanzsektor zu analysieren. Bessent merkte an, dass die Maßnahme im September für die Behörde von entscheidender Bedeutung war, um ihren Fokus wieder auf „zentrale Fragen der Finanzstabilität” zu richten, darunter Banksicherheit, Liquiditätsrisiken und die Aufsicht über Nichtbanken-Finanzunternehmen, anstatt knappe Ressourcen für unbekannte und unwahrscheinliche mögliche zukünftige klimabezogene Schäden abzuzweigen, die Finanzinstitute nicht mit hinreichender Genauigkeit berechnen könnten.
Quellen: The Epoch Times; U.S. Federal Reserve System
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Großbanken nicht mehr an die Klima-Bilanzierungsvorschriften der US-Regierung gebunden erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Klima-Aktivistengruppe Climate Faithful räumt die Notwendigkeit fossiler Treibstoffe ein
Vijay Jayaraj
Jahrelang warnten Kritiker der Klimaorthodoxie, dass eine Zukunft ohne fossile Brennstoffe eine Illusion sei. Nun geben sogar die weltweit führenden Energiebehörden zu, was Physik, Wirtschaft und Realität schon lange klar gemacht haben.
Jahrelang warnten vernünftige Stimmen außerhalb des Klima-Establishments, dass eine Zukunft ohne fossile Brennstoffe physikalisch unmöglich sei. Als Energiequellen und Rohstoffe sind Öl, Erdgas und Kohle die Grundlage der modernen Zivilisation. Kaum ein Produkt – sei es der Dünger, der die Ernährung von Milliarden Menschen ermöglicht, oder die Kunststoffe für medizinische Geräte, Smartphones und Tausende anderer Artikel – kommt in irgendeiner Weise ohne Kohlenwasserstoffe aus.
Dennoch verkauften grüne Aktivisten die Phantasterei einer „dekarbonisierten“ Welt als unvermeidlich. Angeblich stand uns der Peak Oil bevor – der Punkt, an dem die Produktion des wahrscheinlich nützlichsten Rohstoffs der Erde einen endgültigen Rückgang beginnt.
Wie eine heidnische Religion bestrafte das Klima-Establishment abweichende Meinungen, unterband Debatten und erzwang Konformität. Regierungen, Unternehmen und Medien wiederholten gedankenlos das Mantra „Netto-Null”, ohne zu verstehen, dass dieses Ziel unmöglich zu erreichen war, und ohne die Schäden vorauszusehen, die bei seiner Verfolgung entstehen würden. Die Öffentlichkeit musste sich unerbittliche Predigten, leidenschaftliche Appelle und erschreckende Vorhersagen einer mächtigen Clique von Aktivisten, subventionierten Medienplattformen und zynischen Politikern gefallen lassen.
Dennoch ist die Wahrheit von der einflussreichsten globalen Energieinformationsstelle ans Licht gekommen, der Internationalen Energieagentur (IEA). Der jüngste Politikausblick der IEA widerlegt die zentrale Behauptung der Umweltbewegung und bestätigt nachdrücklich, dass die Nachfrage nach Öl und Erdgas bis 2050 weiter steigen wird.
Die IEA geht davon aus, dass die Ölnachfrage nicht nur stabil bleibt, sondern sogar steigt – bis Mitte des Jahrhunderts soll sie 113 Millionen Barrel pro Tag erreichen, was einem Anstieg von rund 13 % gegenüber dem Niveau von 2024 entspricht. Der gleiche Bericht prognostiziert einen dramatischen Anstieg der Nachfrage nach Erdgas, insbesondere durch die Märkte für Flüssigerdgas (LNG), die von 560 Milliarden Kubikmetern im Jahr 2024 auf über 1.000 Milliarden Kubikmeter im Jahr 2050 wachsen sollen.
Nach Jahren manipulativer Modellierungen zur Validierung von Klima-Illusionen musste sich die Agentur mit harten Daten auseinandersetzen, die einen steigenden Verbrauch, wachsende Bevölkerungszahlen, industrielle Expansion und den Energiebedarf von KI, Cloud Computing und elektrifiziertem Verkehr zeigten. Diese Faktoren bedeuten, dass der Bedarf an fossilen Brennstoffen noch für Jahrzehnte bestehen bleiben wird.
Die neue Prognose der IEA erkennt auch einen Nachfrageanstieg aus dem globalen Süden an. Länder wie Indien, Nigeria und Indonesien geben dem Zugang zu Energie Vorrang vor ideologischer Reinheit. Sie bauen Raffinerien, Kohleminen und Energieinfrastruktur, um ihre Zukunft zu sichern. Klarsichtige Politiker wissen, dass die Befreiung von Millionen Menschen aus generationenübergreifender Armut Vorrang hat vor der Nachsicht gegenüber dem Wahnsinn wohlhabender Eliten, die vorgeben, wegen einer theoretischen Erwärmung um ein paar Grad in 100 Jahren schlaflose Nächte zu haben.
Der massive Ausbau von KI-Rechenzentren und die Bemühungen um Elektrifizierung – einst als Beweis für eine „grüne“ Revolution angeführt – treiben die Nachfrage nach fossilen Brennstoffen in die Höhe. Das digitale Zeitalter erfordert eine kontinuierliche Stromversorgung und die dafür notwendigen Kohlenwasserstoffe.
Die Sterbeurkunde für die „Peak Oil“-Illusion wurde ausgestellt.
Warum hat sich die Energiebranche so getäuscht? Weil die Physik sich nie um politische Narrative gekümmert hat. Die Gesetze der Natur und der Wirtschaft sind unveränderlich. Die bewährte Energiequelle Kohlenwasserstoffe durch politisch bevorzugte Technologien zu ersetzen, war und ist grundsätzlich nicht machbar.
Wind- und Solarenergie sind in jeder Hinsicht furchtbar schlecht – sie sind flächen- und ressourcenintensiv und oft gerade dann nicht verfügbar, wenn sie am dringendsten benötigt werden. Wind, Wasserstoff und Solarenergie sind unpraktikabel. Punkt.
Behauptungen, dass diese Technologien wirtschaftlich sind, basieren auf Kennzahlen, welche die enormen Kosten für die Notstromversorgung (in der Regel Erdgaskraftwerke) für intermittierende Wind- und Solarenergie, für neue Übertragungsleitungen und für die Stabilisierung eines durch „grüne“ Maschinen instabil gemachten Stromnetzes ausschließen.
Fossile Brennstoffe werden daher weiterhin das Rückgrat der Stromerzeugung bleiben, wie die Daten der IEA zeigen. Selbst unter optimistischen Annahmen für das Wachstum der Kernenergie wird prognostiziert, dass Öl und Gas bis zur Mitte des Jahrhunderts dominieren werden.
Die Zahl der Klimakämpfer, die bereit sind, diese Realität zu leugnen, scheint mit jeder Woche kleiner zu werden.
Dieser Beitrag wurde erstmals veröffentlicht bei CO2 Coalition’s Substack am 17. Dezember.
Vijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.
Link: https://clintel.org/climate-faithful-admit-need-for-fossil-fuels/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Klima-Aktivistengruppe <em>Climate Faithful</em> räumt die Notwendigkeit fossiler Treibstoffe ein erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Windkraft als Biodiversitätskiller – Klimaschau 241
Windkraftanlagen werden seit geraumer Zeit als gefährlich für Fluginsekten, Vögel und Fledermäuse, darunter zahlreiche gefährdete Arten, eingeschätzt. Verteidiger der Erneuerbaren Energien wenden in dem Zusammenhang ein, daß die Zahl durch Windrotoren getöteter Tiere weit geringer sei als durch Verkehr.
Nun zeigt aber eine Studie des Magazins „Nature reviews biodiversity“ mit dem Titel „Auswirkungen der Windenergieerzeugung an Land auf die Biodiversität“, daß zum Beispiel in den Ländern mit der höchsten Windraddichte jährlich eine Million Fledermäuse durch die Anlagen getötet werden. Die Autoren um Todd Katzner sind keine Klimakritiker oder Fossillobbyisten, sondern eine bunte Gruppe von Wissenschaftlern des US Geological Survey, von Universitäten und Naturschutzorganisationen.
Zum Vergleich: Als die Deepwater Horizon-Ölbohrinsel von British Petrol 2010 im Golf von Mexiko havarierte, starben geschätzte 600.000 Seevögel. Die Empörung der Umweltschützer grenzenlos – und das völlig zu Recht. Bei den Fledermäusen durch Windkraft? Betretenes Schweigen. Oder eben maue Verweise auf getötete Flugtiere durch Autoverkehr.
Der Beitrag Windkraft als Biodiversitätskiller – Klimaschau 241 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wasserdampf, Wolken und das Problem der CO₂-Hypothese
Cap Allon
Eine im International Journal of Geosciences veröffentlichte Studie untersucht den Zusammenhang zwischen atmosphärischem Kohlendioxid und der globalen Temperatur anhand von geologischen Aufzeichnungen, Beobachtungen aus der Satellitenära und der Physik der Infrarot-Absorption. Die Ergebnisse stützen nicht die These, dass CO₂ ein dominanter Klimafaktor ist.
Über drei Zeiträume hinweg – 500 Millionen Jahre, 50 Millionen Jahre und die letzten 1 Million Jahre – bewegen sich CO₂ und Temperatur häufig in entgegengesetzte Richtungen. In den letzten 50 Millionen Jahren war dies in 42 % der Fälle der Fall. In den letzten 1 Million Jahren waren 87 % aller CO₂-Temperatur-Perioden entweder negativ oder effektiv null.
Eine Variable, die so regelmäßig von der Temperatur abweicht, kann nicht deren bestimmender Faktor sein.
In deutscher Übersetzung:
Die Studie wechselt dann von der Korrelation zum Prozess. Die Erde strahlt den größten Teil ihrer Infrarotstrahlung in einem engen Wellenlängenbereich ab, der als atmosphärisches Fenster bekannt ist. Hier müsste die Absorption durch Treibhausgase wirksam sein. Die gemessene Absorption in diesem Bereich ist für CO₂ minimal und für Methan und Lachgas nahezu null.
Wasserdampf verhält sich ganz anders. Wenn man die Infrarot-Absorptionsstärke mit der atmosphärischen Konzentration kombiniert, absorbiert Wasserdampf etwa 84-mal mehr Infrarotstrahlung als CO₂. Im Vergleich zu Methan, Ozon und Lachgas beträgt der Unterschied Hunderttausende bis Millionen. Kleine Veränderungen im Wasserdampf dominieren jeden theoretischen CO₂-Beitrag.
Wolken verstärken diese Dominanz noch weiter. Sie regulieren die einfallende Sonnenstrahlung durch Reflexion, entfernen Oberflächenwärme durch Verdunstung und geben latente Wärme in höheren Schichten der Atmosphäre ab, wo die Strahlung in den Weltraum effizienter ist. Diese Prozesse überwiegen die Strahlungseffekte von Spurengasen.
Daten aus der Satellitenära zeigen, dass die globale Wolkendecke zwischen 1982 und 2018 um etwa 4,1 % zurückgegangen ist. Im gleichen Zeitraum sind die Temperaturen gestiegen. Trendanalysen zeigen, dass dieser Rückgang der Wolkenbedeckung etwa 1,5°C der beobachteten Temperaturdifferenz von ~1,6°C zwischen den Hemisphären ausmacht, was bedeutet, dass Wolken etwa 89 % der jüngsten Erwärmung erklären. Der verbleibende Anteil entspricht den Auswirkungen von Wasserdampf und nicht dem CO₂-Antrieb.
Die physikalischen Grenzen von CO₂ werden in dem Artikel ebenfalls behandelt. Mit einem Anteil von etwa 0,04 % in der Atmosphäre verfügt CO₂ nicht über eine ausreichende Wärmekapazität und Konzentration, um einen dominierenden Einfluss auf die atmosphärische Temperatur auszuüben. Wenn die Temperaturen aufgrund anderer Prozesse steigen, erklärt die Meeresphysik, warum die CO₂-Konzentrationen folgen. Wärmere Ozeane setzen gemäß dem Henry-Gesetz gelöstes CO₂ frei. Die Ozeane speichern über 90 % des Kohlenstoffs der Erde, sodass die CO₂-Verzögerung eine natürliche Folge und keine Ursache ist.
Der Ausschluss von Wasserdampf und Wolken als Klimafaktoren ist technischer, nicht physikalischer Natur. Sie werden weggelassen, weil sie nicht als anthropogen eingestuft werden, nicht weil sie keinen Einfluss haben. CO₂ wird als Auslöser und Wasserdampf als Rückkopplung dargestellt, ohne dass dies bei für die Erde relevanten Temperaturen experimentell bestätigt worden wäre.
Die Daten zeigen, dass Klimaschwankungen real sind. Sie zeigen auch, dass CO₂ diese nicht steuert.
Die dominierenden Variablen sind Wasser in der Atmosphäre und Wolken, gefolgt von den Ozeanen und der Sonne.
Die ganze Studie steht hier.
Link: https://electroverse.substack.com/p/greenland-gains-blizzards-and-ice?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wasserdampf, Wolken und das Problem der CO₂-Hypothese erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Schon wieder falsch: Die UN propagieren einen weiteren falschen Klimakrisen-Report
Anthony Watts
Erfahren Sie, warum dieser neue Klimabericht der Vereinten Nationen und die Berichterstattung darüber durch PBS möglicherweise nicht die ganze Wahrheit vermitteln – und was das für das Verständnis der Öffentlichkeit von Klimawissenschaft bedeutet.
Ein kürzlich erschienener Bericht in PBS NewsHour mit dem Titel [übersetzt] „UN sagt, die Welt müsse Probleme wie Klimawandel, Umweltverschmutzung, Artensterben und Landverlust gemeinsam angehen“ von Tammy Webber von Associated Press (AP) berichtet über einen neuen „Global Environment Outlook“ der UN, der die falsche Behauptung wiederholt, dass sich die Erde einem globalen Wendepunkt nähert, der nur durch „beispiellose Veränderungen“ und neue Ausgaben in Höhe von Billionen Dollar zur Abschaffung fossiler Brennstoffe vermieden werden kann. Diese Behauptungen sind falsch und entbehren jeder Grundlage in Daten oder beobachtbaren Beweisen. Tatsächlich hat die UNO eine lange Geschichte fehlgeschlagener Katastrophenvorhersagen im Zusammenhang mit dem Klimawandel, die bis ins Jahr 1989 zurückreicht, was [nicht nur] PBS jedoch ignoriert.
Webber schreibt: „Experten haben gewarnt, dass die Welt sich einem Wendepunkt in Bezug auf Klimawandel, Artensterben, Landverlust und andere Schäden nähert“, und zitiert Bob Watson, den Hauptautor des UN-Berichts, mit den Worten: „Es muss jetzt schnell geschehen, denn uns läuft die Zeit davon.“ Wo haben wir das schon einmal gehört? Ach ja, im letzten UN-Bericht zum Zustand des Planeten, und im davor, und im davor, bis zurück in die 1980er Jahre.
Der Artikel und der Bericht behaupten weiter, dass der Klimawandel „zu extremeren Wetterereignissen beiträgt, darunter stärkere Stürme, Dürren, Hitze und Waldbrände“, und dass nur ein schneller, globaler Übergang weg von fossilen Brennstoffen eine Katastrophe verhindern kann.
Eine Geschichtsstunde ist angebracht. Es ist nicht das erste Mal, dass die UNO verkündet, dass „uns die Zeit davonläuft“. Im Jahr 1989, also vor 36 Jahren, erklärte Noel Brown vom Umweltprogramm der Vereinten Nationen gegenüber Associated Press, dass „ganze Nationen durch den Anstieg des Meeresspiegels von der Erde verschwinden könnten“, wenn die globale Erwärmung nicht bis zum Jahr 2000 umgekehrt würde. Er prognostizierte einen Anstieg des Meeresspiegels bis zu einem Meter bis zu diesem Zeitpunkt, massive Überschwemmungen an den Küsten von Bangladesch und Ägypten sowie eine Welle von „Öko-Flüchtlingen“.
Mehr als drei Jahrzehnte später haben sich alle diese Vorhersagen nicht nur als falsch, sondern auch als völlig unzutreffend erwiesen. „Sea Level Rise“ (Anstieg des Meeresspiegels) von Climate at a Glance dokumentiert langfristige Gezeitenmessungen und Satellitendaten der NASA, die zeigen, dass der globale Meeresspiegel um etwa 3 cm pro Jahrzehnt steigt, wobei seit dem 19. Jahrhundert bestenfalls eine moderate Beschleunigung zu verzeichnen ist. Auch die von der UNO prognostizierten Millionen von „Klimaflüchtlingen“ sind nicht eingetroffen. Die Malediven liegen immer noch über Wasser, Bangladesch hat mehr Einwohner denn je, und das „10-Jahres-Fenster” zur Abwendung der Katastrophe wurde so oft verlängert, dass es als Wrack bezeichnet werden könnte.
PBS/AP erwähnt diese gescheiterte Bilanz nie. Es wird auch nicht anerkannt, dass die UNO inzwischen über 30 Konferenzen der Vertragsparteien (COPs) geleitet hat, ohne die grundlegende Entwicklung der globalen Emissionen oder der globalen Temperatur zu ändern, wie aus den Abbildungen 1 und 2 unten ersichtlich ist.
Abbildung 1. Darstellung aller UN-Klimakonferenzen von 1992 bis 2025 mit der globalen Kohlendioxid-Konzentration in der Atmosphäre. Basisgrafik von NOAA, Anmerkung von A. Watts Quelle: https://gml.noaa.gov/ccgg/trends/
Abbildung 2: Darstellung aller UN-Klimakonferenzen von 1992 bis 2025 mit der globalen Jahrestemperatur. Basisgrafik von NOAA, Anmerkung von A. Watts. Quelle: https://www.ncei.noaa.gov/access/monitoring/climate-at-a-glance/global/time-series/globe/land_ocean/tavg/12/12/1980-2024?filter=true&filterType=binomial
Selbst wohlwollende Analysten räumen ein, dass das Pariser Klimaabkommen der Vereinten Nationen von 2015 keine Ergebnisse gebracht hat. Wie Climate Realism in „Paris Agreement: Dead at 10 (James Hansen was right)“ feststellte, bezeichnete der ehemalige NASA-Wissenschaftler James Hansen das Pariser Abkommen als „Betrug“ und „wertlose Worte“, weil es „keine Taten, sondern nur Versprechungen“ gebe – ein Urteil, das sich im Laufe des folgenden Jahrzehnts weitgehend bestätigt hat. (Diesen Beitrag gibt es in deutscher Übersetzung hier. A. d. Übers.) Wenn man 30 Gipfeltreffen abhält und die Emissionen dennoch 2024 einen neuen Rekordwert erreichen, wie PBS berichtet, ist das kein Erfolg, sondern nur ein weiterer Punkt auf einer langen Liste gescheiterter Bemühungen, die wiederholt fehlgeschlagenen Vorhersagen zu erfüllen.
Der Artikel übertreibt auch, was die Beobachtungsdaten zum Klima tatsächlich über „extremere Wetterereignisse“ aussagen. Der sechste Sachstandsbericht (AR6) des Zwischenstaatlichen Ausschusses für Klimawandel (IPCC) kommt nur für bestimmte Arten von Extremereignissen (wie Hitzewellen und starke Niederschläge in einigen Regionen) zu einer erhöhten Zuversicht, während er zu dem Schluss kommt, dass die Zuversicht hinsichtlich eines globalen Anstiegs vieler anderer Extremereignisse, darunter Hurrikane, Überschwemmungen und Dürren, gering oder begrenzt ist.
Die Einträge von „Climate at a Glance“ zu „Todesfällen aufgrund extremer Wetterereignisse“ und „temperaturbedingten Todesfällen“ heben eine entscheidende Tatsache hervor, die PBS nie erwähnt: Im Laufe des letzten Jahrhunderts sind die klimabedingten Todesfälle um mehr als 95 Prozent zurückgegangen, obwohl sich die Weltbevölkerung vervierfacht hat und die Temperaturen gestiegen sind. Unabhängige Analysen, wie beispielsweise die Untersuchung von HumanProgress zur Sterblichkeit durch Katastrophen, zeigen, dass die klimabedingten Todesfälle von etwa 485.000 pro Jahr in den 1920er Jahren auf weniger als 20.000 pro Jahr in den 2010er Jahren zurückgegangen sind, was einem Rückgang von mehr als 99 Prozent pro Kopf entspricht, wie aus der folgenden Grafik hervorgeht:
Abbildung 3. Todesfälle durch Naturkatastrophen, 1900–2016. Quelle: https://humanprogress.org/trends/a-safer-world/
Das sieht nicht danach aus, dass „uns die Zeit davon läuft“PBS/AP verwischt die Grenzen zwischen wissenschaftlichen Messungen und politischer Interessenvertretung noch weiter, indem es wiederholt behauptet, dass wir bis 2100 auf eine Erwärmung um 2,4 °C zusteuern und dass nur eine Umstellung weg von fossilen Brennstoffen mit Kosten von 8 Billionen Dollar pro Jahr uns retten kann. Diese Zahlen sind nicht das Ergebnis von Thermometern, Pegelmessern oder Ernteerhebungen, sondern das Ergebnis fehlerhafter, nicht zweckmäßiger Wirtschafts- und Klimamodelle, die auf einer langen Kette von Annahmen über zukünftige Technologien, Verhaltensweisen und politische Maßnahmen basieren. Der AR6-Bericht der Vereinten Nationen warnt davor, dass modellierte „Pfade” mit großen Unsicherheiten behaftet sind und die globalen Ergebnisse von höchst spekulativen sozioökonomischen Szenarien abhängen. Diese Prognosen als unvermeidlich und nicht als bedingte „Wenn-dann”-Übungen zu behandeln, ist Propaganda und keine Berichterstattung.
PBS/AP verschweigt auch, dass viele der aufgeführten Schäden – Bodendegradation, Verlust der biologischen Vielfalt, Umweltverschmutzung – Ursachen und Abhilfemaßnahmen haben, die weitgehend unabhängig von der Klimapolitik sind. Die Abholzung des Amazonas, die Bodenverarmung in Teilen Afrikas oder die Verschmutzung der Flüsse durch Plastik sind weder Ursache noch Folge der globalen Erwärmung und werden auch nicht durch Netto-Null-Kohlendioxidemissionen gelöst werden. Mit der Behauptung, dass „wir diese anderen Probleme nicht lösen können, wenn wir den Klimawandel nicht bekämpfen”, wie es ein zitierter Wissenschaftler formuliert, nutzt PBS legitime Umweltbelange effektiv als Hebel für nicht damit zusammenhängende, hoch spekulative Klimaschutzmaßnahmen.
Was der Artikel und der UN-Bericht völlig außer Acht lassen, ist die Rolle, die erschwingliche, zuverlässige Energie – überwiegend fossile Brennstoffe – dabei gespielt hat, menschliche Gesellschaften widerstandsfähiger gegenüber Umweltgefahren zu machen. Mechanisierte Landwirtschaft, synthetische Düngemittel, moderne Hochwasserschutzanlagen, Klimaanlagen und schnelle Katastrophenhilfe sind alle auf eine dichte, bedarfsgerechte Energieversorgung angewiesen. Das ist der Grund dasfür, dass die von Climate at a Glance dokumentierten klimabedingten Todesfälle im letzten Jahrhundert drastisch zurückgegangen sind. Dennoch lautet die von PBS/AP unkritisch unterstützte Empfehlung der UNO, genau die Energiequellen, die Milliarden Menschen aus bitterer Armut befreit haben, rasch auslaufen zu lassen – und zwar auf der Grundlage von Prognosen, die sich wiederholt als völlig falsch erwiesen haben.
Climate Realism berichtet seit Jahren über dieses Muster. Der Artikel „UNFCCC Climate Report Lies About Its Own Science” (Der UNFCCC-Klimabericht lügt über seine eigene Wissenschaft) weist darauf hin, dass politische Gremien der Vereinten Nationen regelmäßig pauschale Behauptungen über eine „sich verschärfende Zerstörung” aufstellen, die nicht durch die wissenschaftlichen Bewertungen der Vereinten Nationen selbst gestützt werden, welche nur geringe oder gar keine Veränderungen bei den meisten Arten von Extremwetterereignissen und Trends bei Naturkatastrophen feststellen. Im Artikel „Die Vorhersagen des IPCC von 1990 waren noch schlimmer als wir dachten“ überprüft Climate Realism die frühen Prognosen des IPCC zu einer raschen Erwärmung und einem Anstieg des Meeresspiegels und zeigt, wie diese jenseits aller Realität lagen. Trotzdem wird jeder neue Bericht als der „umfassendste aller Zeiten“ vermarktet und dazu benutzt, dringlichere Forderungen nach einer beispiellosen, einschneidenden Umgestaltung der Weltwirtschaft und der Regierungsinstitutionen zu rechtfertigen.
PBS/AP hätte seinem Publikum mitteilen können, dass die UNO nun seit mehr als drei Jahrzehnten Countdowns zur Katastrophe veröffentlicht, angefangen vom „10-Jahres-Fenster” von 1989″ über das 1,5 °C-Ziel des Pariser Abkommens bis hin zur aktuellen Forderung nach 8 Billionen Dollar pro Jahr für Klimaschutzausgaben, und dass nach 30 COP-Konferenzen die Emissionen und Temperaturen im Wesentlichen den gleichen Verlauf genommen haben, den sie auch ohne die Konferenzen genommen hätten. Diese Medien hätten fragen können, ob eine perfekte Bilanz fehlgeschlagener Vorhersagen weiterhin Vertrauen rechtfertigt, dass die UNO ihre Vorhersagen nun richtig treffen wird, oder ob die bisherigen Leistungen der UNO Skepsis gegenüber ihren aktuellen Katastrophenprognosen rechtfertigen könnten. Stattdessen präsentiert PBS den jüngsten UN-Bericht so, als hätte die Institution keine Geschichte von Vorhersagen oder als wären ihre früheren Vorhersagen zutreffend gewesen.
Indem sie die lange Reihe fehlgeschlagener Klimaprognosen der UN auslassen, den dramatischen Rückgang klimabedingter Todesfälle ignorieren und spekulative Modellberechnungen als unvermeidliche Zukunftsszenarien behandeln, führen PBS und Associated Press ihr Publikum in Bezug auf den tatsächlichen Zustand der Erde gewaltig in die Irre. Ein wirklich öffentlichkeitsorientierter Sender würde die Bilanz der UN und die verfügbaren Daten sorgfältig prüfen, anstatt ihren neuesten Falschalarmbericht unkritisch zu wiederholen.
Ursprünglich erschienen bei ClimateREALISM
Anthony Watts ist Senior Fellow für Umwelt und Klima am Heartland Institute. Watts ist seit 1978 als Fernseh-Meteorologe sowohl vor als auch hinter der Kamera im Wettergeschäft tätig und erstellt derzeit täglich Radio-Wettervorhersagen. Er hat Wettergrafik-Präsentationssysteme für das Fernsehen und spezielle Wetterinstrumente entwickelt und ist Mitautor von begutachteten Fachartikeln zu Klimafragen. Er betreibt die weltweit meistbesuchte Website zum Thema Klima, die preisgekrönte Website wattsupwiththat.com.
Link: https://clintel.org/wrong-again-pbs-un-is-pushing-another-false-climate-crisis-report/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Schon wieder falsch: Die UN propagieren einen weiteren falschen Klimakrisen-Report erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Öl und Gas bescheren armen Ländern Wirtschaftswunder
Vijay Jayaraj
Nationen, die einst an den Rand des wirtschaftlichen Geschehens gedrängt wurden, streben nun mit Hochdruck nach Wohlstand, angetrieben von einer einzigen, vereinigenden Kraft: Energie.
Energie ist unverzichtbar. Von den riesigen KI-Rechenzentren in den USA bis hin zu den Mega-Produktionsstätten in China – erschwingliche und zuverlässige Energieversorgung macht den Unterschied zwischen Leben und Wohlstand aus.
Der Zugang zu heimischen Energiequellen – oder die Möglichkeit, Importe zu sichern – eröffnet eine Vielzahl von Möglichkeiten: Es entstehen neue Arbeitsplätze, die Infrastruktur wird ausgebaut und die Regierungen gewinnen die finanzielle Stärke, um in ihre Bevölkerung zu investieren.
Öl und Gas, von Klima-Eliten als Relikte einer vergangenen Ära verspottet, erweisen sich stattdessen als Motoren eines neuen Aufbruchs. Eine Gruppe von Nationen schlägt einen radikal anderen Kurs ein, angetrieben vom unnachgiebigen Pragmatismus der Förderung von Kohlenwasserstoßen.
Guyana: Von der Bedeutungslosigkeit zum ÖlgigantenAn der Nordküste Südamerikas gelegen, spielte Guyana einst nur eine untergeordnete Rolle in der globalen Wirtschaftsdiskussion. Heute ist es die am schnellsten wachsende Volkswirtschaft der Welt, mit einem Bruttoinlandsprodukt (BIP), das 2022 um erstaunliche 63 % und 2023 um 38 % in die Höhe schoss. Für dieses Jahr wird ein weiteres Wachstum von 27 % prognostiziert.
Das Wachstum Guyanas lässt sogar die viel gepriesenen „asiatischen Tigerstaaten“ – Hongkong, Singapur, Südkorea und Taiwan – weit hinter sich. Bis 2025 prognostizieren Analysten ein weiterhin robustes Wachstum von mehr als 14 %, angetrieben durch die unermüdliche Förderung des Stabroek-Blocks, einem 6,6 Millionen Acres großen Ölfeld vor der Atlantikküste des Landes. Die Entdeckung von Liza im Jahr 2015, eine 10-Milliarden-Barrel-Goldgrube, hat dieses Land mit 810.000 Einwohnern zu einer Energie-Großmacht gemacht.
Die finanziellen Gewinne – allein 2,57 Milliarden US-Dollar im Jahr 2024 – haben Infrastrukturverbesserungen, den Ausbau des Gesundheitswesens und Bildungsreformen finanziert. Wie Upstream Online berichtet, hat sich das Pro-Kopf-Einkommen Guyanas seit 2019 vervierfacht, eine Leistung, die ohne Öl undenkbar wäre.
Niger: Afrikas Pipeline zum WohlstandAuf der anderen Seite der Welt, in den trockenen Weiten Westafrikas, schreibt Niger eine ähnliche Geschichte. Das seit langem für Uran und Subsistenzwirtschaft bekannte Binnenland steht vor einem Ölboom, der seine Zukunft neu definieren könnte.
Der Schlüssel dazu? Die Niger-Benin-Pipeline, eine ~2000 km lange Leitung, die Rohöl aus dem Agadem-Riftbecken in Niger an die Atlantikküste transportieren soll. Nachdem diplomatische Differenzen mit Benin im August 2024 beigelegt worden waren, wurde für die kommenden Jahre ein Anstieg der Produktion über 110.000 Barrel pro Tag (bpd) erwartet. Infolgedessen wird ein Anstieg des BIP prognostiziert.
Senegal: Gas weist den Weg voranWeiter westlich schließt sich Senegal der Energie-Renaissance an. Das Sangomar-Ölfeld, das im Juni 2024 die Produktion aufgenommen hat, und das Erdgasprojekt Greater Tortue Ahmeyim (GTA) an der Grenze zwischen Senegal und Mauretanien schreiben die Wirtschaftsgeschichte des Landes neu.
Im Jahr 2024 übertraf das Sangomar-Feld sein ursprüngliches Ziel und produzierte 16,9 Millionen Barrel Rohöl gegenüber den geplanten 11,7 Millionen. Mit einer Ölproduktion von über 100.000 Barrel pro Tag und dem GTA, das bereit ist, Flüssigerdgas (LNG) auf die globalen Märkte zu liefern, wird das BIP-Wachstum Senegals im Jahr 2025 voraussichtlich zweistellig ausfallen und zu den höchsten in Afrika gehören.
Das BIP-Wachstum Senegals lag 2024 bei rund 10 %, und die Energieexporte sollten 2025 voraussichtlich 30 % der Staatseinnahmen ausmachen. Entscheidend ist, dass Gaskraftwerke die Stromkosten senken und so das Wachstum der Industrie ermöglichen.
Elfenbeinküste: Diversifizierung durch KohlenwasserstoffeDie Elfenbeinküste, lange Zeit abhängig von Kakao und Kaffee, entwickelt sich zum stillen Energieriesen Westafrikas. Das Land hat die ursprünglichen Produktionsprognosen für sein Öl- und Gasfeld Baleine übertroffen.
Die Ölproduktion hat sich seit 2020 auf 60.000 Barrel pro Tag verdoppelt, während Erdgas – das 72 % der Stromversorgung des Landes deckt – Industrien aus der gesamten Region angezogen hat. Das Land plant, bis 2028 eine Fördermenge von 200.000 Barrel Öl pro Tag und 450 Millionen Kubikfuß Gas pro Tag zu erreichen.
Dank der rasanten Entwicklung der Öl- und Gasindustrie ist es der Elfenbeinküste gelungen, ihre Armutsquote von 55 % im Jahr 2011 auf 37 % im Jahr 2021 (die neuesten verfügbaren Daten) zu senken. Da sich die Ölproduktion in den nächsten vier Jahren voraussichtlich mehr als verdreifachen wird, könnte die Armutsquote auf einen einstelligen Wert sinken.
Nicht der Klimawandel, sondern die Energiearmut bleibt die unmittelbare Bedrohung für diese Regionen und beeinträchtigt weiterhin die Zukunft von Millionen von Menschen in Afrika und Südamerika. Sonnenkollektoren und Windräder können keine Stahlwerke, Fabriken oder Städte mit Strom versorgen.
Die Regierungen von Guyana, Niger, Senegal und Elfenbeinküste haben dies verstanden. Sie geben den Lebensgrundlagen ihrer Bürger Vorrang vor den Zielen zur „Kohlenstoffreduzierung”, die von den sogenannten Eliten in Brüssel oder New York entworfen wurden.
Ihr Erfolg entlarvt die Leere des Netto-Null-Dogmas und bekräftigt eine zeitlose Wahrheit: Energie im Überfluss ist die Grundlage des menschlichen Fortschritts.
This piece originally appeared at C02Coalition.org and has been republished here with permission.
Author: Vijay Jayaraj is a Research Associate at the CO2 Coalition, Arlington, VA and writes frequently for the Cornwall Alliance. He holds a master’s degree in environmental sciences from the University of East Anglia, UK, and resides in India.
Link: https://cornwallalliance.org/oil-gas-turning-poor-countries-into-economic-miracles/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Öl und Gas bescheren armen Ländern Wirtschaftswunder erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Temperaturreihen beim Monat Dezember: Es gibt keinen wirksamen CO₂-Treibhauseffekt, Teil 2
Von Josef Kowatsch, Matthias Baritz
- Die CO₂-Konzentrationen steigen stetig, der Dezember wird aber plötzlich wärmer
- Tage und Nächte erwärmen sich unterschiedlich seit 30 Jahren.
Seit der Industrialisierung steigen die CO₂-Konzentrationen in der Atmosphäre. Dafür wäre der Mensch verantwortlich. Und diese Zunahme würde automatisch die Temperaturen der Erde erhöhen, behauptet die Treibhauskirche, natürlich ohne Beweise. Und ohne Klimarettungsmaßnahmen mit einem Zurückdrehen der CO₂-Konzentrationen würde sich die Erde überhitzen.
Schon im ersten Teil haben wir gezeigt, dass diese Behauptungen falsch sind. Richtig ist, dass es eine Erwärmung gibt, aber diese Erwärmung setzte plötzlich ein in Mitteleuropa und hat viele Gründe, siehe Teil 1.
Der Dezember-Temperaturverlauf laut den Aufzeichnungen des Deutschen Wetterdienstes sieht so aus: Trotz ständigem Auf und Ab der einzelnen Dezembermonate blieb dieser Weihnachtsmonat 100 Jahre lang auf einem gleichen Temperaturniveau. Dann wurde er ganz plötzlich wärmer. Aber in welchem Jahr?
Für die Auswertung bieten sich 2 Möglichkeiten an, die Erwärmung begann im Jahre 1988 oder erst 10 Jahre später. (Den Dezember 2025 haben wir auf 3,2°C geschätzt)
Abb. 1: Etwa Jahre lang war der Dezember in Deutschland ausgewogen, er zeigte laut DWD-Originaldaten keinen Trend, trotz einiger wärmerer oder kälterer Jahrzehnte. Der leichte Anstieg der blauen Trendkurve von 1897 bis 1987 bzw. bis 1997 ist eine Folge des ständig zunehmenden Wärmeinseleffektes bei den deutschen Wetterstationen.
Egal, welchen Erwärmungsbeginn man wählt. Es sind 2 Grad bis heute, die der Monat plötzlich wärmer wurde. Vor allem seit 2011 war der Monat Dezember relativ mild, weil im Monatsschnitt keine kalten Ausreißer nach unten mehr vorkamen.
Wie verhielt sich der Monat nun tagsüber oder nachts im Vergleich zum Gesamtschnitt? Wir erfassen die Nächte mit T-min und tagsüber mit T-Max. Seit 1947 liegen 539 DWD-Wetterstationen vor, die alle drei Temperaturen gleichzeitig mitgemessen haben.
Abb.2: Oben die am Tage gemessenen Tmax, ganz unten in blau die Schnitte der Tiefsttemperaturen.
Auswertung: 1) In der linken Hälfte bis 1987 geht die Schere zwischen den drei Temperaturgraphen zusammen. Auffallend sind die nächtlichen, bzw. morgendlichen Tiefsttemperaturen, die deutlich ansteigen, während die fast Tage gleich bleiben.
2) Nach 1988: die Schere zwischen Tmax und Tmin geht auseinander. Vor allem tagsüber wird es wärmer, obwohl auch Tmin deutlich wärmer wird.
Erkenntnis: Mit der CO₂-Zunahme und einem CO₂-Treibhauseffekt lässt sich dieser Sachverhalt nicht erklären. Sonst müsste der Treibhauseffekt vor 1987 nachts stärker gewirkt haben als tagsüber und ab 1988 genau umgekehrt. Nämlich: Im Monat Dezember müsste CO₂ ab 1988 tagsüber stärker erwärmend wirken.
Und solche Treibhauseigenschaften gibt es nicht.
Merke: CO₂ kann somit nicht der entscheidende Welt-Temperaturregler sein.
Und deshalb entwickelt sich der Monat Dezember in anderen Teilen der Welt auch ganz anders, hier die deutsche Südpolarstation Neumayer.
Abb. 3: Seit Bestehen der deutschen Antarktisstation werden die Dezembermonate leicht kälter. Eine Erwärmung ab 1988 gibt es nicht, im Gegenteil, seit 1991 eine deutliche Abkühlung bis heute.
Damit sind die Behauptungen des Geschäftsmodelles Treibhauserwärmung grottenfalsch. Schon der Begriff Treibhauserhitzung ist eine Geschäftsmodell-Erfindung. Wir brauchen uns vor keiner sich ständig fortsetzenden Erdüberhitzung fürchten.
Und in Deutschland wurde der Monat seit etwa 30 Jahren angenehm wärmer, es kann leider auch wieder kälter werden
Die Wahrheit bei CO₂-als Sündenbock ist: Es handelt sich um bewusst gewollte und weltweit organisierte Panikmache, die unser Geld und Deutschland zerstören will. Die CO₂-Klimaerwärmungslüge ist ein Geschäftsmodell, das auf Angst aufgebaut ist. Vorbild war das kirchliche Sündenangstmodell der Kirche im Mittelalter und der dazugehörige Ablasshandel, der die Kirche damals reich und zugleich mächtig machte.
Da das CO₂-Erwärmungsglaubensmodell wissenschaftlich falsch ist, müssen wir Autoren nach anderen Erklärungsmustern der plötzlichen Erwärmung seit 1988 bzw. 1998 in Deutschland suchen.
Die richtige Erklärung, wir finden drei GründeNatürliche Ursachen:
1) Rein statistisch haben die West- uns SW-Wetterlagen im Dezember zugenommen und die nördlichen Wetterlagen abgenommen. Diese natürliche Klimaänderung beschreibt stets Stefan Kämpfe in seinen Artikeln. Zuletzt hier.
2) Der Wärmeinseleffekt: Der WI-effekt ist bei den DWD-Wetterstationen vor allem nach der Einheit stark angestiegen. Im Sommer sind die Sonnenstunden der hauptsächliche WI-treiber. Im Winter eher der erhöhte Energieverbrauch mit Wärmefreisetzung.
3) Eine statistische Erwärmung. Die Erfassung in der Wetterhütte wurde abgeschafft und der Tagesdurchschnitt nach ganz anderen Methoden erfasst.
Zu allen drei Punkten haben wir in den letzten Jahren ausführliche Artikel verfasst.
Die Punkte 2 und 3 sind im Vergleich zu 1 jedoch im Dezember schwächer ausgeprägt, da die wenigen Sonnenstunden im Dezember wegen des niedrigen Sonnenstandes auch noch viel weniger wirksam sind. (Im Dezember bei etwa 40 Sh, im Juni bei 240 Sh)
Anmerkung: Grundsätzlich ist die physikalische Absorption und Emission von Gasen physikalische Realität und wird durch die Belege unseres Artikels nicht in Frage gestellt. Aber wie hoch ist die dadurch geglaubte Thermalisierung? Gibt es überhaupt eine? Von uns wird die beängstigende Höhe von 2 bis 4,5 Grad Klimasensitivität (je nach Klimamodell, hierbei handelt es sich um fiktive Modelle, Teilrechnungen und nicht um Realität) wissenschaftlich hinterfragt und anhand der Daten des Deutschen Wetterdienstes widerlegt. Insbesondere zeigt sich, dass keine Grundlage für einen sog. Klimanotstand und darauf aufbauende Verbote und Panikmache besteht.
Fazit: Eine teure CO₂-Einsparung wie sie die Politik in Deutschland anstrebt, ist somit völlig wirkungslos auf das Temperaturverhalten. Sie schadet unserem Land und das Geschäftsmodell Klimahysterie will unser Geld. Ein Abzockemodell, das dem Klima nichts nützt und mit den teuren, angeblichen Schutzmaßnahmen unsere Natur und Umwelt auch noch zerstört. Das müssen wir vereint verhindern.
Wir brauchen mehr CO₂ in der AtmosphäreEine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.
Unsere Forderung: Die Wissenschaft muss endlich den optimalen CO₂-Konzentrationsbereich für die Flora und Fauna erforschen.
Abb.4: Noch ist die Flora und Fauna auf diesem Planeten nicht gerettet. Wir haben bisher erst die CO₂-Konzentrationsabnahme stoppen können. Ein deutlicher CO₂-Aufwärtstrend, eine Konzentrationszunahme auf den optimalen Wert für Flora und Fauna ist noch nicht erkennbar
CO₂ ist das irdische Schöpfungsgas und bedeutet Leben auf diesem Planeten.
Abb.5: Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO₂ vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert – ausführlich von uns hier beschrieben.
Wer von den Lesern unsere Argumente aus Treibhausglaubensgründen nicht verstehen kann – Glaube macht dumm – und weiterhin an dem menschenverursachten CO₂-Temperaturregler festhalten will, der müsste ein schlechtes sündiges Gewissen haben wegen seinen eigenen erderwärmenden Verfehlungen. Unser Rat: Gerade zum Jahresende kann sich jeder Treibhausgläubige von seinem persönlichen CO₂-Fußabdruck durch eine Extra-Spende freikaufen, z.B. bei den Kirchen. Aber auch andere geldgierigen Institute haben diese tolle Einnahmequelle schon entdeckt, siehe Internet. Dumm sein war noch nie billig!!
Grundforderung von uns Natur- und Umweltschützern:Für uns anderen gilt: Die werbe- und geschäftsmäßig geplante und regierungsgewollte CO₂-Klimahysterie vor einer angeblichen Erdüberhitzung muss sofort eingestellt werden. Es handelt sich um eine Werbestrategie der mächtigen Treibhaus-Klimalügenkirche.
Wir sind deshalb gegen teure technische CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo wieder zu vergrößern. (Vorschlag aus den USA). Es könnte auch sein, dass der Schuss nach hinten losgeht und die Erwärmung verstärkt wird, siehe hier.
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren, eine intakte Erholungslandschaft sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klima-Schwätzern wie die Professoren Quaschnig/Lesch/Rahmstorf und anderen von uns in der Politik agierenden und teuer bezahlten Klima-Märchenerzählern und Woodoo-Klimawissenschaftlern. Die haben nur ein Ziel: Sie wollen unser Geld. Aber keinen Natur- und Umweltschutz.
Wir alle sind aufgerufen, jeder auf seinem Weg die derzeitige Klima-Panikmache mit dem Glauben eines existenten CO₂-Temperaturreglers und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen.
Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger, weil unbezahlter Klimaforscher
Matthias Baritz, Naturwissenschaftler und Umweltschützer.
Der Beitrag Temperaturreihen beim Monat Dezember: Es gibt keinen wirksamen CO₂-Treibhauseffekt, Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Ein neuer kausaler Zusammenhang bzgl. des Klimawandels
H. Sterling Burnett
Eine neue Studie eines internationalen Teams aus Forschern des öffentlichen und privaten Sektors aus Australien und Thailand, die in der Fachzeitschrift Advances in Oceanography and Marine Biology veröffentlicht wurde, liefert eine alternative Erklärung für den Anstieg der Kohlendioxid-Konzentrationen in den letzten fünfzig Jahren: Der leichte Rückgang der Alkalität der Ozeane führt zu einer Freisetzung von Kohlendioxid.
Dieser Theorie zufolge verursacht die Erwärmung einen Anstieg des Kohlendioxids (CO₂), und nicht umgekehrt. Diese mit Proxy-Daten aus der Vergangenheit übereinstimmende Hypothese legt nahe, dass vergangene Erwärmungsphasen stets einem Anstieg des CO₂-Gehalts vorausgingen. Mit anderen Worten: CO₂ ist kein Frühindikator, sondern ein Spätindikator für Veränderungen.
Diese Hypothese lässt sich, wie von The Quadrant zusammengefasst, wie folgt beschreiben:
Die seit den 1960er Jahren gestiegene CO₂-Konzentration in der Atmosphäre wurde durch die Erwärmung verursacht und nicht umgekehrt.
Die Erwärmung, möglicherweise durch Sonnenaktivität, fördert die Ausfällung von Kalziumkarbonat (Kalkstein) im Oberflächenwasser der Meere, wodurch CO₂ aus der Atmosphäre absorbiert wird. Das absorbierte CO₂ wiederum, verstärkt durch die Kalziumkarbonatausfällung, versauert das Oberflächenwasser der Meere. Die Versauerung führt dann im Herbst und Winter zur Emission von CO₂ in die Atmosphäre. Diese CO₂-Emission ist größer als die Absorption, gerade wegen der anhaltenden Versauerung im sich erwärmenden Wasser. Letztendlich sehen wir einen Anstieg des CO₂-Gehalts in der Atmosphäre und eine Erwärmung. Es ist leicht, die falsche Schlussfolgerung zu ziehen. Tatsächlich hat das IPCC genau das getan.
Um es klar zu sagen: Diese Hypothese widerspricht nicht nur der vorherrschenden Darstellung, dass die Treibhausgasemissionen des Menschen für die jüngste Erwärmung verantwortlich sind, sondern auch den Theorien vieler Klimaskeptiker, die den Einfluss der CO₂-Emissionen des Menschen auf die Temperaturen zwar anerkennen, aber als abnehmend bewerten.
Obwohl die Autoren der Studie argumentieren, dass ihre These fest in der physikalischen Chemie verankert ist, räumen sie ein, dass sie überprüft werden muss, und schlagen Testverfahren vor. Insbesondere schlagen die Forscher Feldversuche (Probenahmen) zur Ablagerungsrate von Kalziumkarbonat (CaCO₃) im Meerwasser vor, kombiniert mit gleichzeitigen Messungen der saisonalen und jährlichen CO₂-Schwankungen und einer Isotopenanalyse der in der nördlichen und südlichen Hemisphäre gemessenen chemischen Zusammensetzung.
Das ist erfrischend, da es in der Mainstream-Klimawissenschaft fast unbekannt ist, dass Forscher sagen, ihre Theorien oder Behauptungen müssten anhand der Realität überprüft werden, um sich als wahr zu erweisen. Doch genau so sollte die wissenschaftliche Methode funktionieren, und sie ist der beste Weg, um Fortschritte beim Erwerb von Wissen über den Zustand der Welt zu gewährleisten.
Peter Smith beschrieb die Bedeutung dieser Tatsache für die Klimaforschung in The Quadrant wie folgt:
Ob Kennedy [Hauptautor der Studie] Recht hat (oder Lindzen und Happer oder Clauser), ist nebensächlich. Alternative Hypothesen stehen in der skeptischen wissenschaftlichen Tradition, nach Theorien zu suchen, die die Fakten besser erklären als die gängige Theorie. Das ist in diesem Fall besonders wichtig. Die gängige Theorie stellt unser Leben, wie wir es kennen, auf den Kopf, während sie durch Geld, Politik und Pseudoreligiosität vor konkurrierenden Theorien geschützt wird.
Quellen: Advances in Oceanography and Marine Biology; The Quadrant
Link: https://heartland.org/opinion/climate-change-weekly-566-big-banks-no-longer-bound-by-federal-climate-accounting-rules/, dritte Meldung
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Ein neuer kausaler Zusammenhang bzgl. des Klimawandels erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Meteorologe Dr. Ryan Maue warnt: „Deutschland wird es nicht schaffen falls der Winter streng wird“
Der Meteorologe Dr. Ryan Maue warnt bei X, dass „Deutschland es nicht schaffen wird“, wenn sich der Winter von 1962-1963 mit dem heutigen europäischen Energiesystem wiederholen würde. Das Land habe „außergewöhnliche Energieengpässe“.
Und plötzlich deuten die numerischen Modelle auf strenge Winterbedingungen in ganz Europa für Anfang Januar hin.
Maues Behauptung stützt sich auf einen Artikel mit dem Titel „On the Link Between Weather Regimes and Energy Shortfall During Winter for 28 European Countries” (Über den Zusammenhang zwischen Wetterlagen und Energieengpässen im Winter in 28 europäischen Ländern), der in Meteorological Applications (2025) von Emmanuel Rouges, Marlene Kretschmer und Theodore G. Shepherd veröffentlicht wurde. Die Autoren untersuchen, wie bestimmte atmosphärische Muster das Gleichgewicht zwischen Energiebedarf und erneuerbarer Energieerzeugung in ganz Europa beeinflussen.
Die Studie konzentriert sich auf Energieengpässe, definiert als Zeiträume, in denen der Strombedarf die Produktion erneuerbarer Energien (insbesondere Wind- und Solarenergie) deutlich übersteigt. Sie analysiert 28 europäische Länder anhand eines Modells mit „festem Stromnetz“ (basierend auf der aktuellen Infrastruktur) und historischen Wetterdaten (Reanalyse), um zu untersuchen, wie sich das Wetter der Vergangenheit auf das heutige Stromnetz auswirken würde.
Die Forscher fanden heraus, dass die Hauptursache für Engpässe je nach Region variiert. In Ländern mit kaltem Klima und geringer Windkapazität sind Engpässe in erster Linie nachfragebedingt (z. B. erhöhter Heizbedarf während Kälteeinbrüchen).
In Ländern mit warmem Klima und hoher Windkapazität sind Engpässe in erster Linie produktionsbedingt (z. B. Perioden mit geringer Windgeschwindigkeit oder „Dunkelflaute”).
Die Studie unterteilte das Winterwetter in sechs spezifische „Regimes“. Nur ein Teil davon – vor allem solche mit atmosphärischer Blockade (die kalte, ruhige Luft mit sich bringt) – ist für die meisten Tage mit hohem Defizit verantwortlich. Diese kritischen Wetterregimes betreffen oft große Teile des Kontinents gleichzeitig, was bedeutet, dass viele europäische Länder gleichzeitig unter Energieknappheit leiden.
Es besteht eine hohe räumliche Korrelation bei Energieengpässen. Wenn ein Land einen Engpass erlebt, ist es sehr wahrscheinlich, dass seine Nachbarn sich in der gleichen Situation befinden. Dies unterstreicht eine potenzielle Herausforderung für den grenzüberschreitenden „Austausch“ von Energie bei extremen Wetterereignissen, da viele potenzielle Exporteure ebenfalls mit Defiziten konfrontiert sein könnten.
Die Autoren simulierten, was passieren würde, wenn der Winter 1962/1963 (der drittkälteste des 20. Jahrhunderts in Europa) mit dem heutigen Energiesystem eintreten würde. Sie kamen zu dem Schluss, dass die anhaltenden Blockierungsbedingungen jenes Winters zu extremen und anhaltenden Energieengpässen in fast ganz Europa führen würden, die weit über die Belastungen der letzten Jahrzehnte hinausgehen würden.
Der Artikel betont, dass es im Zuge des Übergangs Europas zu erneuerbaren Energien von entscheidender Bedeutung ist, die meteorologischen Ursachen für Versorgungsengpässe zu verstehen. Er legt nahe, dass Energieplaner berücksichtigen müssen, dass extreme Wetterereignisse zu gleichzeitigen, kontinentweiten Energiekrisen führen können, die mit den derzeitigen Verbundnetzen allein durch einfachen grenzüberschreitenden Handel nur schwer zu bewältigen sind.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Der Meteorologe Dr. Ryan Maue warnt: „Deutschland wird es nicht schaffen falls der Winter streng wird“ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Ist die Zeit für E-Fahrzeuge nun reif?
Tesla, Toyota und viele andere verkünden jetzt, dass mit der neuen Batterietechnik auf Aluminium und Graphenbasis, viele Probleme, welche die Lithiumbasis bisheriger Batterien belastet hätten, nunmehr gelöst sein. Unter anderem auch die, dass die Laufleistung von 1000 km oder sogar mehr pro Ladung nun erreicht wurde, und dass man mit dieser Batterie, sie nun auch noch in 5 Minuten geladen bekäme und damit der weiten E-Mobil Verbreitung keine Grenzen mehr gesetzt wären. Allerdings sagt bspw. der Toyota Chef, dass hierfür die Infrastruktur pro „Tankstelle“ ausgebaut werden müsste, weil bei dafür nun mal wassergekühlten Kabel zum Einsatz kämen. Die Ladespannung beziffert er auf 800 V. Vermutlich meint er Gleichspannung.
https://www.youtube.com/watch?v=WSTWn-F7Vj8
und
Tesla
https://www.youtube.com/watch?v=5Fih1l0Ztiw
oder
Theorie und PraxisNun ist diese Verkündung eine Sache, und die Praxis eine ganz andere. Daher ist es ratsam – ohne sich zunächst um die Batterie zu kümmern – sich zuerst mal die übertragene Ladeleistung anzuschauen. Denn auch hier gilt zuallererst die Physik, in diesem Fall die der E-Technik.
Schauen wir uns zunächst mal die übertragen Leistung – die dann in Arbeit umgewandelt werden kann – an.
Auch hier ist Künstliche Intelligenz sehr hilfreich. In diesem Fall wurde mal wieder Grok befragt. Doch zuvor muss man wissen, dass bespw. beim Diesel die gesamte Energie für Fahren und Umgebung zwar im Tank gespeichert werden wird, aber dieser Energie mit Hilfe des Luftsauerstoffes im Verhältnis 3,4 : 1 (bezogen auf das Kilo) freigesetzt wird. So haben 55 l Diesel rd 540 kWh, passt gern in einen Tank eines Mittelklassewagens, von denen aber nur (Carnotsches Gesetz) ca. 35 – 45 % in mechanische Arbeit umgewandelt wird, und der Rest geht als Abwärme verloren. Aber immerhin sind es rd. 216 kWh (bei 40 %) die zum Vortrieb und allerlei Schnickschnak verwendet werden können.
Das muss beim E-Fahrzeug komplett in der Ladestelle zugeführt werden, einen Wirkungsgrad von ca. 95 % vorausgesetzt.
Was sagt die Physik dazu?Also schauen wir mal, was die Physik dazu sagt.
Zunächst mal die Arbeit von rd. 220 kWh für 1000 km Reichweite. Die Leistung ist definiert als P = U x I. Dabei steht P für Leistung in Watt, U für Spannung in Volt und I für Strom in Ampere. Des weiteren soll diese Leistung in 5 Minuten zugeführt werden. 5 Minuten sind 1/12 Stunden. D.h. die Gesamtleistung ist P= Energie/Zeit, in diesen Falle also P= 220 kWh/1/12 = 220 x 12 = 2.640 kW oder in Watt 2.640.000 W. Das entspricht 2.640 MW.
Und wenn wir dann den Strom berechnen, wir erinnern uns, dass der Toyota-Chef von 800 V sprach, wie es auch der Porsche Taycan, Hyundai Ioniq oder Kia EV6 verlangen, dann sind das
2.640.000 W/800 V = 3.300 A.
Und dieser gewaltige Strom – wir erinnern uns: unsere Haussischerung ist mit 16 A abgesichert- muss über die Ladestelle und über einen schnell-lösbaren Stecker, in das E-Auto zugeführt werden. Das ist die immense Aufgabe und es ist kein Wunder, dass der Toyota-Chef von wassergekühlten Kabeln sprach, doch die gibt es auch schon jetzt, sondern er muss noch einiges mehr als Lösung anbieten, sonst geht das nicht, wie wir gleich sehen werden.
Grok schreibt dazu:
Aktuelle Elektroautos (auch mit 800-V-Architektur wie Porsche Taycan, Hyundai Ioniq oder Kia EV6) erreichen maximale Ladeleistungen von ca. 250–350 kW, was Strömen von 300–600 A entspricht.
Was sagen X-User dazuDer X- User N. Schmid, seines Zeichens „Ingenieur für Unabhängigkeit von fossilen Importen durch EE & Elektrifizierung“ schreibt dazu, dass man heute nur 60 kWh benötige, hat aber dann vergessen, dazu zu schreiben, dass man – und auch das nur nominell- nur 400 km damit fahren würde. Wir aber reden von 1000 km oder mehr.
Doch zurück zu den 3.300 A, die ohne einen Lichtbogen zu erzeugen, an den Verbraucher, die Batterie des E-Mobils angeschlossen werden. Und das sollte unter einer Minute geschehen, denke ich mal, dann die Spannung von 800 V angelegt wird, ungefährlich wie umkompliziert für den Bediener und die darum liegende Umgebung, sommers wie winters, bei Tag und bei Nacht, und auch dann noch sicher, wenn viele Jahre vergangen sind, und dann mögen 3.300 A auch fließen. Für dann nur noch 4 Minuten, was den Strom weiter erhöht, oder die maximale Ladung um rd. ein Fünftel verringert.
Schütze sind dafür geeignet, oder?Nun gibt es speziell für diese Zwecke nur Schütze, die bis 1000 A schalten können. Manche davon wurden speziell für die E-Mobilität entwickelt. Für höhere Strome schreibt Grok
Ein solches Szenario mit 3 MW Leistung und 3750 A ist derzeit technisch nicht machbar für Pkw – es erfordert extrem dicke, gekühlte Kabel und ist eher für Megawatt-Ladesysteme (MCS) bei Lkw vorgesehen (bis ca. 3000–3750 A bei höherer Spannung). In der Praxis sinkt die Ladeleistung zudem mit steigendem Ladezustand der Batterie.
Und zu höheren Strömen schreibt Grok
Hochstrom-DC-Schütze für 800 V und ≥4000 A
Bei 800 V DC und Strömen von 4000 A oder mehr (das entspricht ≥3,2 MW Leistung) gibt es keine standardmäßigen elektromechanischen Hochvolt-DC-Schütze (High Voltage DC Contactors), die diese Spezifikationen erfüllen. Moderne HVDC-Schütze für Anwendungen in Elektrofahrzeugen (EV), Batteriespeichern (BESS) oder Ladeinfrastruktur sind typischerweise auf Dauerströme von 500–1000 A bei 800–1500 V ausgelegt (z. B. von Herstellern wie Sensata/GIGAVAC, TE Connectivity, TDK, Littelfuse oder Schaltbau).
Warum keine Schütze für ≥4000 A bei 800 V?
- Das sichere Schalten (insbesondere Ausschalten unter Last) hoher DC-Ströme erfordert effektives Lichtbogenlöschen (z. B. durch Gasfüllung, Keramik oder Magnetblasen).
- Bei Strömen >3000–4000 A versagen elektromechanische Schütze oft, da der Lichtbogen nicht zuverlässig gelöscht werden kann.
- Stattdessen werden in solchen Hochleistungsanwendungen (z. B. Industrie, Schienenverkehr, große ESS oder HVDC-Übertragung) kombiniert:
- Normale Schütze für das Tragen und Schalten unter niedriger Last.
- Sicherungen oder Pyrofuses (pyrotechnische Schalter) für Kurzschlussfälle und hohe Ströme.
Einzige gefundene Ausnahme: Industrielle DC-Contactor für hohe Ströme: Hubbell Industrial Controls Type 703
So ist der gegenwärtige Stand, was die Ladeseite angeht. Wir dürfen gespannt sein, wie das alles gelöst werden wird.
Und könnte es nicht sein, unabhängig von allem grünen Getue, das e-Mobil zum einzigen Mittel zur Fortbewegung zu erklären, sich die Idee von Mazda oder Honda als diejenigen erweisen, die die beste Marktakzeptanz bewirken?
Der Beitrag Ist die Zeit für E-Fahrzeuge nun reif? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Das Weihnachtsgeschenk, das Umweltschutz-Gegner (= Klima-Alarmisten) nicht ertragen können
Original-Titel: The Christmas Gift that Climate Grinches Can’t Abide
Die Stille, wenn man an einem Dezembermorgen aus dem Küchenfenster auf eine schneebedeckte Wiese blickt, ist magisch. Ein Reh hält am Waldrand inne, sein Atem dampft in der kalten Luft, und es frisst die wenigen grünen Halme, die aus dem Schnee herausragen. Diese Szene findet sich auf Grußkarten und Keksdosen.
Ein Teil der Magie hinter diesem Bild – vom Braten im Ofen bis zu den Cranberries auf dem Teller, von den hoch aufragenden Kiefern und Laubbäumen draußen bis zu den grasenden Tieren – ist ein Phänomen, das von den etablierten Medien ignoriert wird: die von der NASA bestätigte, durch CO₂ verursachte Begrünung der Erde.
Satellitendaten aus den letzten vier Jahrzehnten bestätigen einen signifikanten Anstieg der Vegetation auf fast der Hälfte der Erde. In diesem Zeitraum stieg der CO₂-Gehalt in der Atmosphäre von etwa 350 ppm (Teile pro Million) auf über 400 ppm, hauptsächlich aufgrund der Verbrennung fossiler Brennstoffe.
Dies ist ein Geschenk, das genau zum richtigen Zeitpunkt kommt, um dem kontinuierlichen Anstieg der Bevölkerung und der Nachfrage nach Nahrungsmitteln gerecht zu werden. Diese Grundversorgung ermöglicht alle anderen menschlichen Bestrebungen – Entwicklungen in der künstlichen Intelligenz, Medizin und mehr. Es ist schwierig, mit leerem Magen Computercodes zu schreiben.
Hinter diesem Geschenk der Fülle verbirgt sich ein Prozess, der für alles Leben von grundlegender Bedeutung ist und bei den Pflanzen beginnt: Die Photosynthese ist ein Prozess, mit dem Pflanzen aus CO₂, Wasser und Sonnenlicht Zucker als Nahrung herstellen. Wenn der CO₂-Gehalt in der Atmosphäre steigt – sei es durch Emissionen aus menschlichen Aktivitäten oder aus anderen Quellen –, wachsen Pflanzen schneller. Ein Nebeneffekt ist, dass sie Wasser effizienter nutzen, wodurch sie widerstandsfähiger gegen Trockenheit werden und ihr geografisches Verbreitungsgebiet ausweiten.
Das Ausmaß, in dem Pflanzen auf mehr CO₂ reagieren, ist unterschiedlich, aber immer positiv. Ein Anstieg des CO₂-Gehalts auf etwa 800 ppm (Teile pro Million) – mehr als das Doppelte der aktuellen Konzentration in der Atmosphäre – erhöht die Erträge um 10 % bis 100 %.
In Gewächshauskulturen wird der Kohlendioxidgehalt auf etwa 1.000 ppm erhöht, um die Erträge von Tomaten und Gurken um 20 % bis 40 % zu steigern. Auch Pflanzen wie Mais, Zuckerrohr und Hirse profitieren von einem höheren CO₂-Gehalt in der Atmosphäre, dessen positive Wirkung sich bei Trockenheit noch deutlicher zeigt.
Für viele wird ein kalter Weihnachtsmorgen durch Kaffee erwärmt, insbesondere durch festliche Kreationen wie Pfefferminz-Mokka und Lebkuchen-Latte. Die gute Nachricht ist, dass sogar Kaffeepflanzen vom Anstieg des CO₂-Gehalts profitieren. Studien in Lateinamerika haben ergeben, dass ein erhöhter Kohlendioxidgehalt die Photosynthese von Kaffeepflanzen fördert und den Ertrag um 12 % bis 14 % steigert.
Die Menschen vergessen, dass die Kleine Eiszeit – die von etwa 1300 bis 1850 andauerte – in weiten Teilen Europas und Asiens zu Ernteausfällen und Hungersnöten führte. Flüsse froren zu und die Vegetationsperioden verkürzten sich. Viele Gemeinden hatten während der durch die Kälte verursachten Knappheit zu kämpfen.
Das 20. Jahrhundert bescherte uns das Gegenteil: längere Vegetationsperioden aufgrund eines leicht wärmeren Klimas in Verbindung mit höheren CO₂-Konzentrationen. Das ist kaum eine Katastrophe, wie manche uns glauben machen wollen. Tatsächlich prognostizierte eine Analyse aus dem Jahr 2025, dass die Veränderungen der globalen Durchschnittserträge aller Nutzpflanzen bei einer Erwärmung bis 5 Grad Celsius in Zukunft neutral oder positiv sein werden.
Nur die Klima-Grinches würden sich gegen eine solche Begrünung durch die moderne Erwärmung und die CO₂-Konzentrationen aussprechen. Das sind die Personen, welche die Schlagzeilen in den populären Medien und die politischen Rundtischgespräche in Brüssel und Washington dominiert haben. Sie rauben nicht nur die Freude an dieser natürlichen Fülle, indem sie falsche Ängste verbreiten, sondern auch den Wohlstand und die Souveränität der Nationen.
Klima-Grinches betrachten einen immer grüner werdenden Planeten und sehen darin eine Katastrophe. Wenn die NASA verkündet, dass die Vegetation auf der Erde um eine Fläche gewachsen ist, die zwei amerikanischen Kontinenten entspricht, warnen sie, dass dies nicht von Dauer sein kann, dass die Vorteile nur vorübergehend sind und dass das Ende noch bevorsteht. Wenn Landwirte von Rekorderträgen berichten, die durch längere Vegetationsperioden und CO₂-Düngung ermöglicht wurden, beharren diese Herrschaften darauf, dass diese Gewinne durch nicht näher bezeichnete zukünftige Schrecken aufgewogen werden.
Wenn Sie also in dieser Weihnachtszeit mit Ihrer Familie zusammenkommen, betrachten Sie das vor Ihnen liegende Festmahl mit neuen Augen. Lehnen Sie die Schuld ab, die uns die Klimaorthodoxie aufbürden will. Der moderne Lebensstil zerstört den Planeten nicht. Wir genießen ein lebendiges Ökosystem, das mehr Grün, mehr Menschen und mehr menschliches Potenzial unterstützt als jemals zuvor in der Geschichte.
This commentary was first published at American Greatness December 8.
Link: https://cornwallalliance.org/the-christmas-gift-that-climate-grinches-cant-abide/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Das Weihnachtsgeschenk, das Umweltschutz-Gegner (= Klima-Alarmisten) nicht ertragen können erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die erzwungene EV-Revolution – der Boom von Big Government, der zusammenbrach, und Ford allein verschwendete 20 Milliarden US-Dollar.
Jo Nova
Nachdem Autohersteller Milliarden in die Entwicklung von Elektrofahrzeugen investiert und die EU und Großbritannien ein Verbot von Verbrennungsmotoren angekündigt hatten, ist nun alles hinfällig. Donald Trump hat die Subventionen für Elektrofahrzeuge gestrichen und die strengen Emissionsvorschriften für Benzin- und Dieselautos gelockert. Die Verkaufszahlen für Elektroautos in den USA sind im November prompt um 40 % eingebrochen. Bei Ford betrug der Rückgang fast 60 %.
Als Reaktion darauf hat Ford mehrere Elektroautos aus dem Programm genommen und wird eine bittere Pille in Form einer Abschreibung in Höhe von 19,5 Milliarden US-Dollar schlucken müssen. Das sind eine Menge Autos, die verkauft werden müssen, um dieses Geld wieder hereinzuholen. Vorbei sind der vollelektrische F-150, die nächste Generation von Elektro-Lkw und alle Pläne zur Herstellung von elektrischen Nutzfahrzeugen. Stattdessen kündigt Ford an, auf Benzin- und Hybridmodelle umzusteigen.
General Motors hat 3.300 Mitarbeiter in seinen Elektrofahrzeugwerken in den USA entlassen.
Auf der anderen Seite des Pazifiks sind die Aktien koreanischer Batteriehersteller nach Bekanntwerden dieser Nachricht in dieser Woche „durchweg eingebrochen”.
Am Tag nach der Ankündigung von Ford teilte die Europäische Kommission der Welt mit, dass sie das vollständige Verbot von Verbrennungsmotoren zurücknehmen werde, das 2035 in Kraft treten sollte. Theoretisch wird das 100-prozentige Verbot nur auf ein 90-prozentiges Verbot reduziert. Aber die Ideologie ist ins Wanken geraten, vor allem aufgrund des Aufruhrs der europäischen Autohersteller, die nicht genug Elektroautos verkauften, um das Verbot umzusetzen.
Es gibt bereits Forderungen, die 90-Prozent-Regelung fallen zu lassen. Das würde bedeuten, dass sich nur noch die Reichen die wenigen neuen Benzin- und Dieselautos leisten könnten, die zum Verkauf stehen. Vermutlich würden die breiten Massen einfach weiter ihre alten Autos fahren.
Ford lernt eine brutale Lektion in Sachen Elektroautos
Der Autohersteller schreibt 19,5 Milliarden Dollar auf sein Elektroautogeschäft ab.
The Wall Street Journal
Vor nicht allzu langer Zeit priesen die Autohersteller Elektroautos als die Zukunft an. Nun treten sie kräftig auf die Bremse, da die Marktrealität sie wie ein 16-Rad-Lkw erfasst hat. Siehe die überraschende Ankündigung von Ford Motor am Montag, dass das Unternehmen eine Belastung in Höhe von 19,5 Milliarden Dollar für sein Elektrofahrzeuggeschäft verbuchen wird.
„Anstatt Milliarden in die Zukunft zu investieren, obwohl wir wissen, dass diese großen Elektrofahrzeuge niemals Geld einbringen werden, schlagen wir einen neuen Kurs ein“, erklärte Ford-CEO Jim Farley, als er die Pläne des Unternehmens zur Erweiterung seines Angebots an benzinbetriebenen Fahrzeugen und Hybridmodellen erläuterte. Ford wird auch seinen vollelektrischen Pickup F-150 Lightning ausmustern, der bei der Elektrofahrzeug-begeisterten Presse sehr beliebt war.
Ford hat seit 2023 13 Milliarden Dollar mit seinem Elektroauto-Geschäft verloren, und für die kommenden Jahre werden noch größere Verluste erwartet. Im vergangenen Jahr verlor Ford etwa 50.000 Dollar pro verkauftem Elektroauto. Die Wahrheit ist, dass die Wirtschaftlichkeit von Elektroautos immer weitgehend von staatlichen Subventionen und Vorschriften abhängig war. Nun, da diese Kombination aus staatlicher Begünstigung und Zwang weitgehend wegfällt, haben die meisten Autohersteller viel weniger Gründe, Elektroautos zu bauen.
In der gleichen Woche, in der CSIRO entschied, dass 90 % erneuerbare Energien ausreichend seien, tat die EU Ähnliches:
EU verzichtet auf Verbot von Verbrennungsmotoren ab 2035, steht doch die weltweite Umstellung auf Elektrofahrzeuge vor einer Neubewertung
Philip Blenkinsop, Reuters
STRASSBURG, 16. Dezember (Reuters) – Die Europäische Kommission hat am Dienstag einen Plan vorgestellt, wonach das faktische Verbot der EU für neue Fahrzeuge mit Verbrennungsmotor ab 2035 aufgehoben werden soll, nachdem der Automobilsektor der Region Druck ausgeübt hatte. Dies ist der größte Rückzug der Union von ihrer Umweltpolitik in den letzten Jahren.
[Hervorhebung im Original]
Dominic Phinn, Leiter der Abteilung Verkehr bei der gemeinnützigen Organisation Climate Group konterte, dass die Maßnahmen einen „tragischen Sieg” der traditionellen Industrie über Elektroautos darstellten. „Die Abschwächung des Ausstiegs aus Benzin- und Dieselmotoren steht im Widerspruch zu den führenden Unternehmen in ganz Europa, die Milliarden in Elektroflotten investieren und dringend die damit verbundene Stabilität benötigen”, sagte er.
Nach dem Vorschlag vom Dienstag würden die EU-Ziele auf eine Senkung der CO₂-Emissionen um 90 % gegenüber dem Niveau von 2021 verschoben, anstatt der aktuellen Vorschriften, wonach alle neuen Pkw und Lieferwagen ab 2035 emissionsfrei sein müssen.
Die Lehre daraus ist einmal mehr, dass der Versuch der Regierung, Elektroautos künstlich zu verbilligen, dazu geführt hat, dass alle Autos teurer geworden sind. Ford und alle anderen müssen diese Verluste irgendwie ausgleichen. Und bei dem Versuch, die Emissionen zu reduzieren, haben die Bürokraten diese mit ziemlicher Sicherheit erhöht. Indem sie den Armen die Möglichkeit verweigern, ein neues Auto zu besitzen, sorgen sie zweifellos dafür, dass ältere Autos mit höheren Emissionen auf den Straßen bleiben. Nicht, dass Emissionen eine Rolle spielen würden – der Punkt ist, dass der freie Markt es besser gemacht hätte, was auch immer die Genies mit dem Zauberstab erreichen wollten.
Jo Nova ist Wissenschaftsmoderatorin, Autorin, Redner und ehemalige Fernsehmoderatorin sowie Autorin von „The Skeptic’s Handbook“ (Das Handbuch des Skeptikers).
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Die erzwungene EV-Revolution – der Boom von <em>Big Government</em>, der zusammenbrach, und Ford allein verschwendete 20 Milliarden US-Dollar. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Tech-Gigant schluckt Energieunternehmen in einem 5-Milliarden-Dollar-Deal, um Rechenzentren mit Strom zu versorgen
Audrey Streb, DCNF Energiereporterin, THE DAILY CALLER
Die Muttergesellschaft von Google Alphabet gab am Montag bekannt, dass sie das Rechenzentrums- und Energieinfrastruktur-Unternehmen Intersect für 4,75 Milliarden US-Dollar in bar und „die Übernahme von Schulden” erwerben wird.
Obwohl Google bereits eine Mehrheitsbeteiligung an dem Unternehmen hält, wird die Transaktion laut Alphabet den Ausbau der Infrastruktur für künstliche Intelligenz (KI) des Big-Tech-Unternehmens weiter unterstützen, während die Geschäftstätigkeit von Intersect separat bleibt. Angesichts des steigenden Energiebedarfs in den USA und des prognostizierten sprunghaften Anstiegs des Bedarfs an KI-Rechenzentren sucht Big Tech nach zuverlässigen Stromquellen – wobei einige Unternehmen die Wiederinbetriebnahme von Kernkraftwerken ins Auge fassen.
„Intersect wird uns dabei helfen, unsere Kapazitäten zu erweitern, beim Bau neuer Kraftwerke im Einklang mit der neuen Datencenter-Auslastung flexibler zu agieren und Energielösungen neu zu konzipieren, um die Innovation und Führungsrolle der USA voranzutreiben. Wir freuen uns darauf, Sheldon und das Intersect-Team willkommen zu heißen”, sagte der CEO von Google und Alphabet Sundar Picha, in einer Erklärung am Montag.
Alphabet merkt an, dass diese Übernahme „das kontinuierliche Engagement von Alphabet und Google für Partnerschaften mit Versorgungsunternehmen und Energieentwicklern in der gesamten Branche verstärken wird, um eine reichhaltige, zuverlässige und erschwingliche Energieversorgung zu erschließen, die den Ausbau der Infrastruktur für Rechenzentren ermöglicht, ohne die Kosten an die Netzkunden weiterzugeben.
Intersect hat sich schon immer darauf konzentriert, Innovationen in die Branche zu bringen, und wir freuen uns darauf, als Teil von Google in großem Maßstab voranzukommen“, sagte Sheldon Kimber, Gründer und CEO von Intersect, in einer Erklärung am Montag. „Moderne Infrastruktur ist der Dreh- und Angelpunkt der amerikanischen Wettbewerbsfähigkeit im Bereich der KI. Wir teilen die Überzeugung von Google, dass Energieinnovationen und Investitionen in die Gemeinschaft die Säulen dessen sind, was als Nächstes kommen muss.“
Die Trump-Regierung hat ähnliche Botschaften zur Förderung der Dominanz der USA in der KI-Branche verbreitet und am 11. Dezember eine Durchführungsverordnung unterzeichnet, die einen „nationalen politischen Rahmen für KI” festlegt.
„Wir befinden uns noch in den Anfängen dieser technologischen Revolution und liefern uns mit unseren Gegnern einen Wettlauf um die Vorherrschaft in diesem Bereich”, heißt es in der Verordnung vom 11. Dezember.
Während Präsident Donald Trump betont, wie wichtig der Ausbau der Infrastruktur für Rechenzentren ist, um Amerikas Wettbewerbsvorteil im KI-Wettlauf zu erhalten, protestieren einige lokale Gemeinden gegen den Bau von Rechenzentren, weil sie befürchten, dass diese Einrichtungen die Stromkosten in die Höhe treiben, ländliche Flächen beanspruchen und Wasserressourcen verbrauchen.
Staaten wie Kalifornien, Florida und New York haben kürzlich KI-Richtlinien vorangetrieben oder unterzeichnet, die laut ihren Gouverneuren die Öffentlichkeit vor Big Tech schützen sollen. Demokraten und Republikaner sind sich hinsichtlich der KI-Botschaften im Vorfeld der Zwischenwahlen 2026 uneinig, wobei prominente Politiker beider Lager versprechen, den Ausbau von Rechenzentren zu stoppen, bis klarere Verbraucher- und lokale Schutzmaßnahmen festgelegt sind.
Bemerkenswert ist, dass einige aktuelle Berichte auf geheime Vereinbarungen zwischen Technologieunternehmen, Entwicklern und Versorgungsunternehmen über Rechenzentren hinweisen, die den Wünschen der lokalen Gemeinden zuwiderlaufen. Demonstranten haben sich versammelt, um gegen diese sogenannten „geheimen Vereinbarungen” zu kämpfen, befürchten sie doch, dass die großen Technologieunternehmen auf Kosten der lokalen Gemeinden finanzielle Vorteile erzielen, oft ohne Wissen oder Zustimmung der Anwohner.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Tech-Gigant schluckt Energieunternehmen in einem 5-Milliarden-Dollar-Deal, um Rechenzentren mit Strom zu versorgen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Kollaps der Elektrofahrzeuge: Mann, das ging ja schnell!
Francis Menton, THE MANHATTAN CONTRARIAN
Vor weniger als drei Jahren – Anfang 2023 – schrieb ich über die damals allgemeine Meinung von Regierung und Industrie, dass Elektrofahrzeuge (EVs) bald den amerikanischen Automarkt erobern würden. Im April 2022 hatte die Biden-Regierung aggressive Fahrzeug-Verbrauchsstandards verabschiedet, die nur durch einen raschen Übergang zu EVs erreichbar sein sollten. Unsere „Klimavorreiter, also die Bundesstaaten Kalifornien und New York hatten dann im August bzw. September 2022 Vorschriften erlassen, die einen Ausstieg aus dem Verkauf von Verbrennungsfahrzeugen vorschrieben, der 2035 abgeschlossen sein sollte, wonach nur noch EVs zugelassen sein würden. In einem Beitrag vom Januar 2023 verlinkte ich auf die Websites von Ford und GM, auf denen beide Unternehmen ihre großartigen Pläne für eine rasche Umstellung ihrer Unternehmen auf die Herstellung von überwiegend oder ausschließlich Elektrofahrzeugen anpriesen. Zu diesem Zeitpunkt behauptete Ford, dass es „Amerikas Umstellung auf Elektrofahrzeuge anführen” und bis 2030 50 % seines Umsatzes in dieser Kategorie erzielen werde. GM prahlte mit seinem „Weg in eine vollelektrische Zukunft” bis 2035.
In einem Beitrag vom 23. Februar 2023 äußerte ich mich skeptisch:
Es scheint, als hätten alle klugen Köpfe beschlossen, dass die Zukunft des Automobils den Elektrofahrzeugen gehört. … Werden Elektrofahrzeuge also bald das Land erobern und zum dominierenden Verkehrsmittel werden? Ich wage das zu bezweifeln.
Hier meine Gründe:
Dies ist nur ein konkretes Beispiel für den allgemeinen Grundsatz, dass es immer ratsam ist, gegen eine zentrale Planung der Wirtschaft zu wetten. Elektroautos mögen für eine kleine Zahl wohlhabender Verbraucher ein erfolgreiches Nischenprodukt sein, aber die Vorstellung, dass sie Benzinfahrzeuge in kurzer Zeit vollständig ersetzen werden, ist der Traum von zentralen Planern, die glauben, ihren Traum mit Zwang durchsetzen zu können. Zentrale Planung funktioniert nie, und auch diesmal wird sie nicht funktionieren.
In den letzten Wochen gab es viele Neuigkeiten zum Thema Elektroautos. Kurz gesagt hätte selbst ich nicht erwartet, wie schnell und vollständig die Elektroauto-Fantasie zusammengebrochen ist.
Der Hintergrund ist natürlich, dass die zweite Trump-Regierung nach ihrem Amtsantritt umgehend Maßnahmen ergriff, um die enorme staatliche Unterstützung für den Verkauf von Elektrofahrzeugen zu beenden. Die hohe Steuergutschrift für den Kauf von Elektrofahrzeugen wurde durch den „One Big Beautiful Bill Act“ abgeschafft, der am 4. Juli unterzeichnet wurde und nach dem 30. September 2025 in Kraft trat. Am 3. Dezember verkündete die Regierung die Rücknahme der als „CAFE“ bekannten Fahrzeug-Verbrauchsstandards auf ein Niveau, das Verbrennungsmotoren erfüllen können.
Der Einbruch der EV-Verkäufe begann unmittelbar mit dem Ende der Steuergutschrift. Am 31. Oktober berichtete die Fachzeitschrift Inside EVs über die Ergebnisse des ersten Monats nach dem Ende der Steuergutschrift:
Sowohl J.D. Power als auch S&P Global Mobility schätzen, dass der Marktanteil von Elektrofahrzeugen in den USA im Oktober von einem Rekordhoch von über 12 % im September auf rund 5 % gefallen ist. Der Anteil batteriebetriebener Fahrzeuge am Gesamtabsatz sank im Jahresvergleich ebenfalls deutlich, von über 8 % im Oktober 2024. Das letzte Mal, dass Elektrofahrzeuge 5 % der Fahrzeugverkäufe in den USA ausmachten, war Anfang 2022. Laut S&P Global Mobility wurden im Oktober rund 64.000 neue Elektrofahrzeuge verkauft. Das ist ein dramatischer Rückgang gegenüber September, als die Amerikaner fast 150.000 Elektrofahrzeuge kauften oder leasten, um noch rechtzeitig von der auslaufenden Förderung in Höhe von 7.500 Dollar zu profitieren.
Die großen Automobilhersteller erkannten schnell, dass sie einen Kurswechsel vornehmen mussten. Am 15. Dezember berichtete das Wall Street Journal, dass Ford eine massive Belastung in Höhe von 19,5 Milliarden Dollar hinnehmen würde, um seine Investitionen in Elektrofahrzeuge abzuschreiben:
Ford Motor gab am Montag bekannt, dass es mit Kosten in Höhe von etwa 19,5 Milliarden US-Dollar rechnet, die hauptsächlich mit seinem Geschäft mit Elektrofahrzeugen zusammenhängen. Dies ist ein schwerer Schlag für den Autohersteller, der angesichts der sinkenden Nachfrage nach Elektrofahrzeugen Einsparungen vornimmt. Der Betrag gehört zu den höchsten Wertminderungen, die jemals von einem Unternehmen vorgenommen worden waren, und markiert die bislang größte Einsicht der US-Autoindustrie, dass sie ihre Ambitionen im Bereich Elektrofahrzeuge in naher Zukunft nicht verwirklichen kann.
Die 19,5 Milliarden US-Dollar kommen zu den rund 13 Milliarden US-Dollar Betriebsverlusten hinzu, die Ford in den letzten drei Jahren bei dem Versuch, im EV-Geschäft zu konkurrieren, trotz der enormen staatlichen Subventionen erlitten hat:
Ford … hat seit 2023 13 Milliarden US-Dollar mit seinem EV-Geschäft verloren. …
Bei GM ist die Abschreibung geringer, aber die Richtungsänderung ist nicht weniger drastisch. Aus NBC News, 16. Oktober:
Am Dienstag gab General Motors bekannt, dass es Verluste in Höhe von insgesamt 1,6 Milliarden US-Dollar im Zusammenhang mit geplanten Änderungen bei der Einführung seiner Elektrofahrzeuge verbuchen würde. Das Unternehmen führte einen Teil der Änderung auf die Streichung der von Präsident Joe Biden eingeführten Kaufprämien für Elektrofahrzeuge in Höhe von 7.500 US-Dollar durch Präsident Donald Trump zurück.
Der Einbruch der Elektroauto-Verkäufe beschränkt sich nicht nur auf Ford und GM. Aus dem NBC-Artikel zu Tesla:
Der Einbruch der Verkäufe bei Tesla – nach wie vor der Marktführer bei Elektroautos in den USA – trägt ebenfalls zur Verschlechterung der Aussichten bei. Die Verkäufe des Unternehmens gingen im zweiten Quartal um fast 13 % zurück, und CEO Elon Musk warnte vor einigen „schwierigen Quartalen” für das Unternehmen.
Ein vergleichbares Phänomen ist auch in anderen Ländern zu beobachten, wenn auch unter unterschiedlichen regulatorischen und politischen Rahmenbedingungen. Aus dem Wall Street Journal vom 14. Oktober:
Der Rest der Welt folgt Amerikas Rückzug aus dem Bereich der Elektrofahrzeuge. Kanada, Großbritannien und die Europäische Union nehmen angesichts der wirtschaftlichen Realität Abstand von ihren Zielen für Elektrofahrzeuge, und sogar China zeigt Risse. . . . Die Autohersteller argumentieren, dass das Geschäftsmodell für Elektrofahrzeuge angesichts der nach wie vor hohen Batteriekosten, der lückenhaften Ladenetzwerke und der sinkenden staatlichen Subventionen unrentabel ist. In ganz Europa, den USA und Kanada wurden Förderprogramme eingestellt oder gekürzt.
Seien wir ehrlich: Das war von Anfang an eine schlecht durchdachte zentrale Planung, die niemals funktionieren konnte. Ich habe mir noch einmal die Links angesehen, die ich in meinem Beitrag vom Januar 2022 zu den Websites von Ford und GM eingefügt hatte. Beide Links sind weiterhin aktiv, aber die begeisterten Äußerungen über den Weg in eine Zukunft mit ausschließlich Elektrofahrzeugen wurden von beiden Seiten entfernt. Stattdessen finden Sie dort im Fall von GM weitere Links, wenn Sie sich ein Elektrofahrzeug kaufen möchten, und im Fall von Ford allgemeine Nachrichten über das Unternehmen. Die Realität ist zurückgekehrt.
Link: https://wattsupwiththat.com/2025/12/18/the-electric-vehicle-collapse-wow-that-was-quick/
Übersetzt von Christian Freuer für das EIKE
Anmerkung des Übersetzers: Schauen wir mal, wann Deutschland aufwacht!
Der Beitrag Der Kollaps der Elektrofahrzeuge: Mann, das ging ja schnell! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue Studie wirft erneut Fragen hinsichtlich unserer Fähigkeit auf, die globale Durchschnittstemperatur aussagekräftig zu bewerten
„Die Temperatur ist eine intensive Eigenschaft, die nur in Gleichgewichtssystemen definiert ist und über Nicht-Gleichgewichtssysteme hinweg nicht sinnvoll gemittelt werden kann.“ – Cohler, 2025
Eine mathematische Beweisführung aus dem Jahr 2007, wonach es in Wirklichkeit keine globale Durchschnittstemperatur gibt (da ein Temperaturdurchschnitt nur in Gleichgewichtssystemen definiert werden kann), wurde nie widerlegt.
Beispielsweise hängt die Feststellung, ob eine Tasse Kaffee sich erwärmt oder abkühlt – und um wie viel –, vollständig von der willkürlich gewählten Mittelwertformel ab. In der Studie wurden vier Verfahren der Bildung von Mittelwerten ausgewählt, um die Veränderung der durchschnittlichen Kaffeetemperatur im Laufe der Zeit zu bewerten. Alle vier ergaben unterschiedliche Ergebnisse hinsichtlich Erwärmung und Abkühlung.
Image Source: Essex et al., 2007
Die Graphik in deutscher Übersetzung (Google translate)
Eine neue Studie eröffnet diese Debatte erneut, indem sie bekräftigt, dass es „unendlich viele Möglichkeiten gibt, die Durchschnittstemperatur zu berechnen“. Die in der modernen „Klimawissenschaft“ gewählte Berechnungsmethode ist willkürlich, nicht physikalisch und liefert im Vergleich zu anderen Verfahren grundlegend andere Ergebnisse.
„Jeder Ansatz führt zu unterschiedlichen numerischen Ergebnissen und unterschiedlichen Trends der Durchschnittstemperatur im Zeitverlauf.“
Image Source: Cohler, 2025
In deutscher Übersetzung:
Eine Studie aus dem Jahr 2020, die dieses wenig beachtete statistische Problem illustriert, das für die moderne „Klimawissenschaft” von grundlegender Bedeutung ist, wies darauf hin, dass eine große Anzahl von Wissenschaftlern die globale durchschnittliche Temperatur zwischen 1877 und 1913 auf 14,0 bis 15,1 °C oder etwa 14,5 °C berechnet hatte.
Den Berechnungen von HadCRUT4, NASA GISS und Berkeley Earth zufolge lag die globale Durchschnittstemperatur von 1991 bis 2018 jedoch bei 14,4 °C, 14,5 °C bzw. 14,5 °C. Mit anderen Worten: Es lässt sich nachweisen, dass sich die globale Durchschnittstemperatur in den letzten 100 Jahren nicht verändert hat.
Image Source: Kramm et al., 2020
In deutscher Übersetzung:
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Neue Studie wirft erneut Fragen hinsichtlich unserer Fähigkeit auf, die globale Durchschnittstemperatur aussagekräftig zu bewerten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Hintergründe zu der Studie zur ITCZ und der Hadley-Zirkulation
Alles begann vor acht Jahren, als ich die ersten drei Artikel von Ronan und Michael Connolly über ihre Ideen zur „molaren Dichte-Schnittstelle“ las und rezensierte, die sich direkt unterhalb der Tropopause befindet. Ich mochte Michael Connolly sehr, der leider im August 2025 plötzlich verstorben ist. Wir alle vermissen ihn sehr.
Wie ich in meinem Artikel (May 2025) erkläre, bildet das molare Dichteprofil der Atmosphäre zwei sich schneidende Linien der kleinsten Quadrate, wenn es gegen den Luftdruck aufgetragen wird, wie in Abbildung 1 dargestellt. Der Schnittpunkt der Connollys ist durch die horizontale gestrichelte Linie gekennzeichnet:
Abbildung 1. Der Schnittpunkt der molaren Dichte ist durch die horizontale gestrichelte Linie markiert. Es handelt sich um den Schnittpunkt der blauen Linie der kleinsten Quadrate der oberen Atmosphäre und der grünen Linie der kleinsten Quadrate der unteren Atmosphäre. Die Punkte sind globale Durchschnittswerte von 10-hPa-Bins von 1030 bis 0 hPa. Quelle: (May 2025).
Die für die Erstellung von Abbildung 1 verwendeten Daten stammen von 1.136 Wetterstationen, die jeweils mehrere Wetterballon-Radiosondenaufstiege pro Tag von 1990 bis 2025 durchgeführt haben. Dies ist eine Teilmenge der vollständigen IGRA2-Radiosondendatenbank mit 2.921 Wetterstationen. Die verwendeten Radiosondendaten umfassen Aufstiege mit mindestens 90 Druckstufen, sodass sie die Troposphäre gut definieren. Dieser Teil wurde vertikal auf 10-hPa-Bins (ein Hektopascal entspricht 100 Pascal oder einem Millibar) reduziert. Somit ist Abbildung 1 das Gesamtdiagramm der globalen durchschnittlichen molaren Dichte und zeigt immer noch eine deutliche Knickstelle und Schnittstelle bei 204 hPa (~11,8 km). Diese Änderung der Steigung ist unerwartet; die Formel für die molare Dichte lautet:
In der Gleichung ist „D“ die Molardichte in mol/m³, „P“ der Druck in Pascal, „R“ die Gaskonstante (= 8,3145) und „T“ die Temperatur in Kelvin. Wie aus der Gleichung hervorgeht, sollte die Steigung der Molardichte-Druck-Kurve eine Linie mit konstanter Steigung sein, wenn sich die Zusammensetzung und der Zustand der Atmosphäre nicht ändern. Wie Abbildung 1 jedoch zeigt, findet im Durchschnitt in einer Höhe von etwa 11,8 km eine deutliche Veränderung statt. In dieser Höhe beträgt die durchschnittliche Molardichte 11,9 mol/m³, die durchschnittliche Temperatur -53,8 °C und die relative Luftfeuchtigkeit 21 %. Der Schnittpunkt liegt überall auf der Erde knapp unterhalb der klassischen Tropopause der WMO, außer am sehr kalten Südpol, wo weder die klassische Tropopause der WMO noch die Schnittpunkttechniken sehr gut funktionieren (WMO & Ashford, 1957) und (Xian & Homeyer, 2019).
Die klassische Tropopause der WMO mit ihrer Lapse-Rate funktioniert in höheren Breitengraden im Allgemeinen nicht sehr gut. Sie definiert häufig mehrere Tropopausen, wahrscheinlich weil atmosphärische Rossby-Wellen eine Vermischung von troposphärischer und stratosphärischer Luft verursachen (Xian & Homeyer, 2019). Aufgrund dieser Verwirrung wurden viele Ersatzdefinitionen vorgeschlagen (Connolly et al., 2024), (Reichler et al., 2003) und (Reutter & Spichtinger, 2025). Diese basieren auf Änderungen der relativen Luftfeuchtigkeit, der Ozonkonzentration und anderen Veränderungen, die in diesem Bereich der Atmosphäre stattfinden. Die weltweit einheitlichste Messgröße ist jedoch die molare Dichte-Schnittstelle. Das einzige Problem ist, dass wir nicht wirklich wissen, warum sie auftritt oder warum sie so konsistent ist. Aber unabhängig von der Ursache ist sie ein guter Marker, und ihre Erkennung kann automatisiert werden. Der R-Code zu ihrer Erkennung ist in den ergänzenden Materialien zu meiner Arbeit sowie im Anhang der Arbeit verfügbar (May 2025).
Michael und Ronan haben ihre Wetterballon-Ergebnisse nicht kartografisch dargestellt; sie haben die Ergebnisse immer anhand von atmosphärischen Profilen betrachtet und nie in 3D. Als Michael Connolly einen Vortrag in Tuscon, Arizona, hielt (Connolly M., 2025), erhielt er eine interessante Frage von John Clauser (Connolly M., 2025) (siehe hier, etwa bei Minute 38) zu Ozeanwirbeln und der Hadley-Zirkulation. Kurz gesagt, Dr. Clauser ist der Meinung, dass die Wirbel ein Beweis für die Hadley-Zirkulation sind (Hadley, 1735), während Dr. Michael Connolly dies nicht glaubt (Connolly et al., 2021).
Dieses Gespräch hat mich motiviert, und ich habe einige R-Programme geschrieben, um die Windgeschwindigkeit und -richtung zu kartieren und zu profilieren. Es hat sich herausgestellt, dass die Hadley-Zirkulation real ist und tatsächlich mit den Ozeanwirbeln zusammenhängt. Abbildung 2 zeigt die Zirkulation in einem Diagramm.
Abbildung 2. Schematische Darstellung eines Teils der Hadley-Zirkulation.
Abbildung 2 (sowie die Abbildungen 3, 4 und 5) zeigen geschwindigkeitsgewichtete, vektor-gemittelte „Windpfeile“, wobei die x-Achse die Windgeschwindigkeit, die y-Achse den Luftdruck und die Pfeile die Windrichtung anzeigen (entgegen der meteorologischen Konvention). Die Details zur Berechnung der Windrichtung und der R-Code sind in den ergänzenden Materialien und in Anhang A des Artikels zu finden. Abbildung 2 bezieht sich nur auf den Monat Januar und auf Wetterstationen zwischen 10° südlicher Breite und dem Äquator (Scheibe „-10“, Scheiben sind nach ihrer südlichen Grenze benannt). Die Windrichtung ändert sich, wenn die Windgeschwindigkeit zwischen etwa 450 und 500 hPa abnimmt. Oberhalb dieser Abnahme weht der Wind vom Äquator und der innertropischen Konvergenzzone (ITCZ, im Januar durchschnittlich etwa 5°S) weg, und die Windgeschwindigkeit nimmt mit der Höhe zu. Unterhalb dieser Abnahme kehrt sich der Wind um und weht in Richtung Äquator (in diesem Fall nach Nordwesten), wobei die Geschwindigkeit zur Oberfläche hin leicht zunimmt.
Das Hauptproblem bei der Diskussion über die Molardichte in Connolly und Connolly (2014 und 2014a) war, dass sie ihre Ergebnisse nicht kartografisch dargestellt haben. Daher konnten sie keine Hinweise auf die Hadley-Zirkulation (Hadley, 1735) erkennen und spekulierten, dass diese möglicherweise nicht existiert (Connolly et al., 2021). Im Mai 2025 argumentiere ich, dass sie sehr wohl existiert, es sich jedoch um eine komplexe 3D-Zirkulation handelt und nicht um eine einfache 2D-Nord-Süd-Zirkulation, wie sie oft in der Literatur dargestellt wird (Dima & Wallace, 2003) und (Cook & Webster, 2004). Eine ähnliche Sichtweise einer komplexeren 3D-Hadley-Zirkulation wird in (Karnauskas & Ummenhofer, 2014) vertreten, wo auch einige der damit verbundenen Prozesse erläutert werden.
Hoch in der Troposphäre wird die aufsteigende Luft in der ITCZ horizontal abgelenkt, wenn sie auf die homogen geschichtete Stratosphäre trifft, und bewegt sich in beiden Hemisphären polwärts. Die Kraft der aufsteigenden Luft in der ITCZ drückt auch die tropische Stratosphäre auf über 14 km Höhe*. Dann beginnt sie einen langen Weg hinunter zur Oberfläche, während Wasserdampf aus ihr ausfriert, was die Luftdichte erhöht (Wasserdampf hat ein Molekulargewicht von 14 gegenüber 29 für trockene Luft). Wenn die dehydrierte Luft die Oberfläche erreicht, erwärmt sie sich und schafft eine trockene Hochdruckregion.
*Einschub des Übersetzers dazu: Gemeint ist in diesem Satz die Grenze zur Stratosphäre, also die Tropopause. Die Höhe derselben ist jedoch nicht von der Konvektion abhängig, sondern der viel größeren Schichtdicke der Troposphäre im Vergleich zu kälteren troposphärischen Bereichen. Die tropische Konvektion hat also viel mehr Raum nach oben als die Konvektion in kälteren Bereichen. M. a. W. die hoch reichende Konvektion ist eine Folge der höher liegenden Tropopause und nicht deren Ursache. Ein Anheben der Tropopause durch Konvektion kommt nur stellenweise bei besonders starken Gewitter-Entwicklungen zustande, dem sog. „Overshooting“, und ist sehr kurzlebig. Ein solches Overshooting ist im Eingangsbild oben erkennbar – der Wolkenbuckel, der über die Obergrenze des CB-Schirms hinausragt. – Ende Einschub.
Die Hadley-Zirkulation ist schwer zu erkennen, da sich das Gebiet mit aufsteigender feuchter tropischer Luft, das Zentrum der ITCZ, mit dem Wechsel der Jahreszeiten ständig mit der Sonne nach Norden und Süden bewegt. Man muss die Luftströmung am richtigen Ort und zur richtigen Zeit überprüfen. Glücklicherweise liegt die ITCZ im Januar durchschnittlich bei etwa 5° südlicher Breite (May 2025) und im Winter der nördlichen Hemisphäre ist die Hadley-Zirkulation etwas stärker als in anderen Monaten (Nguyen et al., 2013).
Ein weiterer Beweis für die Existenz der Hadley-Zirkulation sind die subtropischen Wüsten wie die Sahara, das australische Outback und die Atacama-Wüste. Diese Wüstenregionen sind in Abbildung 3 eingekreist:
Abbildung 3. Windpfeile (die die Windrichtung anzeigen) für alle Wetterstationen in der oberen Troposphäre. Die angezeigte Windrichtung ist ein geschwindigkeitsgewichteter Vektordurchschnitt für September aus den Jahren 1990 bis 2025. Die subtropischen Wüstenregionen sind eingekreist.
Der Wind in der oberen Troposphäre in den Wüstenregionen weht in die entgegengesetzte Richtung wie die tropischen Winde und oft mit einem leicht polwärts gerichteten Vektor. Diese Wüsten entstehen dort, wo die Winde in der oberen Troposphäre ihre Richtung umkehren und die geringste horizontale Windgeschwindigkeit aufweisen. Sie befinden sich also über Hochdruckgebieten, in denen die Luft absinkt und austrocknet. Die Ozeanwirbel, die ebenfalls aus dieser Zirkulation resultieren, sind in der oberen Troposphäre sichtbar, jedoch nicht so deutlich wie in der unteren Troposphäre, wie in Abbildung 4 dargestellt:
Abbildung 4. Die mittleren Radiosonden-Windvektoren für den Zeitraum 1990–2025. Die normalen Ost-West-Winde in den Tropen bilden zusammen mit aufsteigender Luft an der ITCZ und absinkender trockener Luft bei etwa 20°–30° N/S sowie den kontinentalen westlichen Beckenrändern die Ozeanwirbel. Die Wirbel sind wie folgt gekennzeichnet: „In“ Indischer Ozean, „NP“ Nordpazifik, „SP“ Südpazifik, „SA“ Südatlantik, „NA“ Nordatlantik. Zusätzlich ist die antarktische zirkumpolare West-Ost-Strömung gekennzeichnet.
Abbildung 4 zeigt, wie die Lage der Kontinente in Verbindung mit der Umkehrung der Windrichtung in der unteren Troposphäre bei niedrigen Windgeschwindigkeiten zwischen 20° und 30° nördlicher/südlicher Breite zur Bildung der Wirbel beiträgt. Die Ausbreitung der Umkehrung der Windrichtung bei niedrigen Windgeschwindigkeiten ist in Abbildung 5 dargestellt:
Abbildung 5. Die Ausbreitung der Umkehrung der Richtung der niedrigen Windgeschwindigkeit vom Äquator (rechts) zum Breitengrad 30°-40° N auf der linken Seite.
Wie Abbildung 5 zeigt, beginnt die Windrichtungsumkehr im April bei etwa 300 hPa (~9 km) am Äquator und verschwindet an der Oberfläche im Bereich zwischen 30° und 40° nördlicher Breite. Die Windrichtung an der Oberfläche (wiederum ein geschwindigkeitsgewichteter Vektordurchschnitt) ist im Bereich zwischen 10° N und 20° N leicht polwärts, dreht jedoch im Bereich zwischen 20° N und 30° N äquatorwärts. Ein ähnliches Muster ist auch in der südlichen Hemisphäre zu beobachten.
DiskussionBei der Untersuchung eines 3D-Problems ist es am besten, dies mit 3D-Werkzeugen zu tun. Einfache 2D-Diagramme reichen dafür nicht aus. Wenn die Radiosondendaten mithilfe von geschwindigkeitsgewichteten Vektor-Durchschnittswindpfeilen kartiert und profiliert werden, zeigt sich die Hadley-Zirkulation. In 2D-Diagrammen der Windrichtung ist sie nicht zu erkennen, da die allgemeine Windrichtung in den kritischen Breiten entweder Ost-West (Tropen) oder West-Ost (mittlere Breiten) ist und die kritische Windrichtungsänderung bei niedrigen Geschwindigkeiten normalerweise nicht zu sehen ist. Die Richtungsänderung des Windes mit niedriger Geschwindigkeit in den Subtropen ist gering und verschiebt sich ständig mit den Jahreszeiten. Dieses Muster ist auf den Karten in den ergänzenden Materialien zu sehen, auf denen die monatlichen Bewegungen der ITCZ verzeichnet sind.
Die gesamte Hadley-Zirkulation ist nur selten in einem Profil zu sehen, wie in Abbildung 2 dargestellt, da es sich um ein komplexes 3D-Windmuster handelt, das sich mit der Zeit ständig verändert. Man könnte es als komplexes 4D-Windmuster bezeichnen. Abbildung 2 ist ideal gelegen, sodass sich die ITCZ in diesem Monat immer in diesem Breitengrad befindet und nahe am Äquator liegt, wo die aufsteigende feuchte Luft die molare Dichtekreuzung sehr hoch gedrückt hat. Die ITCZ ist relativ schmal, insbesondere der Teil mit der aufsteigenden Luftsäule, sodass sie schwer zu lokalisieren ist. Die Region, in der die kühle, dehydrierte Luft in beiden Hemisphären absinkt, ist sehr groß, aber die meridionale Windkomponente ist gering.
Die einfachste und konsistenteste Methode, die Hadley-Zirkulation zu beobachten, ist die Profilerstellung der in Abbildung 5 dargestellten Umkehrung der Fallwindrichtung bei niedriger Geschwindigkeit. Dieser Bereich mit niedriger Geschwindigkeit erreicht die Oberfläche bei etwa 30° N/S, den Breitengraden der großen Ozeanwirbel. Dies ist auch der Breitengrad der subtropischen Wüsten, die in Abbildung 3 zu sehen sind. Es ist die Bewegung der Windrichtungsänderung bei niedriger Geschwindigkeit, die die Hadley-Zirkulation am besten und deutlichsten charakterisiert.
All dies wird in meiner neuen Abhandlung ausführlich behandelt, die hier heruntergeladen werden kann. Sie steht im Widerspruch zu dem, was Michael geschrieben und geglaubt hat, aber ich bin sehr traurig, dass er verstorben ist, bevor ich diese Arbeit fertiggestellt habe. Wie ich ihn kenne, wäre er nicht verärgert gewesen, sondern hätte sich über die Darstellung der Daten gefreut und wäre begeistert gewesen, mit mir über die Ideen zu diskutieren. Er war immer ein sehr datenorientierter Mensch.
Kommentar des Übersetzers hierzu: Hier wird exemplarisch dargestellt, wie die Diskussion über verschiedene Standpunkte stattfinden sollte – nämlich konstruktiv und sachlich und nicht verzerrt durch Propaganda, wie es derzeit so weit verbreitet der Fall ist.
Code availabilityEine ZIP-Datei mit dem R-Code, zusätzlichen Diagrammen, die im Text der Arbeit erwähnt werden, sowie einigen Testdaten kann hier oder (May, 2025b) heruntergeladen werden. Die ZIP-Datei enthält auch einige Code-Dokumentationen und die Diagramme, die zur Auswahl der ITCZ-Breitengrade für jeden Monat verwendet wurden.
Daten-VerfügbarkeitDie verwendeten Daten können hier oder hier heruntergeladen werden. Die FTP-Seite ist wesentlich praktischer, erfordert jedoch eine FTP-Anwendung wie Filezilla.
Dieser Artikel ist auch auf Researchgate verfügbar.
SchlusswortManche werden fragen, warum ich diesen Artikel über OSF und außerhalb des üblichen Peer-Review-Verfahrens veröffentlicht habe. Die Antwort ist einfach: Ich bin im Ruhestand, und wenn ich nicht wie bei unserem AJES-Artikel eine spezielle Einladung für einen Artikel habe oder eine Befreiung von den Veröffentlichungsgebühren erhalte, ist es zu teuer und das Geld nicht wert. Wenn ich jünger wäre und das Prestige einer Fachzeitschrift mit Peer-Review kaufen müsste, wäre es das vielleicht wert, aber die Gebühren betragen mehrere tausend Dollar, und das interessiert mich nicht. Der wahre Wert liegt in der Studie, die ich durchgeführt habe, und darin, wie ich sie verfasst habe. In welcher Zeitschrift sie erscheint, ist reine Eitelkeit. Die Leute werden sie lesen und kommentieren, unabhängig davon, wo sie veröffentlicht wird.
ReferenzenConnolly, M. (2025). 20 Million weather balloons: How this data shows that all the climate models are based on wrong assumptions. Retrieved from https://www.youtube.com/watch?v=48Hp9CqSlMQ&t=1026s
Connolly, M., Connolly, R., Soon, W., Velasco Herrera, V., Cionco, R., & Quaranta, N. (2021). Analyzing Atmospheric Circulation Patterns Using Mass Fluxes Calculated from Weather Balloon Measurements: North Atlantic Region as a Case Study. Atmosphere, 12. https://doi.org/10.3390/atmos12111439
Connolly, M., Dingley, O., Connolly, R., & Soon, W. (2024). Comparing Different Tropopause Estimates From High-Resolution Ozonesondes. Earth and Space Science, 11(5). https://doi.org/10.1029/2024EA003584
Cook, K., & Webster, P. (2004). The Elementary Hadley Circulation. In H. F. Diaz, & R. S. Bradley, The Hadley Circulation: Present, Past and Future. https://doi.org/10.1007/978-1-4020-2944-8_2
Dima, I. M., & Wallace, J. M. (2003). On the Seasonality of the Hadley Cell. Journal of the Atmospheric Sciences, 60(12), 1522 – 1527. https://doi.org/10.1175/1520-0469(2003)060<1522:OTSOTH>2.0.CO;2
Hadley, G. (1735). Concerning the cause of the general trade-winds. Phil. Trans., 29, 58-62.
Karnauskas, K., & Ummenhofer, C. (2014). On the dynamics of the Hadley circulation and subtropical drying. Climate Dynamics, 42, 2259-2269. https://doi.org/10.1007/s00382-014-2129-1
May, A. (2025). The Molar Density Tropopause Proxy and its relation to the ITCZ and Hadley Circulation. OSF. https://doi.org/10.17605/OSF.IO/KBP9S, URL: https://osf.io/eq75t
May, A. (2025b, November 28). Supplementary Materials: The Molar Density Tropopause Proxy and Its Relation to the ITCZ and Hadley Circulation. https://doi.org/10.5281/zenodo.17752293
Nguyen, H., Evans, A., Lucas, C., Smith, I., & Timbal, B. (2013). The Hadley Circulation in Reanalyses: Climatology, Variability, and Change. Journal of Climate, 26(10), 3357 – 3376. https://doi.org/10.1175/JCLI-D-12-00224.1
Reichler, T., Dameris, M., & Sausen, R. (2003). Determining the tropopause height from gridded data. Geophysical Research Letters, 30(20). https://doi.org/10.1029/2003GL018240
Reutter, P., & Spichtinger, P. (2025). The frosty frontier: redefining the mid-latitude tropopause using the relative humidity over ice. Atmos. Chem. Phys., 25, 16303–16314. https://doi.org/10.5194/acp-25-16303-2025, 2025
WMO, & Ashford, O. M. (1957, October). Meteorology – A three-dimensional science, second session of the commission for aerology. WMO Bulletin, 6(4), 134-138.
Xian, T., & Homeyer, C. R. (2019). Global tropopause altitudes in radiosondes and reanalyses. Atmospheric Chemistry and Physics, 19(8), 5661–5678. https://doi.org/10.3390/atmos12111439
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Hintergründe zu der Studie zur ITCZ und der Hadley-Zirkulation erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wenn sich das Klima zum Kälteren entwickelt
Cap Allon
Im Laufe der Geschichte hat sich das Klima auf natürliche Weise drastisch verändert, was verheerende Folgen für die Menschheit hatte.
Die 1870er Jahre gelten als eine der härtesten Klimaperioden der letzten 200 Jahre. Geht man noch weiter zurück, waren die 1810er Jahre sogar noch schlimmer. Das gesamte 19. Jahrhundert war ein für die Menschheit ungünstiges Klima.
Das lag nicht am CO2, sondern an der Sonne und den Vulkanen.
Es war keine Wärme. Es war Kälte.
Zwischen 1809 und 1815 schleuderten eine Reihe gewaltiger Vulkanausbrüche große Mengen an Aerosolen in die Stratosphäre, beginnend mit einem unbekannten tropischen Ausbruch im Jahr 1809 und gipfelnd im Ausbruch des Tambora im Jahr 1815. Das Ergebnis war mehr als nur ein einziges schlechtes Jahr. Es war eine lang anhaltende, globale Klima-Fluktuation, die etwa ein Jahrzehnt dauerte. Die Temperaturen sanken, die Jahreszeiten wurden destabilisiert, die Niederschläge wurden unregelmäßig und die Nahrungsmittelsysteme brachen zusammen.
Eine detaillierte historische Rekonstruktion von der Koreanischen Halbinsel zeigt, wie schwerwiegend diese Naturkatastrophen waren.
Regierungsunterlagen und persönliche Berichte dokumentieren zwei katastrophale Hungersnöte, 1809–1810 und erneut 1814–1815, die beide mit einer durch Vulkanausbrüche verursachten Klima-Instabilität zusammenfielen. Ernteausfälle waren weit verbreitet. Die Reisernte brach ein. Die Getreidepreise explodierten. Die soziale Ordnung brach zusammen.
Die menschlichen Verluste waren enorm. Während der ersten Hungersnot starben mehr als eine Million Menschen. Die zweite war noch schlimmer. Schätzungsweise 17 % der Bevölkerung kamen ums Leben, über zwei Millionen Menschen starben innerhalb weniger Jahre. Kälte, Dürre, unzeitige Regenfälle und früher Frost zerstörten nacheinander die Ernten, so dass sich die Gesellschaft nicht erholen konnte, bevor der nächste Schock eintraf.
Es wird oft (vielleicht absichtlich) ignoriert, dass in der Geschichte nicht die Erwärmung, sondern die Abkühlung der große Killer war. Kälte verkürzt die Vegetationsperiode. Sie erhöht die Empfindlichkeit der Ernten gegenüber zeitlichen Fehlern. Sie verstärkt die Schäden durch Dürren und Überschwemmungen. Sie schwächt die Bevölkerung und erhöht die Wahrscheinlichkeit von Hungersnöten und Krankheiten.
Die 1810er Jahre waren kein Einzelfall. Sie waren Teil der Endphase der Kleinen Eiszeit, einer Periode, die durch starke, von Sonnen- und Vulkanaktivitäten verursachte Temperaturschwankungen gekennzeichnet war. Das Klima veränderte sich nicht gleichmäßig, sondern sprunghaft. Und wenn es kälter wurde, mussten die Gesellschaften fast sofort den Preis dafür zahlen.
Daraus lässt sich eine weitere Lehre ziehen. Die Auswirkungen des Klimas im 19. Jahrhundert waren nicht einheitlich. Während Europa und Nordamerika 1816–1817 (aufgrund des Ausbruchs des Tambora) am stärksten litten, kamen die schlimmsten Jahre für Korea bereits früher, nämlich 1809 und 1814. Der Auslöser war der gleiche. Das Ergebnis hing vom Zeitpunkt, der Geografie und der Widerstandsfähigkeit des Nahrungsmittelsystems ab.
Das Klima hat sich schon früher ohne menschlichen Einfluss dramatisch verändert. Als es kälter wurde, kam es schnell zu Notlagen. Es gibt kein physikalisches Gesetz, das besagt, dass diese Einflussfaktoren verschwunden sind. Nur Propaganda und Dogmen.
Die Sonnenzyklen werden schwächer. Die vulkanische Aktivität nimmt zu. Das Magnetfeld der Erde schwächt sich ab. Das Klima hat sich schon früher gewandelt, in beide Richtungen. Und das wird wieder passieren.
Link: https://electroverse.substack.com/p/european-peaks-turn-white-livestock?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wenn sich das Klima zum Kälteren entwickelt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wissenschafts-Skandal : Klima-Alarm mit falschen Daten*
===============
Wolfgang Kaufmann :
Potsdamer Wissenschaftler lösen mit fehlerhaftem Aufsatz weltweit Hysterie aus
===============
Das Potsdam-Institut für Klimafolgenforschung (PIK) gilt offiziell als unabhängig, obwohl seine Grundfinanzierung zu 100 Prozent durch Bund und Länder erfolgt. Am 17. April 2024 veröffentlichte das renommierte Fachmagazin „Nature“ eine Studie der Mitarbeiter der PIK-Abteilung Komplexitätsforschung Maximilian Kotz, Anders Levermann und Leonie Wenz mit dem Titel „Die wirtschaftlichen Kosten des Klimawandels“. Darin wird behauptet, dass der Klimawandel die globale Wirtschaftsleistung bis zum Jahre 2049 um 38 Billionen US-Dollar mindern werde – selbst wenn es nur zu einer moderaten Erderwärmung komme. Außerdem hieß es, die 38 Billionen seien das Sechsfache dessen, was all die Maßnahmen kosten würden, mit denen sich der Temperaturanstieg in der Atmosphäre auf zwei Grad begrenzen ließe.
Die Reaktionen auf die Studie, die 2024 zur am zweithäufigsten zitierten Facharbeit zum Thema Klimawandel avancierte, waren überwältigend: So nahmen die Bundesregierung und viele andere Regierungen rund um die Welt die Ausführungen der PIK-Wissenschaftler zum Anlass für neue klimapolitische Entscheidungen. Darüber hinaus stützten sich die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) sowie das Netzwerk der Zentralbanken und Finanzmarktaufsichtsbehörden (NGFS) bei der Berechnung der künftigen Belastungen durch den Klimawandel und der Verabschiedung entsprechender Finanzkonzepte beziehungsweise Risikoeinschätzungen auf den Artikel.
Fehlerhafte Daten verwendet
Dabei hätte die Studie niemals gedruckt werden dürfen, denn sie strotzte vor methodischen Mängeln. Das trat bereits in der Begutachtungsphase zutage. Mehrere Fachleute äußerten massive Bedenken, was die Brauchbarkeit der verwendeten Vorhersagemodelle betraf. Ein Experte schrieb explizit: Leider müsse er darauf aufmerksam machen, „dass die statistische Methodik, auf die sich die Forschungsarbeit … stützt, keinerlei wissenschaftliche Grundlage hat“. Trotzdem veröffentlichte die Fachzeitschrift den Aufsatz. Daraufhin schwoll die Kritik extrem an, wobei nun auch die Datenbasis als unzureichend eingeschätzt wurde.
Das Herausgeberteam von „Nature“ reagierte am 24. Juni 2024 mit der Bekanntgabe kleinerer Korrekturen seitens der Autoren, die aber keine Wirkung zeigten. Also sah sich das Blatt veranlasst, am
6. August 2025 eine detaillierte Replik aus der Feder von Tom Bearpark, Dylan Hogan und Solomon Hsiang zu publizieren. Darin bemängelten die Wissenschaftler von den US-Eliteuniversitäten Princeton, Stanford und Columbia, dass fehlerhafte Wirtschaftsdaten aus Usbekistan für die Jahre 1995 bis 1999 das Gesamtergebnis erheblich verzerren würden, weil das Rechenmodell der PIK-Mitarbeiter anfällig für Fehlschlüsse sei. Eine Woche später kam in der „Nature“ dann außerdem noch der Klimaforscher Christof Schötz von der Technischen Universität München zu Wort, der den Autoren der Studie attestierte, statistische Unsicherheiten ignoriert zu haben, was „die Ergebnisse … unbedeutend macht“.
Kotz, Levermann und Wenz gaben sich angesichts der geballten Vorwürfe verhalten selbstkritisch, waren aber letztlich nicht gewillt, ihre fehlerhafte, alarmistische Horrorprognose in substanzieller Weise zu revidieren. Vielmehr reduzierten sie die angeblichen Kosten des Klimawandels einfach auf das Fünf- statt auf das Sechsfache der Aufwendungen für die Begrenzung der Erderwärmung – um dann profan hinzuzusetzen, diese Änderung sei „noch nicht überprüft“ worden.
Artikel komplett zurückgezogen
Aufgrund all dessen versah das Fachblatt „Nature“ den Artikel der PIK-Forscher schließlich mit der Anmerkung: „Die Leser werden darauf hingewiesen, dass die Zuverlässigkeit der in diesem Manuskript präsentierten Daten und Methoden derzeit infrage gestellt wird. Sobald die Angelegenheit geklärt ist, werden geeignete redaktionelle Maßnahmen ergriffen.“ Der Klärungsprozess dauerte bis zum 3. Dezember 2025, dann zog „Nature“ den Text komplett zurück, weil die notwendigen Verbesserungen „zu umfangreich für eine Korrektur“ seien.
Die AfD-Fraktion im Brandenburger Landtag bezeichnete die Vorgänge um die Studie als
„weltweit wahrgenommenen Wissenschafts-Skandal“ und forderte als Konsequenz eine rigide Kürzung beziehungsweise Streichung der aus Steuergeldern stammenden Fördermittel für das besagte
Potsdamer Institut. Bleibt die naheliegende Frage,
ob das PIK überhaupt noch eine Existenzberechtigung habe.
=================================================================
)* Anmerkung der EIKE-Redaktion :
Dieser Aufsatz ist zuerst erschienen in der Preußischen Allgemeinen Zeitung; 19.12.2025, S.4 ; EIKE dankt der PAZ-Redaktion sowie dem Autor Wolfgang Kaufmann für die Gestattung der ungekürzten Übernahme, wie schon bei früheren Artikeln : https://www.preussische-allgemeine.de/ ; Hervorhebungen im Text: EIKE-Redaktion.
=================================================================
Der Beitrag Wissenschafts-Skandal : Klima-Alarm mit falschen Daten* erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wärmeinseleffekt auf dem Land? Meßstationen an Land unzuverlässig – Klimawissen – kurz & bündig
No.67 – Der städtische Wärmeinselefefekt wurde bereits im letzten Video besprochen. Wir zeigten, daß Wasserleitungen, Fassaden , Kühlanlagen und Heizungen (uvm.) die weltweit wachsenden Siedlungen aufheizen. Ein Temperaturfühler in eiuner solchen Siedlung zeichnet daher immer höhere Temperaturen auf.
Die Wetterstationen auf dem Land hingegen haben den Ruf, „rein“ zu sein und vom Menschen unverfälschte Daten zu liefern.
Aber stimmt das – vor allem in dicht besiedelten Ländern Mitteleuropas noch? Nein – zum Beispiel die Meliorationen in Brandenburg – Entwässerungen seit Friedrich dem Großen, sorgen für trockene Böden und damit für wärmere Luft darüber. Grund: Feuchte Oberflächen verlieren Verdunstungswärme und kühlen aus – trockene nicht.
Hinzu kommen moderne Monokulturen im Vergleich zu klassischen Welchsel-Landwirtschaft mit vielen Pflanzen und Früchten – und nicht zuletzt Fichtenwald-Monokulturen im Vergleich zu Eichen-Laubmischwald.
Der Beitrag Wärmeinseleffekt auf dem Land? Meßstationen an Land unzuverlässig – Klimawissen – kurz & bündig erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
„Klimaschutz“ als Geldverbrennungs- und Betrugsmasche: Hamburg finanziert Öfen in Nigeria
Ein alter Rechentrick: Man kauft „Zertifikate“ oder ähnliches von Produzenten, die zumindest juristisch kein CO2 ausstoßen – so fährt die Bahn mit ihren ICE „klimaneutral“ – und so macht die Tesla AG Milliarden.
Bojanowski schreibt zu einem Nigeria-Projekt der Hamburger:
Über die Organisation Atmosfair finanzierte Hamburg in Nigeria und Indien effiziente Kochöfen, die deutlich weniger Brennholz verbrauchen. Dadurch sollten vor Ort Treibhausgase vermieden und diese Einsparungen als Emissionszertifikate auf Hamburgs Klimakonto gutgeschrieben werden. (…)
Zwischen 2018 und 2020 kaufte Hamburg auf diesem Wege Zertifikate im Wert von mehr als einer Million Euro – und rechnete sich so rund 75.000 Tonnen CO₂-Reduktion an.
Problem:
Von den Öfen fehlte jede Spur. Recherchen des Hamburger Rechnungshofs offenbarten „unglaubliche Versäumnisse seitens der Behörden“.
Die übliche Abzockermasche mit „CO2-Reduktion“ irgendwo im Nirgendwo, die keiner kontrolliert. Auf diese Weise funktionieren die sogenannten „Klimakompensationen“, wie schon linke Magazine wie der New Yorker aufdeckten.
Träger des Hamburger CO2-Einsparungskonzeptes: Die Berliner Firma „atmosfair“, die laut Wiki „eine Non-Profit-Organisation mit dem Ziel der Kompensation und Reduzierung klimaschädlicher Treibhausgase (sei). Kerngeschäft seit der Gründung 2005 ist das Angebot, über die Website der Organisation klimaschädliche Emissionen bei Flugreisen, Fernbusfahrten, Hotelübernachtungen oder Veranstaltungen auszugleichen (Klimakompensation).“
Interessant: Selbst im Wiki-Artikel steht etwas von „Kerngeschäft“ und gleichzeitig etwas von „Non-Profit“ – verräterischer geht es kaum. Wieviele Geld wird Atmosfair mit dem Hamburger Trick gemacht haben?
Bojanowski-Zitat:
Auf Nachfrage von WELT äußert sich Atmosfair undurchsichtig: „Die Gründe wurden damals mit der Umweltbehörde besprochen. Ein Stichwort war die anhaltende Sicherheitslage in Nigeria“
Der Beitrag „Klimaschutz“ als Geldverbrennungs- und Betrugsmasche: Hamburg finanziert Öfen in Nigeria erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
