«Mit Brigitte Bardot verschied eine starke und unabhängige Frau, die es nicht nötig hatte, sich dem Zeitgeist unterzuordnen oder sich gar – wie leider viele deutsche Prominente – zur Systemnutte machen zu lassen, und die solches auch in der Not nicht getan hätte. Die einfach zu sich stand und standhaft war. Ein schönes Zitat von ihr als Abschluss: ‹Früher habe ich mit meinem Hintern schockiert, jetzt schockiere ich mit meinen Büchern (Meinungen). Das ist das Gleiche!›» (– Nachruf der Seite https://publikum.net/).
EIKE - Europäisches Institut für Klima und Energie e.V.
Paukenschlag: NATURE-Artikel des Potsdamer Klima-Institutes formal zurückgezogen!
Die Studie schlug im April 2024 ein wie eine Bombe: Das Potsdam-Institut für Klimafolgenforschung, PIK, veranschlagte die weltweiten Kosten der Erderwärmung auf sage und schreibe 38 Billionen Dollar jährlich. Der Artikel mit dem Titel „The economic commitment of climate change“ von Maximilian Kotz, Anders Levermann und Leonie Wenz im Hauptmagazin von Nature wurde von den Massenmedien begeistert aufgenommen. Nun mußte er offiziell wegen schwerster Mängel zurückgezogen werden.
Im Jahr 2025 kam heraus, daß die Redaktion des altehrwürdigen und äußerst renommierten Wissenschaftsmagazins NATURE den Text aus der Feder der Potsdamer gegen den ausdrücklichen Rat ihrer Gutachter veröffentlicht hatten. Dabei wird auf Seiten der Klimaforscher und -Aktivisten sonst höchster Wert auf die Tatsache gelegt, daß die Studien zur Erderwärmung „peer-reviewt“ seien – also stets von Fachleuten und Lektoren auf Herz und Nieren geprüft. Der Fall zeigt: In Zeiten des Klima-Alarmismus ist selbst dieser grundsätzliche Qualitäts-Sicherungsmechanismus nicht mehr vertrauenswürdig – Ideologie geht selbst in NATURE vor Fakten & Daten.
Die Massenmedien berichten nicht viel von der erstmaligen Rückziehung eines PIK-Artikels. Dafür berichteten sie hysterisch von den Fake news 2024:
„Der Klimawandel bedroht die Weltwirtschaft“ schrieb Tagesschau.de am 18. April. Der Weltwirtschaft drohen einer neuen Berechnung zufolge durch Folgen der Erderwärmung bis Mitte des Jahrhunderts Einkommensverluste von rund einem Fünftel – und das sogar, wenn der Ausstoß klimaschädlicher Gase künftig drastisch gesenkt würde.
Der Spiegel sekundiert am selben Tag: „Experten warnen: Selbst wenn die Menschheit die Erderwärmung auf zwei Grad begrenzt, droht erheblicher wirtschaftlicher Schaden. Dabei sind die Folgen von häufigeren Bränden und Stürmen noch gar nicht eingerechnet.“
Was hatten die Potsdamer konkret publiziert? In der Zusammenfassung sagen sie (übersetzt, Zitat):
„Hier verwenden wir aktuelle empirische Erkenntnisse aus mehr als 1.600 Regionen weltweit aus den letzten 40 Jahren, um subnationale Schäden durch Temperatur und Niederschlag, einschließlich täglicher Schwankungen und Extreme, zu prognostizieren. Unter Verwendung eines empirischen Ansatzes, der eine robuste Untergrenze für die Dauerhaftigkeit der Auswirkungen auf das Wirtschaftswachstum liefert, stellen wir fest, daß die Weltwirtschaft unabhängig von künftigen Emissionsentscheidungen innerhalb der nächsten 26 Jahre mit einem Einkommensrückgang von 19 % rechnen muß.“
Und diese 19% entsprechen weltweit 38 Milliarden Milliarden Dollar im Jahr!
Im Sommer 2025 meldeten sich vermehrt kritische Stimmen. Es kam heraus, daß die vier Gutachter der Studie übereinstimmend gravierende Mängel festgestellt hatten, die eine Veröffentlichung eigentlich unmöglich machten. Einer der „Reviewer“, wie die Prüfer auf Englisch genannt werden, sagte laut der Zeitung Die Welt:
„Leider muß ich Sie darauf aufmerksam machen, daß die statistische Methodik, auf die sich die Forschungsarbeit mit dem Titel stützt, keine wissenschaftliche Grundlage hat.“
Diese Aussage stammt aus der Gutachter-Datei, die ursprünglich auf der Seite Researchgate, und danach auf der Seite von Nature veröffentlicht wurde.
Ein zweiter schrieb: „Es fällt mir schwer, die Ergebnisse zu glauben, die unintuitiv groß erscheinen.“
„Zwischenzeitlich entwickelte sich das Ganze zu einem ausgewiesenem Wissenschaftsskandal“, schreibt Frank Bosse von Klimanachrichten.de.
„…Ein weiteres Papier hatte sich die Methodik der Studie angesehen und kam zu keinem guten Urteil. Bestimmte Ergebnisse sind nach Meinung dieser Autoren um den Faktor 3 falsch.“
Zitat aus dieser Kritik (übersetzt):
Kotz, Levermann und Wenz (im Folgenden KLW) analysierten, wie das Wachstum des subnationalen Bruttoinlandsprodukts (BIP) auf jährliche Veränderungen der Temperatur und Niederschlagsmenge reagiert.
Sie berichteten, daß bei einer Fortsetzung der historischen Zusammenhänge das globale BIP im Jahr 2100 unter dem Szenario „Representative Concentration Pathway 8.5“ (hohe Emissionen) um etwa 62 % (zentrale Schätzung) sinken würde, was etwa dreimal so viel ist wie in ähnlichen früheren Schätzungen.
Hier zeigen wir, dass Datenanomalien, die aus einem Land in KLWs zugrunde liegendem BIP-Datensatz stammen, nämlich Usbekistan, ihre prognostizierten Auswirkungen des Klimawandels erheblich verzerren, dass KLW die statistische Unsicherheit in ihren Zukunftsprognosen zu den Auswirkungen des Klimawandels unterschätzt und dass zusätzliche Bedenken hinsichtlich der Datenqualität in KLWs subnationalen BIP-Daten weitere Untersuchungen rechtfertigen.
„Das PIK nahm auch dazu Stellung. Hier wird allerdings betont, daß die schweren Fehler in der Studie (so konnten Daten eines einzigen Landes: Usbekistan) das verwendete Modell zu stark verfälschten globalen Ergebnissen verführen, stellten professionelle Ökonomen fest) auf die generellen Aussagen keinen bedeutenden Einfluß haben sollen.
Zweifel sind sehr angebracht, jedenfalls bis zu einem sauberen Begutachtungsprozess einer in Aussicht gestellten Nachfolgestudie“, so Bosse. „Der Vorfall jetzt ist mit Sicherheit Wasser auf die Mühlen derjenigen, die dem PIK nicht blind vertrauen.
Man kann nur hoffen, dass zukünftige Publikationen gute Reviewer bekommen und deren Anmerkungen im Vorfeld auch berücksichtigt werden. “
EIKE und Klimanachrichten bleiben dran!
Klimawissenschaftler müssen zerknirscht ihren wichtigsten Artikel in NATURE des Jahres 2024 zurückziehen (mit Bing erstellt)
Der Beitrag Paukenschlag: NATURE-Artikel des Potsdamer Klima-Institutes formal zurückgezogen! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kältereport Nr. 48 / 2025
Vorbemerkung: Die offensichtliche Abkühlung in der Antarktis macht sich diese Woche vor allem im Südosten Australiens bemerkbar, wo reihenweise Kälterekorde fallen. Weiterer Schwerpunkt sind zunehmend die USA, wo sich in weiten Teilen eine lang anhaltende extreme Kältewelle anbahnt.
Man beachte hierzu die Anmerkungen von mir selbst am Ende dieses Reports.
Meldungen vom 1. Dezember 2025:
Australien: Rekord-Sommerkälte im SüdostenAm ersten Tag des Sommers, dem 1. Dezember, hat Schnee den Südosten Australiens heimgesucht, als ein intensiver Kaltluftvorstoß antarktischen Ursprungs die Temperaturen in Victoria, New South Wales und Tasmanien bis zu 15 °C unter den Durchschnitt drückte.
Melbourne verzeichnete den kältesten 1. Dezember seit 1996 mit nur 15 °C (59 °F) – gefühlt waren es aufgrund der starken Südwestwinde sogar nur 8 °C. Auch Ballarat, Canberra und Hobart erlebten den kältesten Sommerbeginn seit Jahrzehnten.
Über den [australischen] Alpen erreichte der Mt Hotham eine Höchsttemperatur von nur -0,6 °C und brach damit seinen bisherigen Rekord vom 1. Dezember von 0,5 °C (aus dem Jahr 2019), während es in Thredbo -0,8 °C kalt wurde, ebenfalls ein neuer Rekord.
Es gab sogar Sommer-Schnee, der sich auf dem Mt Buller, Falls Creek, Mt Baw Baw und Mt Wellington niederschlug.
Dies ist mindestens der sechste Schneefall in den Alpen des Festlandes seit Anfang November, wodurch die Region eine der schneereichsten Übergangsperioden zwischen Frühling und Sommer seit Beginn der Aufzeichnungen erlebt. Der Mt Buller meldete frische Schneeverwehungen auf exponierten Bergrücken.
Dutzende Orte im Südosten verzeichnen derzeit den kältesten Sommerbeginn seit Jahrzehnten, mit gefühlten Temperaturen, die in den Ballungsräumen auf Werte im mittleren einstelligen Bereich sinken – und am Flughafen Melbourne sogar auf 2,5 °C.
Bis Dienstag wird es im Osten noch kälter werden.
——————————-
Indien: Kälte in MumbaiMumbai hat den kältesten Novembermorgen seit mehr als einem Jahrzehnt erlebt.
In Santacruz sank die Temperatur auf 15,7 °C – 4,4 °C unter dem Normalwert. Seit 2014 hatte die Stadt keinen Novemberwert unter 16 °C mehr verzeichnet.
Kalter, trockener Nordostwind ist für den Temperaturrückgang verantwortlich, der von Rajasthan und Madhya Pradesh nach Süden weht. Die Regionen im Norden verzeichnen ebenso ungewöhnlich niedrige Temperaturen. Chandigarh beispielsweise erlebte gerade die kälteste Novembernacht seit Beginn der Aufzeichnungen im Jahr 2011. Auch Srinagar, Qazigund und Kupwara gehören zu den Orten, die die kältesten Novembernächte seit 2007-2009 verzeichnen.
——————————-
Kanada: –30,2°C in SaskatchewanNach einem milden November ist nun der Winter in den kanadischen Prärien eingekehrt, sank doch die Temperatur in Val Marie in Saskatchewan auf -30,2 °C.
Alberta folgte mit mehreren Orten, an denen die Temperaturen auf -30 °C sanken.
Es ist der erste echte arktische Kälteeinbruch der Saison in der Region, eine scharfe Umkehrung nach wochenlanger ungewöhnlicher Wärme. Angesichts der Kälte im Norden und der Modelle, die auf eine noch stärkere polare Strömung im Dezember hindeuten, könnte dies ein Vorgeschmack auf das sein, was noch kommen wird…
——————————-
Meldungen vom 2. Dezember 2025:
Australien: Erster Sommer-Frost in Canberra jemalsCanberra hat die erste Sommertemperatur unter null Grad seit mehr als einem Jahrhundert verzeichnet.
Am 2. Dezember um 5:50 Uhr morgens sank die Temperatur am Flughafen Canberra auf -0,3 °C und brach damit den bisherigen Sommerrekord von 0,3 °C aus dem Jahr 2012. Der ältere Standort Acton erreichte im Dezember 1924 0 °C, aber bis jetzt war die Temperatur noch an keiner Station in Canberra jemals im Sommer unter den Gefrierpunkt gefallen (Aufzeichnungen reichen bis 1912 zurück).
Ein starker Einbruch antarktischer Luft in den Südosten Australiens am Montag brachte Tasmanien und den Alpen auf dem Festland, einschließlich Mt Hotham, seltenen Sommerschnee.
Dann sorgte ein starkes Hoch über der Region, das eher für den Winter typisch ist, für klare, ruhige Nachtbedingungen. Die Temperaturen am Mt Hotham sanken auf -2,8 °C, während es an der Thredbo Top Station mit -4,0 °C eisig kalt war – beides ungewöhnlich niedrige Werte.
——————————-
Nordchina: Kälte bis –42,7°CIn Nordchina hat sich strenge Winterkälte durchgesetzt, wobei ein großer Teil des Nordostens extremen Frost verzeichnet.
Weite Teile des mongolischen Plateaus und der Großen und Kleinen Khingan-Gebirgsketten fielen heute Morgen (2. Dezember) auf Temperaturen zwischen -20 °C und -40 °C und verzeichneten damit die bisher niedrigsten Werte der Saison.
Das nationale Netzwerk Chinas verzeichnete eine Reihe extremer Tiefstwerte.
Die nationale Station Tulihe erreichte -38,7 °C, Genhe folgte mit -38,6 °C und Mohe erreichte -36,9 °C. In Hulunbuir City sank die Temperatur auf -31,7 °C, aber die kälteste automatische Messstation der Stadt verzeichnete außergewöhnliche -42,7 °C – Werte unter -40 °C sind in diesen Gegenden vor Mitte Dezember historisch selten.
Küstenorte wie Yantai und Weihai, in denen zu dieser Jahreszeit normalerweise gemischte Niederschläge auftreten, werden voraussichtlich mit „durchweg Schnee” in den Winter starten, da sich die Kaltfront bis in die tieferen Lagen ausbreitet.
Dies ist ein früher, weit verbreiteter Einbruch arktischer Luft, der nicht nur den Nordosten, sondern einen Großteil Chinas erfasst.
——————————-
Nordamerika: Starker WintereinbruchDer Flughafen Mary River in Nunavut hat -41,1 °C gemessen, was Kanadas erste -40 °C in dieser Saison sind. Dieses Anzeichen für eine frühe Kältewelle hallte weiter südlich nach und deutet auf eine weitreichende und abrupte Wetteränderung in ganz Nordamerika hin.
In den Vereinigten Staaten breitet sich eine starke arktische Kältewelle von den nördlichen Ebenen bis zur Ostküste aus und dringt sogar in Teile des Südens und des unteren Mississippi-Tals vor.
Die Tiefsttemperaturen am Morgen könnten in vielen Gemeinden im Mittleren Westen, an den Großen Seen und an der mittleren Atlantikküste auf einstellige Werte (Fahrenheit) fallen.
Temperatur am 2. Dezember 2025 um 04 UTC in Grad Fahrenheit. Zur Orientierung: ausgehend von 32°F = 0°C geht es in Schritten von 18°F in beide Richtungen entsprechend 10°C (Beispiel: 32°F – 18 ≅ 0°C – 10.
…
——————————-
Australien: Historischer SommerfrostAustralien scheint nun seine Abkühlung bis in den Dezember hinein fortzusetzen, zumindest im Osten. Eine winterliche Kältewelle erfasste am Montag Victoria, New South Wales und Teile von Queensland und sorgte für die niedrigsten jemals dort gemessenen Sommertemperaturen.
In New South Wales erreichte die Thredbo Top Station eine Höchsttemperatur von nur -0,8 °C, die zweitkälteste Sommer-/Dezember-Tmax seit Beginn der Aufzeichnungen für ganz Australien. Der Rekord liegt weiterhin bei -1 °C aus dem Jahr 2019 (in Aufzeichnungen, die bis ins Jahr 1966 zurückreichen).
Auch Victoria erreichte einen historischen Wert, wobei Mt Hotham nur -0,7 °C erreichte, ebenfalls die zweitniedrigste jemals gemessene Sommer-Tmax, nur 0,1 °C über dem Landesrekord.
Der Großteil des Landes lag am ersten Sommertag deutlich unter dem Durchschnitt (selbst laut BoM):
——————————-
China: Strenger frühwinterlicher FrostDer frühe Wintereinbruch in China verschärfte sich am Morgen des 3. Dezembers, als arktische Luft tief in den Norden des Landes vordrang. So verzeichnete Genhe mit -37,9 °C den niedrigsten Wert außerhalb eines AWS-Messnetzes.
Die -20 °C-Isotherme drang nach Süden bis nach Liaoning vor, während die Frostgrenze bis zur Grenze zwischen Qinling und Huaihe reichte.
Nationale Messstationen in der Nordchinesischen Ebene, wie beispielsweise Bazhou in Hebei, verzeichneten Temperaturen unter -10 °C – was zu dieser frühen Jahreszeit selten vorkommt.
Die meisten Provinzhauptstädte erlebten einen starken Temperaturrückgang: Harbin sank auf -22 °C, Changchun auf -19,9 °C, Shenyang auf -13,7 °C, Yinchuan auf -11,7 °C, Taiyuan auf -11,2 °C, Urumqi auf -9,9 °C und Tianjin Xiqing auf -9 °C – auch dies sind allesamt ungewöhnlich niedrige Werte.
Entlang der Küste von Shandong herrscht in Weihai derzeit extremer Frost. Starke Schneefälle, die vom Gelben Meer herüberwehten, bedeckten ganze Stadtteile innerhalb einer Stunde mit einer weißen Decke.
…
——————————-
USA: Bevorstehender Einbruch arktischer Luft dürfte vielerorts Rekorde brechenDer Dezember wird den Plains, dem Mittleren Westen, den Großen Seen und dem Nordosten eine Rekord-Kältewelle bescheren. Tatsächlich werden mehr als 200 Millionen Amerikaner bei eisigen Temperaturen aufwachen, wenn kalte Luft aus Kanada nach Süden strömt.
Die Kälte trifft zuerst die nördlichen Ebenen und den oberen Mittleren Westen. Die Höchsttemperaturen werden bis zu 14°C unter dem Normalwert liegen, wobei einige Orte in den Dakotas Mühe haben werden, -12 °C zu erreichen. Mehr als ein Dutzend Städte werden von Mittwoch bis Freitag Rekord-Tiefsttemperaturen verzeichnen.
Der Höhepunkt der Kältewelle wird am Donnerstag erwartet.
…
——————————-
Eine Meldung vom 4. Dezember 2025:
Marokko: Schneefall im Atlas-GebirgeIm Hohen Atlas in Marokko hat es geschneit, und die Hochländer von Anarki und Zaouiat Ahansal sind unter einer dicken Schneeschicht begraben.
Mehrere Routen durch den Hohen und Mittleren Atlas wurden gesperrt, da sich die Schneemassen auftürmten – was für Anfang Dezember ungewöhnlich ist. Schneeräummannschaften sind auf den Straßen im Einsatz.
Die lokalen Behörden brachten schweres Gerät in die Pässe, um die blockierten Verbindungen zwischen den Dörfern und den nahe gelegenen Städten wiederherzustellen. Aufnahmen von Atlas Scope zeigen, wie Schneepflüge sich durch die frischen Schneeverwehungen kämpfen, während die Temperaturen im Gebirge stark sinken.
Es wird weiterer Schneefall erwartet, Warnungen wurden ausgegeben.
——————————-
Eine Meldung vom 5. Dezember 2025:
USA: Extreme Kältewelle nimmt Gestalt anEine starke negative Ostpazifik-Oszillation (EPO) hält über dem Nordpazifik an und schafft die Voraussetzungen für wiederholte arktische Kälteeinbrüche in den USA bis Mitte Dezember.
Das ECMWF zeigt eine massive Kaltluftansammlung über Alaska und Westkanada. Hoher Luftdruck über Alaska drückt kalte Luft über die Rocky Mountains in den Mittleren Westen und zu den Großen Seen und dann weiter nach Osten.
Eine kürzliche Störung der stratosphärischen Erwärmung verstärkt diese Konstellation, wobei in etwa 10 Tagen ein weiterer Erwärmungsschub in der Stratoisphäre prognostiziert wird.
…
Mehr zu dieser Kältewelle in Nordamerika kommt wohl in der nächsten Woche, nachdem der Vorgang in voller Stärke eingetreten ist. In diesem Zusammenhang soll aber, weil dieser Kältereport kürzer ist als üblich, hier etwas aktualisiert werden, was ich in diesem Beitrag schon angesprochen hatte.
Die aktuelle Kältewelle in den USA und Kanada reflektiert etwas, das sowohl in den aktuellen Analysen als auch in den Simulationen im 500-hPa-Niveau augenscheinlich ist: der Schwerpunkt des arktischen Kältepols in der Troposphäre hat sich eindeutig auf die amerikanisch-pazifische Seite der Nordhemisphäre verlagert und scheint dort auch zu bleiben. Im oben verlinkten Beitrag hatte ich einen ähnlich gelagerten Fall im Jahre 1986 erwähnt. Auch damals lag das Kältezentrum dort, jedoch mit einem recht ausgeprägten, wenn auch kleinerem Pendant über Nordrussland / Nordskandinavien. Dieser ist zwar auch in diesem Monat erkennbar, aber viel schwächer ausgeprägt.
Was sich hingegen nicht geändert hat ist, dass die 500-hPa-Fläche der Nordhemisphäre immer noch irgendwie „zerflattert“ erscheint, das heißt es gibt nicht ein Kältezentrum, sondern mehrere, wobei die Arktis selbst nach wie vor relativ „warm“ daherkommt, wie die Abweichung der Temperatur im 850-hPa-Niveau von heute zeigt (5. Dezember 2025):
Temperatur-Abweichung im 850-hPa-Niveau, 5. Dezember 2025, 00 UTC. Quelle
Die Nordatlantische Oszillation NAO kommt auch nicht so richtig in Gang wie das in den letzten Jahren der Fall war. Kaltluftvorstöße in unsere Richtung von Norden und Nordosten her sind dabei im weiteren Verlauf dieses Winters durchaus möglich, aber ob das bis Weihnachten schon was wird…
Es ist jedoch die Frage, ob eine harte Frostperiode angesichts (nicht nur) der derzeitigen Energie-(Mangel-)Lage bei uns wirklich wünschenswert ist…
——————————-
Wird fortgesetzt mit Kältereport Nr. 49 / 2025
Redaktionsschluss für diesen Report: 5. Dezember 2025
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kältereport Nr. 48 / 2025 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 2
Dr. Alan Welch FBIS FRAS
Kurvenanpassung
Die einzelnen Gezeitenmessgeräte werden zuerst verarbeitet. Sie decken einen weiten Bereich von Gesamtperioden ab, und bei einigen fehlen Daten, in der Regel kleine Lücken, gelegentlich jedoch auch erhebliche Zeiträume, die sich auf die Berechnungen auswirken und berücksichtigt werden müssen. Die Ergebnisse aus Aberdeen werden vollständig dargestellt, während die underen Gezeitenmessgeräte in einem stundardisierten, gekürzten Layout gezeigt werden.
Aberdeen
Die Daten aus Aberdeen decken den Zeitraum von 1862 bis 2022 ab, also einen Zeitraum von 161 Jahren. Die Spektralanalyse ergab drei Kurven mit einer Periode von mehr als 11 Jahren (P1, P2 und P3), nämlich (84,9, 43,0 und 18,1) Jahre. Damit verbunden sind drei Amplitudenwerte (amp1, amp2 und amp3) von (32,7, 15,1 und 10,3). Jeder dieser Werte hat eine zugehörige Sinuskurve, die durch Gleichung 1 gegeben ist. Die drei Amplitudenwerte der Kurven (AMP1, AMP2 und AMP3) stehen mit den Werten (amp1, amp2 und amp3) in Beziehung zu Gleichung 2, woraus sich die relativen Werte (a1, a2 und a3) im Verhältnis (5,7, 3,9 und 3,2) ergeben, welche die Quadratwurzelwerte von (amp1, amp2 und amp3) sind.
Die letzten drei Werte (a1, a2 und a3) sind relativ und müssen mit einem Faktor F multipliziert werden, um die tatsächlichen Amplituden der Sinuskurven zu erhalten. F kann geschätzt werden, oder wenn eine ausreichende Anzahl von Zyklen vorliegt, würde der Extrembereich nahe am Bereich der einzelnen maximalen und minimalen Amplituden (Amax und Amin) der Daten liegen, was zu einem Wert von F gemäß Gleichung 3 führt.
F = (Amax – Amin) / 2 x (a1 + a2 + a3) Equation 3
Für die Aberdeen-Daten: Amax = 35.7 und Amin = -42.2 also eine Bundbreite von 77.9
Und mit (a1 + a2 + a3) = (5.7 + 3.9 + 3.2) = 12.8
F = 77.9 / 25.6 = 3.04
was zu Amplituden (AMP1, AMP2 und AMP3) von (17,3, 11,9 und 9,7) führt.
Diese Werte sind wahrscheinlich zu niedrig angesetzt, daher werden die etwas höheren Werte 18, 12,5 und 10 ausprobiert.
Abbildung 14 zeigt die Daten aus Aberdeen (ein gleitender Durchschnitt über etwa 8 Jahre), auf denen die drei Zeiträume dargestellt sind.
Abbildung 15 zeigt die Daten aus Aberdeen mit den kombinierten Werten der drei Sinuskurven. Sie zeigt eine angemessene Anpassung, wird jedoch nicht weiter verfolgt, da die gemittelten Ist-Daten stellenweise durch Lücken im ursprünglichen vollständigen Datensatz beeinflusst sind. Außerdem wurden die Phasenverschiebungen der Sinuskurven visuell bestimmt und es wurde kein Konstantenterm (CONST) einbezogen, d. h. die Sinuskurven oszillieren um den Nullrestwert . Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) betragen (-30, -20 und -90).
Abbildung 14 Abbildung 15
Die größten Abweichungen treten ungefähr zum Zeitpunkt = 110 (2010) auf. Von 2016 bis 2021 fehlen viele Daten, wie aus den NOAA-Daten im Abschnitt über Aberdeen oben ersichtlich ist. Teile der NOAA-Daten sind unten in Abbildung 16 dargestellt:
Abbildung 16
Bergen
Die Daten aus Bergen decken den Zeitraum von 1915 bis 2022 ab, also 108 Jahre, mit zwei mittleren Lücken in den 1940er und 1970er Jahren.
(P1, P2 und P3) = (66.9, 28.9 und 19.2) Jahre
(amp1,amp2 und amp3) = (13.3, 10.2 und 10.1)
(a1, a2 und a3) = (3.6, 3.2 und 3.2)
(Amax und Amin) = (32.3 und -40.9)
Die Anwendung von Gleichung 3 in
F = 73.2 / 20.0= 3.66
ergibt jeweils (AMP1, AMP2 und AMP3) 13.2, 11.7 und 11.7
Es werden die Amplitudenwerte 14, 12 und 12 ausprobiert.
Abbildung 17 zeigt die Daten aus Bergen (ungefährer gleitender 8-Jahres-Durchschnitt), auf denen die drei Perioden dargestellt sind.
Abbildung 18 zeigt die Daten aus Bergen mit den kombinierten Werten der drei Sinuskurven. Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) betragen (-50, -40 und -90).
Abbildung 17 Abbildung 18
Die einzigen wesentlichen Abweichungen treten ungefähr zum Zeitpunkt = 110 (2010) auf, wenn in den Daten kein Peak zu erkennen ist. Es gibt keine Erklärung dafür, aber Abbildung 19 wurde eingefügt, um die vollständigen NOAA-Daten zu diesem Zeitpunkt zu zeigen:
Abbildung 19
Pause zum Nachdenken
In dieser Phase haben zwei Beispiele für die Anpassung von Sinuskurven zu einem zufriedenstellenden Ergebnis geführt.
Ist das ein Aha-Erlebnis oder mache ich mir etwas vor?
Der Prozess läuft darauf hinaus, dass mithilfe der Spektralanalyse die Hauptmodi ermittelt werden, die auf Zeiträume von etwa 11 Jahren beschränkt sind. Auf der Grundlage dieser Modi wird eine Reihe von Sinuskurven gebildet, welche die Perioden und berechneten Amplituden zusammen mit den bekannten Spitzen- und Minimalwerten sowie den maximalen Restwerten verwenden, die aus einem gleitenden Durchschnitt der Residualwerte über einen Zeitraum von etwa 8 Jahren ermittelt wurden. Die Phasenverschiebungen für jede Sinuskurve werden visuell bestimmt und eine kombinierte Kurve erstellt. Ist dieser Prozess etwas zyklisch oder verzerrt, sodass er gut aussehende Anpassungen erzeugt?
Der Prozess wird auf die underen 7 Fälle mit kürzerer Periode angewendet und anschließend wird das Verfahren erneut bewertet. Der Grund dafür ist, dass dies dazu beitragen kann, die Eignung der Methode zu beurteilen und ein vollständigeres Bild der 9 Gezeitenpegel-Datensätze zu erhalten.
Narvik
Bei diesem Datensatz umfassen die verbleibenden Datensätze weniger als 100 Jahre, was die Analyse erschweren kann. Narvik weist zu Beginn eine große Lücke in den Daten sowie seltsame Werte für das erste Jahr oder so auf. Die Datendatei wurde daher gekürzt, und die verwendeten Daten beginnen mit dem Jahr 1947.
Die unvollständigen Daten für Narvik decken den Zeitraum von 1947 bis 2022 ab, also einen Zeitraum von 76 Jahren.
(P1, P2 und P3) = (26.0, 17.6 und 13.4) Jahre
(amp1,amp2 und amp3) = (2.6, 5.0 und 1.9)
(a1, a2 und a3) = (1.6, 2.2 und 1.4)
(Amax und Amin) = (28.9 und -30.4)
Die Anwendung von Gleichung 3 in
F = 59.3 / 10.4= 5.7
ergibt (AMP1, AMP2 und AMP3) = (9.1, 12.6 und 8.0)
Es könnten Werte von Amplitude 9,0, 13,0 und 8,0 ausprobiert werden.
Abbildung 20 zeigt die Narvik-Daten (ungefährer gleitender 8-Jahres-Durchschnitt), auf denen die drei Perioden dargestellt sind.
Abbildung 21 zeigt die Narvik-Daten mit den kombinierten Werten der 3 Sinuskurven. Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) sind (-30, -30 und -90).
Abbildung 20 Abbildung 21
Das Ergebnis ist recht zufriedenstellend.
Reykjavik
Die Daten für Reykjavik umfassen den Zeitraum von 1956 bis 2022, also 67 Jahre.
(P1, P2 und P3) = (37.0, 18.7 und 14.0) Jahre
(amp1,amp2 und amp3) = (12.5, 9.2 und 9.0)
(a1, a2 und a3) = (3.5, 3.0 und 3.0)
(Amax und Amin) = (52.8 und -39.4)
Anwendung von Gleichung 3 führt zu
F = 92.2 / 19.0= 4.85
ergibt (AMP1, AMP2 und AMP3) = (17.0, 14.6 und 14.6)
Es könnten die Werte Amplitude 18,0, 15,0 und 15,0 ausprobiert werden.
Abbildung 22 zeigt die Daten aus Reykjavik (ungefährer gleitender 8-Jahres-Durchschnitt), auf denen die drei Perioden dargestellt sind.
Abbildung 23 zeigt die Daten aus Reykjavik mit den kombinierten Werten der drei Sinuskurven. Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) sind (-80, -16 und -4).
Abbildung 22 Abbildung 23
Das passt alles ziemlich gut.
Murmansk
Die Daten umfassen den Zeitraum von 1952 bis 2022, also 71 Jahre, weisen jedoch zwischen 1990 und 2010 eine merkwürdige Abweichung auf, da der Meeresspiegelanstieg hier offenbar um etwa 100 mm über dem allgemeinen Trend liegt (Abbildung 24). Dies wird sich auf die Spektralanalyse auswirken, aber der Prozess wird mit den vollständigen Daten abgeschlossen werden.
Abbildung 24
(P1, P2 und P3) = (65.2, 17.6 und 13.1) Jahre
(amp1,amp2 und amp3) = (143.5, 9.8 und 5.0)
(a1, a2 und a3) = (12.0, 3.1 und 2.2)
(Amax und Amin) = (112.5 und -79.7)
Gleichung 3 angewendet
F = 192.2 / 34.6= 5.55
ergibt (AMP1, AMP2 und AMP3) = (66.6, 17.2und 12.2)
Es könnten Werte von Amplitude 18,0, 15,0 und 15,0 ausprobiert werden.
Es könnten Werte von Amplitude 67, 17,5 und 12,5 ausprobiert werden. Diese sind etwas höher, da bei einer kürzeren Gesamtperiode die Wahrscheinlichkeit geringer ist, dass die Spitzen und Tiefpunkte der drei Kurven zusammenfallen.
Abbildung 25 zeigt die Murmansk-Daten (ungefähr 8-Jahres-Gleitender Durchschnitt), wobei nur die längste Periode dargestellt ist. Die beiden kurzen Perioden werden nicht gezeigt, da die seltsamen Daten zwischen 1990 und 2010 den Plot stark beeinflussen. Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) sind (-45, -20 und -100).
Abbildung 26 zeigt die Daten aus Murmansk mit den kombinierten Werten der drei Sinuskurven.
Abbildung 25 Abbildung 26
Die Auswirkung der seltsamen Daten zwischen 1990 und 2010 zeigt sich in einem untypischen Diagramm, in dem die kleineren Schwankungen von einer Sägezahnform des Hauptmodus‘ dominiert werden.
Barentsburg
Die Daten für Barentsburg umfassen den Zeitraum von 1948 bis 2022, also 75 Jahre.
(P1, P2 und P3) = (41.6, 17.8 und 13.4) Jahre
(amp1,amp2 und amp3) = (15.2, 16.3 und 14.0)
(a1, a2 und a3) = (3.9, 4.0 und 3.7)
(Amax und Amin) = (26.5 und -56.7)
Gleichung 3 angewendet
F = 83.2 / 23.2= 3.59
ergibt (AMP1, AMP2 und AMP3) = (14.0, 14.3 und 13.3)
Es könnten die Werte Amplitude 15, 15 und 14 ausprobiert werden.
Abbildung 27 zeigt die Barentsburg-Daten (ungefährer gleitender 8-Jahres-Durchschnitt), auf denen die drei Perioden dargestellt sind.
Abbildung 28 zeigt die Barentsburg-Daten mit den kombinierten Werten der 3 Sinuskurven. Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) sind (-50, -30 und -97).
Abbildung 27 Abbildung 28
Die beiden Kurven in Abbildung 27 haben im Allgemeinen die gleiche Form. In diesem Fall gab es drei ähnliche Spitzen, was die Beurteilung der Phasenverschiebungen erschwerte.
Lerwick
Die Daten aus Lerwick decken den Zeitraum von 1957 bis 2022 ab, also 66 Jahre, mit einer mittleren Lücke um das Jahr 2002 und späteren kleineren Lücken.
(P1 und P2) = (21.4 und 12.8) Jahre
(amp1 und amp2) = (5.5 und 3.05)
(a1 und a2)= (2.35 und 1.75)
(Amax und Amin) = (17.1 und -20.0)
Anwendung Gleichung 3
F = 37.1 / 8.20 = 4.52
errgibt (AMP1 und AMP2)= (10.6 und 7.9)
Es könnten die Werte Amplitude 11 und 8 ausprobiert werden.
Abbildung 29 zeigt die Lerwick-Daten (ungefähr 8-Jahres-Durchschnitt), auf denen die beiden Perioden dargestellt sind.
Abbildung 30 zeigt die Lerwick-Daten mit den kombinierten Werten der 3 Sinuskurven. Die verwendeten Verschiebungen (SHIFT1 und SHIFT2) betragen (-54 und -25).
Abbildung 29 Abbildung 30
Das passt sehr gut.
Tiksi
Die Tiksi-Daten umfassen den Zeitraum von 1949 bis 2010, also 62 Jahre.
(P1 und P2) = (47.4 und 18.1) Jahre
(amp1 und amp2) = (0.835 und 4.28)
(a1 und a2)= (0.91 und 2.07)
(Amax und Amin) = (35.6 und -28.6)
Anwendung Gleichung 3
F = 64.2 / 5.96 = 10.77
ergibt (AMP1 und AMP2)= (9.8 und 22.3)
Es könnten Werte von Amplitude 10 und 24 ausprobiert werden.
Abbildung 31 zeigt die Tiksi-Daten (ungefähr 8-Jahres-Gleitender Durchschnitt), auf denen die beiden Perioden dargestellt sind.
Abbildung 32 zeigt die Tiksi-Daten mit den kombinierten Werten der 3 Sinuskurven. Die verwendeten Verschiebungen (SHIFT1 und SHIFT2) betragen (-54 und -20).
Abbildung 31 Abbildung 32
Torshavn
Die Daten aus Torshavn umfassen den Zeitraum von 1957 bis 2006, also 50 Jahre.
(P1, P2 und P3) = (38.1, 18.7 und 13.1) Jahre
(amp1,amp2 und amp3) = (1.27, 6.72 und 4.19)
(a1, a2 und a3) = (1.13, 2.59 und 2.05)
(Amax und Amin) = (26.5 und -17.7)
Anwendung Gleichung 3
F = 44.2/ 11.54 = 3.83
ergibt (AMP1, AMP2 und AMP3) = (4.33, 9.92 und 7.85)
Es könnten die Werte Amplitude 4,5, 10 und 8 ausprobiert werden.
Abbildung 33 zeigt die Torshavn-Daten mit den kombinierten Werten der 3 Sinuskurven.
Die verwendeten Verschiebungen (SHIFT1, SHIFT2 und SHIFT3) sind (-10, -8 und -82).
Abbildung 33
Die Anpassung ist aufgrund der kurzen Dauer des Datensatzes und mehrerer Unterbrechungen in den Daten nicht sehr gut. Die Grafik, die die Zeiträume zeigt, wird nicht dargestellt.
Vor einer allgemeinen Diskussion ist es angebracht, das entwickelte Verfahren auf die Daten aus Brest anzuwenden.
Brest
Die Daten aus Brest decken den Zeitraum von 1807 bis 2022 ab, also einen Zeitraum von 216 Jahren. Abbildung 10 zeigt die Spitzenwerte der Spektralanalyse für die Residuen.
(P1, P2, P3 und P4) = (92.8, 36.1, 28.2 und 19.0) Jahre
(amp1,amp2, amp3 und amp4) = (16.6, 8.8, 15.6 und 9.0)
(a1, a2, a3 und a4) = (4.1, 3.0, 3.9 und 3.0)
(Amax und Amin) = (50.0 und -38.4)
Anwendung Gleichung 3
F = 88.4 / 28.0= 3.16
ergibt (AMP1, AMP2, AMP3 und AMP4) = (12.9, 9.5, 12.3 und 9.5)
Es könnten die Werte Amplitude 14,0, 10,0, 13,0 und 10,0 ausprobiert werden.
Abbildung 34 zeigt die Brest-Daten (ungefährer gleitender 8-Jahres-Durchschnitt), auf denen die vier Perioden dargestellt sind.
Die verwendeten Verschiebungen (SHIFT1, SHIFT2, SHIFT3 und SHIFT4) sind (-55, -70, 101 und -120).
Abbildung 34
Alles passt recht gut, außer zu den Zeitpunkten, an denen Daten fehlen, d. h. um 1850 und 1950.
Diskussion
Die wichtigste Erkenntnis ist, dass jeder Gezeitenmesser zusätzlich zu den vielen Oszillationen unterhalb von 11 Jahren, die aufgrund von Strahlungsschwankungen oder El Niño/La Niña-Zyklen auftreten, zwei oder mehr Oszillationen in den Residual-Meeresspiegeln zwischen 11 und 100 Jahren aufweist. Über einen Zeitraum von 20 Jahren variieren diese Schwankungen von Messgerät zu Messgerät in ihren Perioden, und der kombinierte Effekt ist schwer zu bestimmen, aber wenn sie nicht über den nördlichen Meeren gemessen würden, würde dies die „globalen” Messwerte der Satelliten beeinträchtigen.
Die Gültigkeit der verwendeten Verfahren ist nach wie vor umstritten.
Abbildung 35 zeigt eine Grafik, die alle kombinierten Sinuskurven der Gezeitenpegel von 1993 bis 2025 darstellt, mit Ausnahme von Murmansk aufgrund möglicher fehlerhafter Daten und Brest, da es sich hierbei um eine zusätzliche Studie handelte. Die Kurven weisen eine gewisse Ähnlichkeit auf:
Abbildung 35
Die 8 Kurven wurden gemittelt und in Abbildung 36 im gleichen Maßstab dargestellt. Sie zeigen einen ungefähren 18-Jahre-Zyklus.
Abbildung 36
Die Signifikanz des 18-Jahre-Zyklus‘ lässt sich anhand der Amplituden und Perioden jeder Gruppe von Sinuskurven nachvollziehen, wie in Abbildung 23 (plus Murmansk) dargestellt. Es gibt zwei Cluster. Einer mit einer Periode von 13,5 Jahren, an dem 6 der 9 Kurven beteiligt sind, und einer mit einer Periode von 18 Jahren, an dem 8 der 9 Kurven beteiligt sind, wobei der 9. Wert 21,4 Jahre beträgt. Die zweite Gruppe entspricht dem 18-Jahres-Zyklus in Abbildung 36.
Abbildung 37
Die Gemeinsamkeit der Perioden könnte ein Hinweis auf eine oder mehrere kurze dekadische Schwankungen sein. Auf Grundlage der Satellitenanalysen wurde nach Werten im Bereich von etwa 25 bis 30 Jahren gesucht. Die Periode der Satellitenabdeckung betrug nur 32 Jahre, und das nicht abgedeckte Gebiet umfasste zwar hauptsächlich die oberen Atlantikregionen, aber auch andere Teile des Arktischen Meeres und kleinere Meeresgebiete rund um die Antarktis. Es ist nicht unwahrscheinlich, dass die nicht überwachten Gebiete sinusförmige Schwankungen in den „globalen” Ergebnissen hervorrufen könnten.
Anlass für diese Arbeit war die sinusförmige Schwankung im Bereich von 26 bis 29 mm/Jahr2, die bei der Untersuchung von NASA-Satellitendaten festgestellt wurde. Diese Schwankung wurde für die Residualwerte bestimmt, die aus der linearen Bestfit-Anpassung der Daten berechnet wurden. Die Ergebnisse der Gezeitenpegel beziehen sich auf die Residuen, die aus einer quadratischen Kurve über den gesamten Datensatz berechnet wurden. Über den kurzen Zeitraum (33 Jahre) der Satellitendaten wurde angenommen, dass die Abweichung der besten Anpassung von einer geraden Linie minimal ist, aber mit zunehmender Dauer der Satellitenbeobachtung könnte es wichtiger werden, dies zu berücksichtigen.
Zunächst wurden die neuesten Daten der NASA geprüft. Leider gab es aus politischen Gründen eine Unterbrechung und zuvor einen Rückgang der Menge der veröffentlichten verarbeiteten Daten. Daher werden die Daten vom April 2025 verwendet, da dies der letzte Datensatz mit einer vollständigeren Form der Daten ist, den ich seit Beginn im Jahr 2018 analysiert und veröffentlicht habe. Abbildung 38 zeigt die Daten vom April 2025, auf die am besten passende lineare und quadratische Kurven angewendet wurden:
Abbildung 38
Die Anpassung quadratischer und sinusförmiger Kurven an die Residuen (Istwerte – Werte der Geraden) ergab die Abbildungen 39 und 40. Statistisch gesehen ist die sinusförmige Kurve genauer als die quadratische, wenn man die Fehler betrachtet.
Abbildung 39 Abbildung 40
Es wurden vier Spektralanalysen durchgeführt
• Vollständige Daten (wie in Abbildung 38 dargestellt – blaue Linie)
• Residuen (wie in Abbildung 39 oder 40 dargestellt – blaue Punkte)
• Unterschiede der Residuen zur quadratischen Kurve (Abbildung 41)
• Unterschiede der Residuen zur Sinuskurve (Abbildung 42)
Abbildung 41 Abbildung 42
Die Ergebnisse der 4 Spektralanalysen sind in den Abbildungen 43 bis 46 dargestellt.
Abbildung 43 Abbildung 44
Abbildung 45 Abbildung 46
Was sagen die Abbildungen 43 bis 46 aus? Alle vier Abbildungen weisen mehrere Spitzen unterhalb einer Periode von etwa zehn Jahren auf, aber für diese Studie sind die übrigen Spitzen von Interesse.
In Abbildung 43 sind drei Spitzenwerte dargestellt. Zunächst ein sehr langfristiger Spitzenwert, dessen tatsächliche Periode aufgrund der kurzen Messdauer nicht bestimmt werden kann. Dann eine Periode von 16,9 Jahren, die mit den bei allen Gezeitenmessgeräten festgestellten Perioden übereinstimmt. Und schließlich eine Periode von 11 Jahren, die möglicherweise auf Schwankungen der Sonneneinstrahlung (Sonnenzyklus) zurückzuführen ist.
Abbildung 44 weist auf den untersuchten 29-Jahre-Zyklus und erneut auf einen Peak um 10 Jahre hin. Wie oben erwähnt, wird dieser auf der Grundlage einer geraden Linie erhalten und entstand bei der Beurteilung der Verwendung der quadratischen Kurvenanpassung und der damit verbundenen Extrapolation. Als Alternative wurde die sinusförmige Kurvenanpassung untersucht, worüber in einer Reihe von Artikeln berichtet wurde, zuletzt hier, der den Zeitraum bis Ende 2024 abdeckt.
Abbildung 45 zeigt möglicherweise zwei kombinierte, eng beieinander liegende Spitzen um 14 bis 15 Jahre.
Abbildung 46 weist eine einzelne, sehr scharfe Spitze bei 10,9 Jahren auf, die ebenfalls möglicherweise auf Schwankungen der Sonneneinstrahlung zurückzuführen ist. Die Abbildungen 41 und 42 sehen auf den ersten Blick sehr ähnlich aus, aber die Sinuskurve, die etwas besser passt, erzeugt ein klareres Spektrum.
Die allgemeine Schlussfolgerung lautet, dass die 29-jährige Schwankung mit der linearen Anpassung zusammenhängt, aber es gibt eine allgemeine Schwankung von etwa 18 Jahren in allen Gezeitendiagrammen, die in den vollständigen Satellitendaten zu sehen ist.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 2 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Erinnern Sie sich noch daran, als man Ihnen sagte, der Klimawandel würde zu einem „Massen-Aussterben” führen? Vergessen Sie es!
Von der University of Arizona und der „Emily Litella, äh, Greta Thunberg School of Climate Attribution” kommt dieser frische Wind. Übrigens hatte Willis Recht – schon vor 16 Jahren.
Studie zeigt: Aussterberaten haben sich bei vielen Pflanzen- und Tiergruppen verlangsamt
Renommierte Forschungsstudien legen nahe, dass unser Planet derzeit ein weiteres Massensterben erlebt, basierend auf einer Extrapolation der Aussterberaten der letzten 500 Jahre in die Zukunft und der Annahme, dass sich die Aussterberaten rapide beschleunigen.
Eine neue Studie von Kristen Saban und John Wiens vom Fachbereich Ökologie und Evolutionsbiologie der Universität Arizona hat jedoch gezeigt, dass das Aussterben von Pflanzen, Arthropoden und Landwirbeltieren der letzten 500 Jahre vor etwa 100 Jahren seinen Höhepunkt erreichte und seitdem zurückgegangen ist. Darüber hinaus fanden die Forscher heraus, dass die diesen Prognosen zugrunde liegenden früheren Aussterbeereignisse hauptsächlich durch invasive Arten auf Inseln verursacht wurden und nicht die derzeit größte Bedrohung darstellen, nämlich die Zerstörung natürlicher Lebensräume.
Die Studie argumentiert, dass Behauptungen über ein derzeitiges Massensterben auf wackeligen Annahmen beruhen könnten, wenn Daten aus früheren Aussterbeereignissen auf die Zukunft projiziert werden, ohne die Unterschiede zwischen den Faktoren zu berücksichtigen, die das Aussterben in der Vergangenheit, Gegenwart und Zukunft beeinflussen. Die in der Fachzeitschrift Proceedings of the Royal Society of London veröffentlichte Studie ist die erste, welche die Raten, Muster und Ursachen des jüngsten Artensterbens bei Pflanzen und Tieren analysiert.
Für ihre Studie analysierten Saban und Wiens die Häufigkeit und Muster der jüngsten Aussterbefälle, insbesondere bei 912 Pflanzen- und Tierarten, die in den letzten 500 Jahren ausgestorben sind. Insgesamt wurden Daten von fast 2 Millionen Arten in die Analyse einbezogen.
„Wir haben festgestellt, dass sich die Ursachen für diese jüngsten Aussterbefälle stark von den Bedrohungen unterscheiden, denen Arten derzeit ausgesetzt sind“, sagte Wiens, Professor für Ökologie und Evolutionsbiologie. „Das macht es problematisch, diese vergangenen Aussterbemuster auf die Zukunft zu übertragen, da sich die Ursachen rapide verändern, insbesondere im Hinblick auf den Verlust von Lebensräumen und den Klimawandel.“
Laut Saban und Wiens stammen die direktesten Informationen über den Artenverlust aus den jüngsten Aussterbeereignissen der letzten fünf Jahrhunderte. Studien, die diese Muster auf die Zukunft extrapolieren, gehen jedoch in der Regel davon aus, dass die jüngsten Aussterbeereignisse das aktuelle Aussterberisiko vorhersagen und über Zeiträume und Lebensräume hinweg homogen sind, argumentieren die Autoren.
„ Zu unserer Überraschung sind vergangene Aussterbeereignisse schwache und unzuverlässige Prädiktoren für das aktuelle Risiko, dem eine bestimmte Tier- oder Pflanzengruppe ausgesetzt ist“, sagte die Hauptautorin Saban, die kürzlich sein Studium an der U of A abgeschlossen hat und derzeit Doktorandin an der Harvard University ist.
Die Aussterberaten variierten stark zwischen den Gruppen, wobei Aussterbeereignisse am häufigsten bei Weichtieren wie Schnecken und Muscheln sowie bei Wirbeltieren auftraten, während sie bei Pflanzen und Arthropoden relativ selten waren. Die meisten Aussterbefälle betrafen Arten, die auf isolierten Inseln wie den Hawaii-Inseln lebten. Auf den Kontinenten betrafen die meisten Aussterbefälle Süßwasser-Lebensräume. Das Aussterben auf Inseln stand meist im Zusammenhang mit invasiven Arten, während der Verlust von Lebensräumen die wichtigste Ursache (und aktuelle Bedrohung) in kontinentalen Regionen war. Viele Arten schienen auf Inseln aufgrund von Raubtieren und Konkurrenten auszusterben, die vom Menschen eingeschleppt wurden, wie Ratten, Schweine und Ziegen.
Etwas überraschend stellten die Forscher fest, dass es in den letzten 200 Jahren keine Anzeichen für eine Zunahme des Artensterbens aufgrund des Klimawandels gab.
„Das bedeutet nicht, dass der Klimawandel keine Bedrohung darstellt“, sagte Wiens. „Es bedeutet lediglich, dass das Artensterben in der Vergangenheit nicht die aktuellen und zukünftigen Bedrohungen reflektiert.“
Die Autoren berücksichtigten auch die Gefährdungsstufen – zum Beispiel „bedroht“, „gefährdet“ oder „nicht gefährdet“ – für 163.000 Arten, wie sie von der Internationalen Union für Naturschutz bewertet wurden.
„Der aktuelle Gefährdungsgrad gibt uns wahrscheinlich den besten Hinweis darauf, was derzeit geschieht und in naher Zukunft geschehen könnte“, sagte Wiens. „Wir haben festgestellt, dass sich die Muster der heutigen Bedrohungen von denen vergangener Aussterbeereignisse unterscheiden. Beispielsweise sind die meisten ausgestorbenen Arten Weichtiere und Wirbeltiere auf Inseln, die durch invasive Arten ausgerottet wurden, während die meisten bedrohten Arten heute Festlandarten sind, die mit der Zerstörung ihres Lebensraums konfrontiert sind.“
Saban sagte, sie wolle nicht, dass die Studie „als Freibrief für die Menschen verstanden wird“, dass menschliche Aktivitäten keine bedeutende und dringende Bedrohung für viele Arten darstellen.
„Der Verlust der biologischen Vielfalt ist derzeit ein großes Problem, und ich glaube, wir haben noch nicht alle Auswirkungen gesehen, die er haben könnte“, sagte sie. „Aber es ist wichtig, dass wir präzise darüber sprechen und dass unsere Wissenschaft rigoros vorgeht, wenn es darum geht, diese Verluste detailliert zu beschreiben und zukünftige Verluste zu verhindern.“
Im Gegensatz zu vielen anderen Studien hat die Studie ergeben, dass sich die Aussterberate von Arten nicht rapide beschleunigt.
„Wir zeigen, dass die Aussterberate nicht, wie viele Menschen behaupten, in der Gegenwart schneller wird, sondern schon vor vielen Jahrzehnten ihren Höhepunkt erreicht hat“, sagte Wiens.
Bei einigen Gruppen, wie Arthropoden, Pflanzen und Landwirbeltieren, sei die Aussterberate in den letzten 100 Jahren tatsächlich zurückgegangen, insbesondere seit Beginn des 20. Jahrhunderts, fügte er hinzu. Einer der Gründe für den Rückgang der Aussterberate sei, „dass viele Menschen hart daran arbeiten, Arten vor dem Aussterben zu bewahren. Und wir haben Belege aus anderen Studien, dass Investitionen in den Naturschutz tatsächlich Wirkung zeigen.“
Laut Saban entstand die Studie aus der Motivation heraus, sich von Weltuntergangsszenarien zu distanzieren.
„Wenn wir sagen, dass das, was gerade passiert, mit einem Asteroideneinschlag auf der Erde vergleichbar ist, dann wird das Problem unüberwindbar“, sagte sie. „Indem wir die Daten auf diese Weise betrachten, hoffen wir, dass unsere Studie zu einem besseren Verständnis des Verlusts der biologischen Vielfalt beiträgt und uns hilft, bessere Wege zu finden, um diesem Problem zu begegnen.“
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Erinnern Sie sich noch daran, als man Ihnen sagte, der Klimawandel würde zu einem „Massen-Aussterben” führen? Vergessen Sie es! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Dankbarkeit für die Klima- und Energie-Realität
[Alle Hervorhebungen im Original. A. d. Übers.]
Wofür wir in Bezug auf Klima, Energie, Lebensstandard und menschlichen Wohlstand dankbar sein sollten:
Jedes Jahr, wenn die Cranberry-Sauce fest wird und im Hintergrund das Footballspiel läuft, wird uns gesagt, wir sollten „über das nachdenken, was wirklich wichtig ist“. Das ist fair genug. Aber selten schlägt jemand vor, über etwas nachzudenken, das für unser modernes Leben viel grundlegender ist: die außergewöhnliche Umweltstabilität, den Energieüberfluss und den menschlichen Fortschritt, welche die Grundlage für jeden Komfort bilden, den wir heute genießen.
Stattdessen hören wir von apokalyptischen Wendepunkten, einer „unbewohnbaren“ Zukunft und der Andeutung, dass Ihr Thanksgiving-Truthahn bald illegal sein könnte, wenn er nicht mit Insektenprotein und guten Absichten aufgezogen wurde. Aber hinter all dem Lärm erzählen die Daten eine ganz andere Geschichte – eine, die echte Dankbarkeit verdient.
Im Folgenden finden Sie eine ausführliche Reflexion – ja, eine lange, wie Sie es von mir erwarten würden –, die sich mit den Dingen befasst, für die wir in Bezug auf Klima, Energie, Lebensstandard und menschlichen Wohlstand dankbar sein sollten, untermauert mit Beweisen, historischen Perspektiven und gerade genug Witz, um das Ganze verdaulich zu halten.
1. Ein Klimasystem, das weitaus stabiler ist als allgemein angenommenWenn man sich nur auf Schlagzeilen verlässt, könnte man meinen, wir lebten in einem ständigen Umweltnotstand. Die Ozeane steigen von Minute zu Minute. Stürme sind „beispiellos“ (ein Wort, das die Presse mittlerweile wie Salz verwendet – ob nötig oder nicht). Die Temperaturen steigen im perfekten Gleichschritt mit den Worst-Case-Modellen.
Aber die wahre Klimageschichte ist langsamer, nuancierter und – ich wage zu sagen – viel beruhigender.
Das Klima gerät nicht außer Kontrolle – es verändert sich allmählich
Was zeigen die Langzeitdaten tatsächlich?
• Eine Erwärmung hat stattgefunden, ja – aber in einem Ausmaß, das weit unter den frühen alarmistischen Prognosen liegt.
• Langfristige historische Rekonstruktionen zeigen uns, dass die heutigen Temperaturschwankungen durchaus im Rahmen der natürlichen Schwankungen liegen.
• Aufzeichnungen über vergangene Warmzeiten – die mittelalterliche Warmzeit, die römische Warmzeit und das Holozän-Klimaoptimum – erinnern uns daran, dass Wärme in der Geschichte immer eine gute Sache für das Gedeihen der Menschheit war.
Mit anderen Worten: Die Erde steht nicht am Rande einer Katastrophe. Sie verhält sich so, wie sie es immer getan hat: mit Schwankungen, die durch Sonnenzyklen, Meeresströmungen, vulkanische Aktivitäten und ja, auch durch menschlichen Einfluss geprägt sind – aber nicht in der oft behaupteten Art und Weise.
Die Zahl der klimabedingten Todesfälle ist drastisch zurückgegangen.
Dies ist eine der am wenigsten beachteten Entwicklungen in der Geschichte der Menschheit.
Roger Pielke Jr. und andere (Lomborg, siehe unten) haben gezeigt, dass klimabedingte Todesfälle (Dürren, Überschwemmungen, Stürme, Hitze, Kälte) seit Beginn des 20. Jahrhunderts um über 95 % zurückgegangen sind.
Warum?
Nicht weil das Wetter besser geworden ist.
Sondern weil wir besser geworden sind.
Bessere Vorhersagen. Bessere Infrastruktur. Bessere Notfallmaßnahmen. Bessere Hygiene. Bessere Landwirtschaft.
Der Fortschritt der Menschheit – nicht das CO₂ in der Atmosphäre – ist der entscheidende Klimafaktor für das Überleben der Menschheit.
CO₂: Kein Dämon, sondern NahrungsgrundlageWenn Sie etwas haben möchten, wofür Sie wirklich dankbar sein können, schauen Sie sich die Daten der NASA an: Die Erde ist in den letzten mehr als 30 Jahren dramatisch grüner geworden, wobei die Zunahme der Vegetation dem Neuzuwachs eines ganzen Kontinents an Grünfläche entspricht.
Das ist keine Vermutung, sondern durch Satellitenbilder belegt.
Pflanzen lieben CO₂. Je mehr davon vorhanden ist, desto besser gedeihen sie. Landwirte wissen das. Botaniker wissen das. Tatsächlich pumpen kommerzielle Gewächshäuser CO₂ in ihre Anlagen, um das Wachstum zu fördern.
Die Ironie ist verblüffend:
Das gleiche Molekül, das Aktivisten als Umweltverschmutzung bezeichnen, treibt auch den weltweiten Erfolg der Landwirtschaft voran. Ein Beispiel dafür ist der weltweite Weizenertrag:
2. Energie im Überfluss: Die wahre Grundlage des modernen LebensIn politischen Kreisen ist es derzeit in Mode, über das „Auslaufen fossiler Brennstoffe“ zu sprechen – meist von Menschen, die vor Mikrofonen, unter Scheinwerfern und in klimatisierten Räumen sprechen, die alle mit fossilen Brennstoffen betrieben werden.
Aber die Wahrheit ist:
Die moderne Zivilisation verdanken wir reichlich vorhandener, erschwinglicher Energie.
Krankenhäuser. Kühlung. Rechenzentren. Sauberes Wasser. Produktion. Transport. Heizung.
Ohne zuverlässige, verfügbare Energiequellen würde nichts davon funktionieren.
Fossile Brennstoffe liefern aus gutem Grund immer noch 80 % der weltweiten Energie:
Sie bieten:
• Energie-Sicherheit
• Erschwinglichkeit
• Transportabilität
• Sie sind auf Abruf verfügbar und
• skalierbar auf Milliarden von Menschen
Intermittierende Quellen – Wind und Sonne – können sie ohne massive Reserve, Landnutzung und teure Infrastruktur einfach nicht ersetzen.
Erdgas hat mehr zur Emissionsreduzierung beigetragen als die Politik:
Dies ist der Teil, über den Klimaaktivisten nur ungern sprechen.
Dank der Fortschritte in der Erdgasförderung haben die USA:
• die CO₂-Emissionen in den letzten zwei Jahrzehnten stärker gesenkt als jedes andere Land
• die Luftverschmutzung drastisch reduziert
• die Energie-Versorgungssicherheit verbessert
Nicht durch Regulierung.
Nicht durch Subventionen.
Sondern durch vom Markt diktierte Innovation.
Kernkraft: Der vergessene HeldDie Kernenergie bleibt:
• Die zuverlässigste emissionsarme Energiequelle
• Die Stromquelle mit dem geringsten Flächenverbrauch
• ist in der Lage, jahrzehntelang rund um die Uhr zu laufen
• ist gemessen an den Sterblichkeitsdaten sicherer als fast jede andere große Industrie
Wenn die Energiepolitik sich eher an Fakten als an Ideologien orientieren würde, würden Kernkraftwerke wie Supermärkte aus dem Boden schießen.
3. Lebensstandard: Besser als jemals zuvor in der Geschichte der MenschheitDas vergisst man leicht, weil moderne Annehmlichkeiten so selbstverständlich sind, dass wir sie kaum noch wahrnehmen.
Aber treten Sie einen Schritt zurück und betrachten Sie das Gesamtbild:
Wir leben in einer Zeit beispiellosen menschlichen Wohlstands.
Man bedenke:
• Die Lebenserwartung ist weltweit so hoch wie nie zuvor.
• Die Kindersterblichkeit ist so niedrig wie nie zuvor.
• Milliarden Menschen haben Zugang zu sauberem Wasser und sanitären Einrichtungen.
• Die Nahrungsmittelproduktion hat ein Niveau erreicht, das vor einem Jahrhundert noch unvorstellbar war.
• Die Luftqualität in den Industrienationen ist heute deutlich besser als in den 1970er Jahren.
Ein Großteil dieser Fortschritte hängt direkt mit der Verfügbarkeit von Energie und dem technologischen Fortschritt zusammen – nicht mit der Klimapolitik.
Das Wetter spielt eine geringere Rolle denn je
Moderne Infrastruktur schützt uns vor den Elementen.
Klimaanlagen bewahren Millionen Menschen vor dem Tod durch Hitze.
Heizungen bewahren Millionen Menschen vor dem Tod durch Kälte (der weltweit immer noch weitaus häufiger auftritt als der Tod durch Hitze).
Das Wetter, einst eine tägliche Bedrohung, ist dank besserer Erkennungs- und Warnsysteme heute nur noch eine beherrschbare Unannehmlichkeit.
Um es humorvoll auszudrücken:
Ihre Vorfahren hatten Angst, zu erfrieren.
Sie machen sich Sorgen, ob Ihr Handy einen Sturz in den Pool überstehen wird.
Das nennt man Fortschritt.
4. Menschlicher Wohlstand: Das wirkliche Wunder, das es zu feiern giltWir nehmen Wohlstand oft als selbstverständlich hin, weil er sich allmählich eingestellt hat. Aber wenn man einen Schritt zurücktritt, sieht man, dass die letzten 150 Jahre eine Transformation darstellen, die in der Geschichte der Menschheit beispiellos ist.
Milliarden Menschen sind der extremen Armut entkommen
Laut Weltbank ist die weltweite extreme Armut trotz des rasanten Bevölkerungswachstums von 90 % im Jahr 1820 auf heute unter 10 % gesunken.
Diese Verbesserung wurde nicht durch Solarzellen und Kohlenstoff-Steuern befeuert.
Sie wurde durch erschwingliche Energie, Industrialisierung und wirtschaftliche Freiheit angetrieben.
Die landwirtschaftliche Produktivität ist sprunghaft gestiegen.Dank:
• Mechanisierung
• Düngemitteln
• Bewässerung
• Pflanzenbauwissenschaft
• CO₂-Düngung
Die Welt produziert mehr Nahrungsmittel, zuverlässiger und mit weniger Arbeitsaufwand als je zuvor.
So haben wir Milliarden Menschen ernährt, ohne den Planeten in Ackerland zu verwandeln.
Freiheit von Mobilität, Handel und InformationEnergie macht alles mobil:
• Waren
• Menschen
• Medizin
• Ideen
Eine globale medizinische Lieferkette lässt sich nicht mit einer Windkraftanlage betreiben.
Der internationale Handel kann nicht mit batteriebetriebenen Frachtschiffen abgewickelt werden – zumindest nicht in den nächsten Jahrzehnten.
Energie ist das Kreislaufsystem des globalen Wohlstands.
5. Der menschliche Erfindergeist: Innovation statt AngstWenn es eine Sache gibt, die die Geschichte beweist, dann diese:
Menschen sind viel besser darin, Probleme zu lösen, als Katastrophen vorherzusagen.
Vorhersagen über den Untergang der Umwelt haben sich seit über 50 Jahren nicht bewahrheitet:
• Massenhungersnot in den 1980er Jahren
• „Eisfreie Arktis bis 2013”
• Peak Oil
• Das Ende des Schnees
• Städte unter Wasser bis 2020
• Immer schlimmere Hurrikane
Diese Vorhersagen wurden nicht ignoriert – sie waren falsch.
In der Zwischenzeit kam es zu echten Fortschritten durch Innovationen:
• Bessere Vorhersagen und Warnungen
• Bessere Infrastruktur
• Bessere landwirtschaftliche Verfahren
• Bessere Energiesysteme
• Besseres wissenschaftliches Verständnis
Wir haben allen Grund zu der Annahme, dass der Erfindungsreichtum der Menschen weiterhin die Umweltrisiken übertreffen wird, insbesondere wenn die Politik dem nicht im Wege steht.
Vor allem danke ich für: Wohlstand, der auf der Realität basiert!
An diesem Erntedankfest sollten wir nicht für „Klimaschutzmaßnahmen“ oder „Netto-Null-Verpflichtungen“ danken – politische Slogans mit schlechter Erfolgsbilanz –, sondern für Dinge, die real, messbar und historisch beispiellos sind:
• Ein bemerkenswert stabiles Klima
• Geringere klimabedingte Sterblichkeit
• Ein grünerer Planet
• Reichlich vorhandene, erschwingliche Energie
• Technologische Widerstandsfähigkeit
• Unübertroffener Lebensstandard
• Beispielloser globaler Wohlstand
• Menschliche Innovationen, welche die Untergangsprognosen immer wieder übertreffen
Dies sind keine Phrasen. Dies sind Fakten, die auf Daten, Geschichte und Beobachtungen beruhen!
Und sie sind es wert, gefeiert zu werden – denn sie sind die Grundlage für alles, was wir heute genießen, vom Essen auf unseren Thanksgiving-Tischen über die Wärme in unseren Häusern bis hin zur Freiheit, die vorherrschenden Narrative zu hinterfragen.
Vielen Dank also, liebe Leserinnen und Leser. Möge Ihr Tag mit Wärme, Dankbarkeit, Freude, Fülle und guter Laune gesegnet sein.
Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.
Link: https://climaterealism.com/2025/12/thankfulness-for-climate-and-energy-reality/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Dankbarkeit für die Klima- und Energie-Realität erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Eine Danksagung an die globale Erwärmung und CO₂
Vijay Jayaraj
Was wäre, wenn wir Thanksgiving mit einer Hommage an die globale Erwärmung und den relativen Überschuss an Kohlendioxid (CO₂) in unserer Atmosphäre feiern würden? Ein unerhörter und skandalöser Gedanke, nicht wahr? Vorzuschlagen, dass wir das ehren, was laut den globalen Eliten und ihren gefügigen Medien den sicheren Untergang herbeiführt. Doch genau das verlangt ein vernünftiges Denken.
Vor nur 50 Jahren, in den 1970er Jahren, verbreiteten Nachrichtenautoren düstere Warnungen vor einer bevorstehenden Eiszeit. Einige Wissenschaftler sprachen von einer Verdunkelung des Planeten und der Notwendigkeit sofortiger, drastischer Maßnahmen, um eine Rückkehr der Kontinentalgletscher zu verhindern.
Zumindest hat die Angst vor einer durch Kälte verursachten Katastrophe eine gewisse historische Grundlage in den Kämpfen vergangener Gesellschaften während Kälteperioden. Die Kleine Eiszeit, die von etwa 1300 bis 1850 dauerte, war eine Zeit allgegenwärtiger, anhaltender Kälte, in der laut den Berichten von Historikern „alles, was über der Erde wuchs, starb und verhungerte“.
Auf der zugefrorenen Themse in London fanden Frostmärkte statt. Ernteausfälle wurden zur Routine und führten zu weit verbreiteter Hungersnot, Armut und politischer Instabilität auf der gesamten Nordhalbkugel. Dies war keine theoretische Krise, sondern eine brutale Realität, in der ein leichter Rückgang der globalen Temperaturen das Überleben ganzer Gemeinschaften bedrohte. Die Menschen, die während der Kleinen Eiszeit gegen Hunger und Krankheiten kämpften, hätten alles für wärmere Bedingungen gegeben.
Der typische amerikanische Haushalt denkt selten, wenn überhaupt, über diesen langen Bogen der Klimageschichte nach, wenn er ein Thanksgiving-Essen zubereitet. Die Lebensmittel werden in Geschäften gekauft, die nach der Ernte aus allen möglichen Regionen mit Produkten überfüllt sind – Äpfel aus kälteren Regionen und Trauben aus wärmeren. Einige Gemüsesorten werden lokal angebaut, andere legen einen langen Weg über Kontinente zurück, bevor sie den Verbraucher erreichen.
Der erste Schritt dieser Kette – das Pflanzenwachstum – profitiert von der Wärme des heutigen Klimas, das weitaus milder ist als das der Kleinen Eiszeit. Dennoch herrscht heute Alarmstimmung wegen einer vermeintlich zerstörerischen Wärme, eine Sorge, die im Widerspruch zur Geschichte steht, in der wiederholte Warmzeiten in der Vergangenheit Wohlstand und blühende Zivilisationen hervorgebracht haben. Dazu gehörten die Römische Warmzeit vor 2000 Jahren und die mittelalterliche Warmzeit in jüngerer Zeit. Während beider Perioden wurden Getreide in Gebieten angebaut, in denen es dafür heute zu kalt ist.
Die moderne Geschichte des Überflusses ist eng mit der stillen, aber dramatischen Begrünung der Erde seit dem 20. Jahrhundert verbunden. Satellitendaten bestätigen, dass die Welt seit den 1980er Jahren grüner geworden ist, insbesondere in ariden und semiariden Regionen. Warum? Die Hauptursachen sind höhere Kohlendioxidwerte in der Atmosphäre aufgrund industrieller Emissionen und ein natürlich wärmeres Klima.
Kohlendioxid ist Pflanzennahrung und neben Wasser und Sonnenlicht ein wesentlicher Bestandteil der Photosynthese. Die große Ironie des Klima-alarmistischen Märchens besteht darin, dass der Anstieg des CO₂-Gehalts eine der vorteilhaftesten Umweltveränderungen der jüngeren Geschichte ausgelöst hat: florierende Ökosysteme und Rekordernteerträge.
Ebenfalls wichtig für die Nahrungsmittelproduktion sind moderne Düngemittel – die meist aus Erdgas hergestellt werden –, die den für ertragreiche Kulturen notwendigen Stickstoff liefern.
Energiedichte Brennstoffe wie Kohle, Öl und Erdgas – die als CO₂-Quellen verteufelt werden – sind nach wie vor das Rückgrat der Lebensmittelverteilung, insbesondere in den Industrieländern. Sie treiben Bewässerungspumpen, Düngemittelfabriken, Lieferflotten, Landmaschinen und Kühlsysteme an. Würde man diese Energiequellen abschaffen, würden die Getreidespeicher schrumpfen. Hungersnöte wären dann nicht mehr nur ein Relikt der Geschichte, sondern stünden vor der Tür.
Was ist mit den Warnungen, dass eine Erwärmung des Planeten die globale Ernährungssicherheit zerstören wird? Diese Behauptung hält einer genauen Prüfung nicht stand. In den letzten 40 Jahren sind die Erträge von Grundnahrungsmitteln wie Weizen, Mais und Reis sprunghaft gestiegen. Hungersnöte, die aufgrund regionaler Konflikte oder korrupter Regierungen leider immer noch vorkommen, sind weltweit nicht mehr die Regel. Die Welt versorgt heute eine Bevölkerung von 8 Milliarden Menschen mit einem höheren Lebensstandard als je zuvor.
Warum sind dann so viele Menschen davon überzeugt, dass jedes ungewöhnliche Wetterereignis das Ende der Welt bedeutet? Die Antwort liegt in der unerbittlichen Fokussierung der Medien auf Risiken, gepaart mit einer verzerrten Darstellung der Naturgeschichte. Das Klima der Erde hat sich schon immer verändert – in Zeiträumen von Jahrzehnten bis Jahrtausenden. Megadürren, katastrophale Überschwemmungen und ungewöhnliche Hitze- und Kälteperioden sind nichts Neues.
Also, liebe Thanksgiving-Feiernde, denkt an diese einfache Wahrheit: Vieles verdanken wir der Wärme der Sonne, der unsichtbaren Arbeit des Kohlendioxids und den fossilen Brennstoffen, die dafür sorgen, dass die Fülle auf unserem Tisch vom Feld zum Festmahl gelangt.
This commentary was first published at The Blaze November 27.
Vijay Jayaraj is a Science and Research Associate at the CO₂ Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India.
Link: https://clintel.org/a-thanksgiving-tribute-to-global-warming-and-CO₂/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Eine Danksagung an die globale Erwärmung und CO₂ erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Analyse der wirtschaftsschädigenden Netto-Null-Pläne Schottlands
Not a lot of People know that, Gastbeitrag von Doug Brodie, 24. November 2025
Präambel
Dies ist meine Antwort auf die Konsultationsaufforderung (bis zum 29.01.2026) zum „ Schottlands Entwurf des Klimaschutzplans: 2026–2040 “. Gleichzeitig dient sie als meine Analyse der wirtschaftsschädigenden, landesweiten Klimaneutralitätsstrategie Großbritanniens. Der 31-seitige Entwurf ist hier verfügbar, alle relevanten Dokumente finden Sie hier .
Einführung
Seit den 1990er Jahren engagiere ich mich gegen das, was ich heute als Klimawandel-Schwindel bezeichne. Im Laufe der Jahre habe ich zahlreiche Abgeordnete des britischen Parlaments und des schottischen Parlaments sowie andere Persönlichkeiten angeschrieben und versucht, sie davon zu überzeugen, dass ihre Klimapolitik und die damit verbundenen Energiepolitiken verfehlt, sinnlos und extrem schädlich sind.
Trotz all meiner Bemühungen erhielt ich nie eine glaubwürdige Antwort, die ihre Politik rechtfertigte. Die Antworten waren typischerweise reine Standardfloskeln wie: „ Wir müssen eine Führungsrolle im Klimaschutz übernehmen … die Wissenschaft ist sich einig … 97 % der Wissenschaftler stimmen zu … wir befinden uns in einem Klimanotstand … erneuerbare Energien sind günstig, sauber und sicher “.
Mit anderen Worten: nichts als Desinformation, Verzerrung und Leugnung wahrer Wissenschaft und Technik. Jahrzehntelange Antworten von Politikern, die stets der offensichtlich unehrlichen, „ offiziell genehmigten “ Erzählung entsprechen, beweisen, dass die Netto-Null-Agenda aus einem finsteren, vom Tiefen Staat gesteuerten Grund von Anfang an eine global koordinierte Täuschung war, um die Öffentlichkeit irrezuführen und zu täuschen – genau wie Covid.
Zusammenfassung
Netto-Null hat uns exorbitante Energiekosten beschert, die die Wirtschaft ruinieren, unsere Industriekapazitäten rapide verringern und das Wirtschaftswachstum ersticken – alles ohne jeglichen Nutzen. Das muss gestoppt werden.
Die schottische Regierung hätte ihr eigenes Netto-Null-Projekt gar nicht erst starten sollen. Energie ist in Schottland nicht einmal eine Angelegenheit der eigenen Regierung, und jeglicher Fortschritt (oder dessen Ausbleiben) hängt fast ausschließlich von den Maßnahmen der britischen Regierung ab. Schottland ist in globalen Datenbanken, beispielsweise zu nationalen CO₂-Emissionen und Energieverbrauch, nicht erfasst, was die Fortschrittskontrolle erschwert.
Die Illusion, Schottland könne bis 2045 Klimaneutralität erreichen, beweist, dass das schottische Klimaneutralitätsprojekt ein bürokratisches Fiasko ist, das in einer Sackgasse endet. 16 Jahre nach Verabschiedung des schottischen Klimaschutzgesetzes stehen wir nun da, angeblich nur noch 20 Jahre Zeit, und haben einen hoffnungslos realitätsfernen Planentwurf, der sich lediglich bis 2040 erstreckt! Selbst die Liberaldemokraten, deren 72 Abgeordnete Anfang des Jahres allesamt für das selbstzerstörerische Klima- und Naturschutzgesetz stimmten , haben ihr scheinheiliges Ziel der Klimaneutralität bis 2045 auf das immer noch unrealistische Ziel bis 2050 verschoben.
Zukünftige Historiker werden es kaum glauben können, Schottland und so viele andere Länder wurden in einem derart umfassenden, die Gesellschaft umwälzenden Ausmaß von einer so offensichtlichen globalistischen Täuschung hereingelegt .
Die Abhängigkeit vom Vereinigten Königreich ist die Achillesferse des schottischen Netto-Null-Ziels, denn hoffentlich wird das britische Netto-Null-Ziel nach den nächsten Parlamentswahlen verworfen. Wenn die schottische Regierung klug ist, wird sie das endlose Gerede der COP30 ignorieren , die Rückkehr der IEA zur Realität im Energiebereich zur Kenntnis nehmen , den weltweit wachsenden Widerstand gegen Netto-Null-Emissionen bemerken , akzeptieren, dass das Konzept gescheitert ist, und ihre schädlichen Netto-Null-Pläne aufgeben.
Die ganze Geschichte finden Sie hier .
Teilen Sie dies:
Der Beitrag Analyse der wirtschaftsschädigenden Netto-Null-Pläne Schottlands erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Steigende Strompreise: Das fehlende Glied
Real Clear Energy, Von Jonathan Lesser, 20. November 2025
In letzter Zeit gab es zahlreiche Debatten über die Ursachen steigender Strompreise. Unter anderem wurden Rechenzentren , die den Strombedarf erhöhen, und die traditionelle Tarifregulierung, die den Energieversorgern angeblich zu hohe Gewinnmargen garantiert, als Gründe genannt. Andere Studien behaupteten wiederum, dass die steigenden Endkundenpreise durch subventionierte Wind- und Solarenergieerzeugung verursacht würden – eine Behauptung, die vehement zurückgewiesen wird von Befürwortern von Wind- und Solarenergie. Eine kürzlich von Forschern des Lawrence Berkeley National Laboratory durchgeführte Studie entlastete ebenfalls die Wind- und Solarenergie und behauptete, dass subventionierte, von Kunden installierte Solaranlagen die Strompreise in die Höhe trieben.
Tatsächlich tragen viele Faktoren zu den steigenden Strompreisen bei, insbesondere die rasanten Preisanstiege, die Haushalte und Unternehmen in den letzten fünf Jahren erlebt haben. Doch die verschiedenen Studien haben einen Schlüsselfaktor außer Acht gelassen: den veränderten Energiemix, da traditionelle fossile Kraftwerke und Kernkraftwerke durch Wind- und Solaranlagen ersetzt wurden.
Zwischen 2010 und 2024 stieg die US-amerikanische Stromerzeugungskapazität um rund 200.000 Megawatt (MW) bzw. gut 16 % von etwa 1,14 Millionen MW auf 1,33 Millionen MW. Im gleichen Zeitraum erhöhten sich die Stromverkäufe lediglich um etwa 5 %. Grundlegende ökonomische Prinzipien legen nahe, dass ein stärkeres Angebotswachstum als Nachfragewachstum tendenziell zu sinkenden Preisen führt. Doch das Gegenteil trat ein.
Hier ist der Grund: Fossile Kraftwerke und Kernkraftwerke sind „steuerbare“ Stromerzeugungsanlagen; sie arbeiten nach festgelegten Zeitplänen und können in manchen Fällen von Netzbetreibern so gesteuert werden, dass die Stromversorgung stets exakt dem Bedarf entspricht. Während Kernkraftwerke und die meisten Kohlekraftwerke typischerweise rund um die Uhr laufen, lassen sich viele Gaskraftwerke hingegen schnell ein- und ausschalten.
Wind- und Solarenergie lassen sich jedoch nicht bedarfsgerecht abrufen; sie liefern nur intermittierend Strom, nämlich dann, wenn die Sonne scheint und der Wind weht. Das ist problematisch, da Netzbetreiber nicht darauf zählen können, dass Wind- und Solarenergie bei Bedarf verfügbar ist, und daher zusätzliche Reservekapazitäten – in der Regel Gaskraftwerke – bereitstehen müssen [- und deren Betreiber für diesen stand-by Betrieb ebenfalls Vergütungen verlangen und bekommen müssen, denn sonst lohnt sich deren Betrieb gar nicht mehr].
Zwischen 2010 und 2024 wurden über 80.000 MW regelbare Kraftwerkskapazität stillgelegt. Im gleichen Zeitraum stieg die Erzeugungskapazität aus Wind- und Solarenergie um rund 240.000 MW. In den nächsten zwei Jahren werden weitere 20.000 MW regelbare Kraftwerkskapazität stillgelegt und durch mehr Windkraft, Solarenergie und Batteriespeicher ersetzt.
Der Verlust an steuerbarer Erzeugungskapazität ist auf mindestens drei Faktoren zurückzuführen. Erstens haben einige Bundesstaaten steuerbare Kraftwerke zur vorzeitigen Stilllegung gezwungen, wie beispielsweise das Kernkraftwerk Oyster Creek in New Jersey (2019) und das Kernkraftwerk Indian Point in New York (2021). Zweitens haben viele Bundesstaaten „Null-Emissions“-Vorgaben erlassen, die ihre Energieversorger zur Stilllegung ihrer Kohle- und Gaskraftwerke zwingen. Drittens haben großzügige staatliche Subventionen für Wind- und Solaranlagen die Strommärkte verzerrt. Oftmals steht so viel Wind- und Solarenergie zur Verfügung, dass die Großhandelspreise für Strom unter null fallen. Dies zwingt nicht subventionierte Kraftwerke, die ihre Produktion nicht abstellen können, dazu, für die Einspeisung ihres Stroms in den Markt zu bezahlen. Da die Häufigkeit dieser Strompreisspitzen zugenommen hat, wurden viele Kraftwerke stillgelegt, weil ihr Betrieb nicht mehr rentabel ist.
Die Stilllegung von bedarfsgesteuerten Kraftwerken bedeutet jedoch, dass Netzbetreibern weniger Ressourcen zur Verfügung stehen, wenn Bedarf besteht. Die Strompreise auf den Kapazitätsmärkten – die Erzeuger für ihre Verfügbarkeit vergüten und sie bei Nichtverfügbarkeit bestrafen – sind sprunghaft angestiegen. Beispielsweise schnellten die Marktpreise in der Juli-202X-Auktion des von PJM Interconnection verwalteten Kapazitätsmarktes – dem Netzbetreiber, der 13 Bundesstaaten im Mittelatlantikgebiet sowie den District of Columbia betreut und über 65 Millionen Menschen versorgt – um fast das Zehnfache in die Höhe, von 29 $/MW-Tag auf 270 $/MW-Tag. In der Juli-2025-Auktion stiegen die Preise weiter auf 329 $/MW-Tag und in der Region Washington D.C.-Maryland sogar auf über 400 $/MW-Tag. Diese höheren Kapazitätsmarktpreise bedeuten für Endkunden Milliarden von Dollar mehr Geld. Obwohl es bequem war, PJM zum Sündenbock zu machen , ist das Unternehmen nicht für die Politik zuständig; seine Aufgabe ist es, die Stromversorgung sicherzustellen.
Die von Befürwortern von Wind- und Solarenergie angestrebte Klimaneutralität wird nicht erreicht werden, wenn sie zu unerschwinglichem und unzuverlässigem Strom führt. Deshalb setzen Rechenzentrumsbetreiber auf Kernkraft, Erdgas und sogar Kohlekraftwerke, um ihren steigenden Strombedarf zu decken. Wären Wind-Solar-Batteriespeichersysteme eine kostengünstigere Alternative, würden sie diese zweifellos nutzen.
Da die Stromkosten die Verbraucher immer stärker belasten, sollten sich politische Entscheidungsträger mit den physikalischen und wirtschaftlichen Grenzen eines „grünen“ Stromnetzes auseinandersetzen. Und zwar bald.
Jonathan Lesser ist Senior Fellow am National Center for Energy Analytics . Sein neuer Bericht mit dem Titel „ Was treibt die höheren Strompreise im Einzelhandel an? “ wurde soeben veröffentlicht.
Der Beitrag Steigende Strompreise: Das fehlende Glied erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
BP gibt Wasserstoffanlage in Teesside auf
NOT A LOT OF PEOPLE KNOW THAT, Paul Homewood, Mit Dank an Ian Magness
Das war schon länger absehbar:
BP bereitet sich darauf vor, die Pläne zum Bau eines großen Wasserstoffprojekts in Teesside auf Eis zu legen – ein weiterer Rückschlag für Ed Milibands Klimaneutralitätspläne.
Laut Informationen des Telegraph wird BP seinen Antrag an die Regierung zum Bau des national bedeutsamen Projekts zurückziehen, da dieser mit separaten, von Sir Keir Starmer unterstützten Plänen zum Bau des größten Rechenzentrums Europas kollidierte.
Der Energieminister hat bereits zweimal eine Entscheidung darüber verzögert, ob die sogenannte Entwicklungsgenehmigung (Development Consent Order, DCO) erteilt werden soll, um mit der Produktion von „blauem“ Wasserstoff aus Erdgas zu beginnen und anschließend die Kohlenstoffemissionen abzuscheiden und zu speichern.
Eine Entscheidung war für Donnerstag, den 4. Dezember, erwartet worden, doch es heißt, BP habe seinen Antrag auf die DCO vor einer Bekanntgabe zurückgezogen.
Das H2Teesside-Projekt wurde 2021 von BP angekündigt und sollte bis 2030 mehr als 10 % eines Plans für ein sauberes Stromsystem realisieren.
Die ganze Geschichte gibt es hier.
Wasserstoff aus Gas zu gewinnen und ihn dann zu verbrennen, um Strom zu erzeugen, anstatt dasselbe Gas gleich zu verwenden, ist an sich schon verrückt.
Noch mehr Geld auszugeben und noch mehr von diesem Gas zu verschwenden, um in großen Anlagen Kohlenstoff abzuscheiden und dann in die Erde zu pressen , ist umso schlimmer.
Ohne massive Subventionen ist das unmöglich, und ich vermute, BP hat die Zeichen der Zeit erkannt. Da das Interesse an Netto-Null schwindet und die Öffentlichkeit allmählich die Realität erkennt, befürchtet BP, am Ende auf einem unbrauchbaren Produkt sitzen zu bleiben.
https://wattsupwiththat.com/2025/12/04/bp-abandon-teesside-hydrogen-plant/
Der Beitrag BP gibt Wasserstoffanlage in Teesside auf erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Kosten für Netto-Null wurden um „Hunderte von Milliarden“ unterschätzt.
Net-Zero-watch, Pressemitteilung, 29. Oktober 2025, verfasst vom NZW-Team
Milibands Plan für saubere Energie steckt in der Krise, da die Prognosen für die Windkraftproduktion drastisch gekürzt wurden.
Die Kampagnengruppe Net Zero Watch sieht sich in ihrer langjährigen Kampagne, das Ministerium für Energiesicherheit und Netto-Null (DESNZ) und den Klimawandelausschuss dazu zu bringen, glaubwürdige Schätzungen der Kosten und der Leistung erneuerbarer Energien in ihrer Arbeit zu verwenden, bestätigt.
Gestern Abend wurde bekannt, dass das Ministerium seine Schätzungen zur Leistung von Offshore- und Onshore-Windparks stillschweigend um mehr als ein Viertel reduziert hat, und behauptete, dies sei durch „neue Modellrechnungen“ veranlasst worden.
Dieses jüngste Eingeständnis von DESNZ kommt für Energieminister Ed Miliband zum denkbar ungünstigsten Zeitpunkt, da er bereits wegen der Glaubwürdigkeit seiner „Clean Power 2030“-Initiative zur Dekarbonisierung des Stromnetzes in den nächsten fünf Jahren zunehmend unter politischem, industriellem und öffentlichem Druck steht:
- Analysten der Windenergiebranche warnen, dass sein Budget von 1,08 Milliarden Pfund für die bevorstehende Subventionsauktion bei weitem nicht ausreicht, um die erforderliche Windkraftkapazität zu sichern;
- Das Tony Blair Institute hat die Labour-Partei dringend aufgefordert , das Ziel ganz aufzugeben, da man befürchtet, es werde die Systemkosten in die Höhe treiben, die Zuverlässigkeit schwächen und das Wirtschaftswachstum bremsen.
- Der Ökonom von Ember, der hinter dem Wahlversprechen der Labour-Partei stand, die Stromrechnung um 300 Pfund zu senken, hat nun Zweifel daran geäußert, ob überhaupt Einsparungen erzielt werden können.
- Die größten Energieversorger Großbritanniens haben dem Parlament mitgeteilt , dass selbst bei kostenlosem Gas bis 2030 die stark steigenden Netz- und Ausgleichskosten die Stromrechnungen weiterhin schmerzhaft hoch halten würden; und
- Eine Umfrage von More in Common ergab , dass drei Viertel (75 %) der britischen Wähler der Meinung sind, die Regierung sei am meisten für die hohen Energiekosten der Haushalte verantwortlich.
Andrew Montford, Direktor von Net Zero Watch, sagte:
„Das verspätete Eingeständnis von DESNZ, fiktive Produktionszahlen für Windparks verwendet zu haben, ist zwar zu begrüßen, aber es bleibt noch ein langer Weg. Selbst die revidierten Zahlen sind viel zu hoch, und die unplausiblen Kostenangaben wurden längst durch harte Fakten widerlegt.“
Herr Montford weist darauf hin, dass alle offiziellen Kostenschätzungen für die Erreichung von Netto-Null daher grob untertrieben sind.
„Wenn DESNZ, NESO, das OBR und der Klimawandelausschuss glaubwürdige Zahlen zu Kosten und Leistung von Windparks verwenden würden, wären die Kosten für die Erreichung von Netto-Null im Jahr 2050 um Hunderte von Milliarden Pfund höher. Das Netto-Null-Konzept wurde auf einem Fundament aus Unwahrheiten errichtet.“
https://www.netzerowatch.com/all-news/w1jj0vm1zdobaj5tydr9mr9lc7qesd
Der Beitrag Die Kosten für Netto-Null wurden um „Hunderte von Milliarden“ unterschätzt. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Trump will die Öl- und Gas Ressourcen vor den Küsten heben, um die Brennstoffkosten zu senken – die Demokraten sind dagegen
Audrey Streb, DCNF-Energiereporterin, 21. November 2025
Das US-Innenministerium (Department of the Interior, DOI) hat am Donnerstag seinen Vorschlag zur Öffnung großer Küstengewässer für Öl- und Gasbohrungen vorgestellt. DOI wies das Bureau of Ocean Energy Management (BOEM) am Donnerstag an, die notwendigen Schritte einzuleiten, um das von Ex-Präsident Joe Biden für den Zeitraum 2024–2029 geplante Öl- und Gasleasingprogramm zu stoppen. Der von Trump genehmigte, umfassende Ersatzplan sieht die Erschließung von 1,27 Milliarden Acres (ca. 514 Millionen Hektar) an geeigneten Fördergebieten vor.
Die Biden-Regierung hatte ein umfassendes Verbot von Offshore-Bohrungen verhängt und einen rekordniedrigen „Nicht-zu-verpachten-Plan“ festgelegt hatte, drängt die Trump-Regierung nun auf die Wiederaufnahme der Erschließung von Bundesgebieten und -gewässern. Der neue Vorschlag sieht Bohrungen vor den Küsten Alaskas, Kaliforniens und Floridas vor.
Der demokratische Gouverneur von Kalifornien, Gavin Newsom, hat sich vehement gegen die Idee von Ölbohrungen in den Gewässern des Golden State ausgesprochen. In Florida haben sich laut E&E News sogar einige Republikaner aus Florida gegen den Vorschlag ausgesprochen .
„Die Offshore-Öl- und -Gasförderung geschieht nicht über Nacht. Es braucht jahrelange Planung, Investitionen und harte Arbeit, bis die ersten Barrel auf den Markt kommen“, sagte Innenminister Doug Burgum am Donnerstag. „Die Biden-Regierung hat die Vergabe von Offshore-Öl- und -Gaslizenzen abrupt gestoppt und die langfristige Planung der amerikanischen Offshore-Produktion lahmgelegt. Indem wir die Entwicklung eines soliden, zukunftsorientierten Lizenzplans vorantreiben, stellen wir sicher, dass die amerikanische Offshore-Industrie stark bleibt, unsere Arbeitnehmer ihre Arbeitsplätze behalten und unser Land auch in den kommenden Jahrzehnten energiepolitisch führend bleibt.“
(Siehe auch: Exklusiv: Trumps Regierung torpediert Bidens Öl- und Gasreform)
- Gouverneur Gavin Newsom (@CAgovernor) November 2025
- Donald Trumps idiotischer Vorschlag, die Küsten Kaliforniens an seine Geldgeber aus der Ölindustrie zu verkaufen, ist gescheitert.
- Wir werden nicht tatenlos zusehen, wie unsere Küstenwirtschaft und unsere Gemeinden gefährdet werden. https://t.co/ZMZql40nIS
Kalifornien könnte bald mit einer Gaskrise konfrontiert sein , da mehrere große Raffinerien ihre Schließung vorbereiten weil strengere Vorschriften für die Öl- und Gasindustrie in Kraft treten .
Floridas Republikaner, darunter Senator Rick Scott, Senatorin Ashley Moody, Abgeordneter Gus Bilirakis und Abgeordneter Vern Buchanan, erklärten gegenüber E&E News, dass sie den Bundesstaat weiterhin von der Ausweitung der Offshore-Öl- und Gasförderlizenzen ausschließen wollen. Scott und Bilirakis vermied es, den Vorschlag des Innenministeriums (DOI) zu verurteilen, während Buchanan und Moody weiterhin entschieden gegen jegliche Bohrungen vor Floridas Küsten sind.
„ Die heute von @SecretaryBurgum und dem @Interior veröffentlichten neuen Karten, die potenzielle neue Offshore-Ölbohrstellen im Golf von Amerika aufzeigen, sind SEHR besorgniserregend – und wir werden uns in dieser Angelegenheit direkt mit dem Ministerium auseinandersetzen“, schrieb Moody am Donnerstag auf X.
Präsident Donald Trump unterzeichnete am ersten Tag seiner Amtszeit eine Exekutivanordnung zur „Freisetzung amerikanischer Energieressourcen“ und rief den nationalen Energienotstand aus. Der „One Big Beautiful Bill Act“ (OBBBA) ging noch weiter und wies das Innenministerium (DOI) und das Bureau of Land Management (BLM) an, mehr Möglichkeiten zur inländischen Energieexploration zu schaffen und „die vierteljährlichen Pachtvergaben an Land in bestimmten Bundesstaaten unverzüglich wieder aufzunehmen“.
Trump hat die Förderung konventioneller Energiequellen betont, im Gegensatz zu Bidens restriktiver Politik gegenüber der Öl- und Gasindustrie. Biden fror am ersten Tag seiner Präsidentschaft die Exporte von Flüssigerdgas (LNG) ein, blockierte die Keystone-XL-Pipeline und stoppte die Genehmigung von Pachtverträgen durch das Bureau of Land Management (BLM). Stattdessen setzte er sich für eine grüne Energieagenda ein, die mit Milliarden an Subventionen , Krediten und Zuschüssen gefördert wird .
Branchenkenner des Energiesektors wie Mike Sommers, Präsident und CEO des American Petroleum Institute (API), begrüßten den Plan und erklärten : „Nach jahrelanger Verzögerung bei der Vergabe von Pachtverträgen durch die Bundesregierung ist dies ein historischer Schritt zur Erschließung der riesigen Offshore-Ressourcen unseres Landes.“
Alle Inhalte der Daily Caller News Foundation, einem unabhängigen und überparteilichen Nachrichtendienst, stehen seriösen Medienunternehmen mit großer Reichweite kostenlos zur Verfügung. Alle wiederveröffentlichten Artikel müssen unser Logo, den Namen des/der jeweiligen Reporters/Reporterin und dessen/deren Zugehörigkeit zur DCNF enthalten. Bei Fragen zu unseren Richtlinien oder einer möglichen Partnerschaft kontaktieren Sie uns bitte unter licensing@dailycallernewsfoundation.org.
Der Beitrag Trump will die Öl- und Gas Ressourcen vor den Küsten heben, um die Brennstoffkosten zu senken – die Demokraten sind dagegen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Gedankenexperiment: Könnte der Klimasupercomputer „Derecho“ des NCAR als Bitcoin-Miner seinen Lebensunterhalt verdienen?
WUWT, Anthony Watts
Da uns die Klimamodellierung nichts einbringt und es Anzeichen dafür gibt, dass das Unternehmen aufgrund veränderter Prioritäten verkleinert oder sogar eingestellt werden könnte, habe ich mich gefragt, ob die Anlage etwas Geld einbringen könnte, wenn sie auf Bitcoin-Mining umgestellt würde.
Vorbemerkung des Übersetzers
In dieser launigen und umfangreichen Ausarbeitung, geht Anthony Watts der Frage nach: Welchen Nutzen bringen die teuren Computer, die „Das Klima“ berechnen, aber meilenweit von der Realität entfernt sind? Könnte man diese Supercomputer nicht wirtschaftlicher für etwas anderes laufen lassen?
Bevor jetzt irgendwelche Klima-Fanatiker in Panik geraten: Nein, das NCAR* wird weder seine Wetter- und Klimamodelle über Bord werfen noch Derecho** in eine Krypto-Farm verwandeln. Sie werden die Einrichtung in Wyoming nicht mit blinkenden ASICs*** vollstopfen und einen Typen namens „Blade“ einstellen, der die Kühlkreisläufe überprüft. Aber die Frage ist gerade deshalb so interessant, weil sie etwas offenbart, was den meisten Menschen – selbst vielen, die sich mit Klimamodellierung beschäftigen – einfach nicht bewusst ist:
[* Das NCAR – National Center for Atmospheric Research ist ein US-amerikanisches Forschungsinstitut aus dem Bereich der Atmosphärenwissenschaften. Wikipedia.
** Dieser Supercomputer ist nach Derecho benannt. Der Name Derecho bezeichnet eine langgezogene, langlebige Gewitterlinie, die starke, geradlinige Winde verursacht und sich über mindestens 450 km erstreckt. Der Name stammt vom spanischen Wort für „gerade“ und beschreibt die Art der Zerstörung, die in einem breiten, geraden Pfad auftritt. Im Gegensatz zu Tornados, bei denen Trümmer in alle Richtungen wirbeln, fallen Bäume und Schutt bei einem Derecho in eine Richtung
*** ASIC ist ein für spezielle Anwendungen gebauter Chip, der seine Aufgaben wesentlich schneller und günstiger erledigen kann, als eine CPU {Computer Chip}, die für universellen Einsatz gebaut ist]
- Supercomputer sind beim Bitcoin-Mining völlig ungeeignet.
- besser: Monumental ungeeignet.
- noch besser: Spektakulär ungeeignet.
Die Gründe, warum sie so schlecht sind, sind jedoch interessanter als die Schlussfolgerung selbst, und sie sagen etwas darüber aus, wie wir Geld für Klimamodellierung im Vergleich zu realem Nutzen aufwenden.
Dann legen wir mal los.
Derecho: 19,87 Petaflops Kohlekraft – Klimaprognose
Das 2023 installierte NCAR-System „Derecho“ ist ein mit Strom von einem Kohlekraftwerk betriebener HPE Cray EX-Supercomputer mit einer Rechenleistung von 19,87 Petaflops, der in Cheyenne, Wyoming, steht – weil Kohlestrom dort günstiger ist. Seine Hauptaufgabe:
„Zur Unterstützung von Klima- und Wettermodellierung, Atmosphärenforschung und Erdsystemsimulation, um das Verständnis zukünftiger Klimaszenarien zu verbessern.“
– Systembeschreibung des NCAR
https://www.cisl.ucar.edu/ncar-wyoming-supercomputing-center
Dieser edle Zweck hat auch seinen Preis: Allein die Hardware kostet rund 35 Millionen Dollar, hinzu kommen laufende jährliche Betriebs- und Stromkosten in Millionenhöhe.
Derecho besteht aus:
- 2.488 Rechenknoten
- Zwei 64-Kern-AMD-EPYC-Milan-CPUs pro Knoten
- Insgesamt 323.712 CPU-Kerne
- Hinzu kommt eine GPU-Partition, obwohl NCAR seine Spezifikationen selten in den Vordergrund stellt, da GPUs für sehr spezifische Arbeitslasten verwendet werden.
Klimamodellierer lieben Derecho. Sie sprechen in gedämpften Tönen davon, als wäre er ein Orakel, das 100 Jahre in die Zukunft sehen kann – ungeachtet der Tatsache, dass er immer noch nicht zuverlässig vorhersagen kann, ob Ihr Grillfest am Wochenende ins Wasser fällt.
Aber was bringt es trotz all der Superrechenleistung und der hohen Betriebskosten ein?
- Nun ja, finanziell gesehen nichts.
Und genau das machte die Frage unwiderstehlich.
Das Kernproblem: FLOPS ≠ Hashes
Klimamodelle werden in Gleitkommaoperationen pro Sekunde (FLOPS) gemessen. Dagegen wird Bitcoin-Mining in Hashes pro Sekunde (genauer gesagt, SHA-256-Hashes) gemessen.
[Launiger Einschub des Übersetzers: Aha, Klimavorhersagen FLOP’en, und Bitcoins wollen erHASHt werden – gut, ich nehme es zurück]
Diese beiden Computerwelten könnten genauso gut verschiedene Planeten sein.
Klimamodelle benötigen:
- 64-Bit-Gleitkommaarithmetik
- Hochpräzise Differentialgleichungslöser
- Gigantische Speicherbandbreite
- Kommunikation zwischen den Knoten
Anforderungen für das Bitcoin-Mining:
- Einfache 32-Bit-Ganzzahloperationen
- SHA-256-Hashing wird millionenfach pro Sekunde durchgeführt.
- Vorhersehbare, repetitive, strohdumme Berechnungen
- Hardware, die bei einer gegebenen Hash-Rate so wenig Strom wie möglich verbraucht.
Wie ein Ingenieur es einmal treffend formulierte:
„Supercomputer sind zum Denken gebaut. ASIC-Miner sind dafür gebaut, 10 Billionen Mal pro Sekunde mit dem Kopf gegen dieselbe Wand zu rennen.“
Derecho ist ein Denker, kein Draufgänger.
Genau darum geht es.
Wie schlimm kann es schon sein? Lassen Sie uns die Nutzlosigkeit quantifizieren.
Ein grober Vergleich ist aufschlussreich.
Moderner Bitcoin-ASIC-Miner (z. B. Antminer S21):
- ~200 TH/s
- ~3500 W
- Wirkungsgrad ~60 J/TH
Derecho CPU-Knoten (sehr grobe Schätzung):
- Vielleicht 5–10 MH/s pro CPU, falls man überhaupt Mining-Software installieren könnte.
- Das sind 0,000005 TH/s
- Bei 3.500 W pro Knoten, ähnlich wie ein ASIC
- Wirkungsgrad: etwa 600 Milliarden J/TH, plus/minus einige Größenordnungen
Wenn diese Zahl absurd erscheint, dann liegt das daran, dass sie es auch ist.
Im Vergleich dazu ist ein moderner ASIC beim Hashing etwa 10 bis 12 Größenordnungen effizienter als eine CPU.
Gesamtfördermenge des Derecho-Bergbaus (spekulativ, aber nicht unrealistisch)
Nehmen wir großzügig an:
- 5 MH/s pro CPU
- Zwei CPUs pro Knoten → 10 MH/s
- 488 Knoten → 24,8 GH/s insgesamt
Anders ausgedrückt:
Derecho würde ungefähr 0,024 TH/s erreichen.
Das ist kein Tippfehler.
Ein einzelner USB-Bitcoin-Miner für 20 Dollar aus dem Jahr 2013 schnitt besser ab.
Unterdessen dümpelt das Bitcoin-Netzwerk vor sich hin: ≈ 600 EH/s (600.000.000 TH/s)
Derechos Beitrag:
0,000000004 % der Hashrate des Netzwerks
Das sind acht Dezimalstellen Irrelevanz.
Wenn Bitcoin-Mining ein Kuchen wäre, wäre Derecho nicht einmal ein Krümel.
Es wäre die Erinnerung an einen Krümel. Ein winziger Nano-Krümel.
Wie viel Bitcoin würde Derecho also verdienen?
Seien wir absurd optimistisch.
Die Bitcoin-Blockbelohnung beträgt aktuell 3,125 BTC (nach der Halbierung im Jahr 2024).
Bei einer Ausbeute von 0,024 TH/s würde das Solo-Mining Folgendes einbringen…
Das entspricht etwa 0 BTC in der Lebensdauer des Universums.
(Und das ist kein Scherz.)
Aktienpools, sagen Sie? Okay – anhand der üblichen Berechnungsmethoden für Aktienbeiträge:
Derecho würde voraussichtlich zwischen 0,01 und 0,50 US-Dollar pro Jahr verdienen, vor Abzug der Stromkosten.
- Ja, 50 Cent.
Und nun zu den Stromkosten?
Derecho verbraucht etwa Folgendes:
- ≈ 6 … 8 Megawatt
6 MW × 24 Stunden × 365 Tage × 0,07 $/kWh (Industriestromtarif Wyoming) ≈ 3,7 Millionen $/Jahr an Stromkosten
Wenn NCAR also auf Bitcoin-Mining umsteigen würde:
- Jahresumsatz: ≈ 0,10 $
- Jährliche Kosten: ≈ 700.000 $
- Jährlicher Nettogewinn: ≈ −3.699.999,90 $
Selbst die US-Regierung würde bei diesem Geschäftsmodell die Augenbrauen hochziehen.
Aber genau darum geht es ja.
Das Amüsante daran ist nicht, dass Derecho ein katastrophaler Bitcoin-Miner wäre.
Worauf ich hinaus möchte ist folgendes:
Derecho ist optimiert für Modelle, deren Vorhersagekraft regelmäßig überschätzt wird.
Wir haben eine Maschine gebaut, die so spezialisiert und in ihrem Rechenzweck so eng gefasst ist, dass sie fast nichts anderes effizient erledigen kann – nicht einmal eine sehr einfache, peinlich parallelisierbare Aufgabe wie Hashing.
Das wäre nicht weiter problematisch, wenn die verwendeten Modelle einen Nutzen brächten, der ihren Kosten entspräche. Doch nach 35 Jahren supercomputergestützter Klimaprognosen:
- Die Klimasensitivität (ECS) reicht nach wie vor von „geringfügigen Unannehmlichkeiten“ bis hin zu „biblischem Untergang“.
- Die Erwärmungsprognosen übertreffen die Beobachtungen immer noch um das 2- bis 3-Fache.
- Die Vorhersagen zum arktischen Meereis waren durchweg falsch.
- Die Zuordnung extremer Wetterereignisse ist eher ein politisches Spielball als eine wissenschaftliche Gewissheit.
- Und die Temperaturen weigern sich hartnäckig, den den politischen Entscheidungsträgern präsentierten, klar definierten Modellkurven zu folgen.
Ab wann geben wir zu, dass die Maschinen viel Wärme und viel Papier produzieren, aber wenig Klarheit?
Derechos „Earned Value“: Die umfassendere Frage
Wenn die Klimamodelle, die auf diesen Maschinen laufen, zuverlässige, umsetzbare und realitätsnahe Vorhersagen liefern würden, wären ihre Kosten ohne Zögern zu rechtfertigen.
Stattdessen haben wir Folgendes:
- Große, teure Computer
- Ausführen komplexer Modelle
- Das führt zu dramatisch unterschiedlichen Vorhersagen.
- Diese werden dann als Beweis für „Konsens“ angeführt.
Hier liegt eine merkwürdige Zirkelbildung vor:
- Wir entwickeln Modelle, um die Besorgnis um den Klimawandel zu rechtfertigen.
- Wir finanzieren Supercomputer, um die Modelle auszuführen.
- Als Beweis verweisen wir auf die Ergebnisse.
- Und wenn die Vorhersagen fehlschlagen, sagen wir, wir brauchen größere Supercomputer.
Die Maschine selbst erwirtschaftet derweil keinen Gewinn und produziert keine marktrelevanten Ergebnisse.
Bitcoin-Mining – ob nützlich oder nicht – hat eine Stärke:
Es ist brutal ehrlich. Entweder man schafft Wert oder nicht.
Klimamodellierung? Eher nicht. Die Ergebnisse werden nicht nach ihrer Genauigkeit, sondern nach ihrem rhetorischen Nutzen beurteilt.
Was wäre, wenn Derecho sich seinen Unterhalt verdienen müsste?
Wenn man von Klima-Supercomputern verlangen würde, ihre Existenz durch nachweisbare Ergebnisse zu rechtfertigen – sei es durch Marktwert, verifizierte Prognosegenauigkeit oder Vorhersageleistung in der Praxis –, könnten sich einige interessante Veränderungen ergeben:
- Schlechte Modelle würden verworfen.
- Die Parametereinstellung würde genauestens geprüft werden.
- Die Streuung der Ensemble-Ergebnisse würde vorsichtiger interpretiert werden.
- Die Unsicherheiten bei Klimaprognosen würden offen kommuniziert.
- Politiker würden aufhören, 100-Jahres-Prognosen als unumstößliche Wahrheit zu betrachten.
- Und Supercomputer könnten nach tatsächlichen Bedürfnissen dimensioniert werden, nicht nach politischer Symbolik.
Die Tatsache, dass Bitcoin-Mining in absurdem Maße nicht zu Supercomputern passt, offenbart schlichtweg das zugrundeliegende Problem:
Klimasupercomputer sind nicht für den praktischen Nutzen konzipiert.
Sie dienen der Untermauerung von Narrativen.
Und genau das unterscheidet sie von Maschinen, deren Leistung von der unerbittlichen Realität der Märkte, der Physik und der Mathematik beurteilt wird.
Ein letzter Gedanke: Was wäre, wenn wir die Frage umdrehen?
Statt zu fragen:
„Wie viel könnte Derecho verdienen, wenn es auf Bitcoin-Mining umgestellt würde?“
Vielleicht lautet die ehrlichere Frage:
„Welchen realen Nutzen bringt Derecho aktuell?“
Denn:
- Seine Klimaprognosen sind unzuverlässig.
- Die Modellergebnisse sind politisch gesteuert.
- Die Prognosen stimmen nicht mit den Beobachtungen überein.
- und ihre Missionen dienen zunehmend der Interessenvertretung statt der Wissenschaft…
…dann ist sein ökonomischer Wert vielleicht nicht viel höher als sein Bitcoin-Wert.
Und das sollte uns weitaus mehr beunruhigen als jedes Gedankenexperiment.
Der Beitrag Gedankenexperiment: Könnte der Klimasupercomputer „Derecho“ des NCAR als Bitcoin-Miner seinen Lebensunterhalt verdienen? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 1
Dr. Alan Welch FBIS FRAS
Einführung
Die Frage „Warum weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung mit einer Periode von etwa 26 Jahren auf?“ wurde 2023 in den Kommentaren zu einer meiner Veröffentlichungen gestellt. In meiner Antwort wies ich darauf hin, dass die Satellitenabdeckung nur 95 % betrug und daher möglicherweise die Ereignisse in den übrigen 5 % relevant sein könnten. In meinem Folgeartikel „Measuring and Analysing Sea Levels using Satellites during 2023 – Part 2“ [etwa: Messung und Analyse des Meeresspiegels mit Satelliten im Jahr 2023 – Teil 2] analysierte ich die Ergebnisse von Gezeitenmessern in 9 Häfen in den nördlichen Regionen des Atlantischen Ozeans und bis hinauf zum Arktischen Ozean. Die Analyse war sehr vereinfacht, aber vielversprechend, sodass nun eine detailliertere Analyse unter Verwendung neuerer Verfahren durchgeführt wird.
Bevor wir fortfahren, könnte eine weitere Frage lauten: „Na und?“ Die Kurve ist im Grunde genommen fast linear (R² = 0,99), wobei quadratische oder sinusförmige Anpassungen nur sehr wenig dazu beitragen. Im Jahr 2018 veröffentlichten Nerem et al. jedoch ihre Arbeit, in der sie sich auf eine quadratische Kurve konzentrierten und den kleinen quadratischen Koeffizienten als repräsentativ für eine Beschleunigung verwendeten. Hätten sie sich auf die Daten beschränkt, wäre alles akzeptabel gewesen, aber sie extrapolierten über 80 Jahre und veröffentlichten ihre Arbeit. Die Arbeit wird immer noch jeden Monat in vielen Arbeiten als Referenz verwendet. In den letzten 8 Jahren wurde sie verwendet, um dramatische Szenarien von überfluteten Städten zu entwerfen und alle Kinder zu erschrecken. Die Untersuchung einer Sinuskurve hat versucht, ein ausgewogenes Bild zu zeichnen. Ein Punkt, der bei der Verwendung der quadratischen Kurve übersehen wurde ist, dass die Berechnungen, wenn sie 2008 begonnen hätten, jetzt eine Verlangsamung zeigen würden. Welche Arbeit würden Nerem et al. dann schreiben?
Der Beitrag besteht aus zwei Teilen.
Teil 1 enthält vorläufige Analysen, in denen jeder Gezeitenmesser bis zur Stufe der Spektralanalyse verarbeitet wird.
Teil 2 führt eine Kurvenanpassung durch, bei der die Residualwerte (Ist-Werte minus Werte auf einer Best-Fit-Kurve) anhand einer Kurve beurteilt werden, die aus zwei oder drei Sinuskurven unter Verwendung der aus den Spektralanalysen abgeleiteten Spitzenperioden besteht.
Vorläufige Analyse
Diese Studie nutzt eher Daten von Gezeitenmessern als Daten der NOAA, verwendet jedoch Spektralanalysen.
Die 9 Standorte sind Reykjavik – Island, Torshavn – Färöer-Inseln, Aberdeen – Schottland, Lerwick – Schottland, Bergen – Norwegen, Barentsberg – Spitzbergen, Narvik – Norwegen, Murmansk – Russland und Tiksi – Russland.
Nur Aberdeen und Bergen verfügen über Datensätze, die mehr als 100 Jahre umfassen, während Torshavn nur etwa 50 Jahre abdeckt.
Vor der Analyse dieser 9 Häfen werden die Ergebnisse für Brest untersucht, da diese über 210 Jahre umfassen, obwohl es einige größere Lücken in den Daten gibt. Diese Arbeit wurde bereits früher durchgeführt, aber einige Aspekte sind von Interesse. Die Daten sind in Abbildung 1 dargestellt:
Abbilduing 1
Die übliche Kurvenanpassung wird wie in Abbildung 2 dargestellt durchgeführt. Auch hier wurde möglicherweise eine übermäßige Genauigkeit verwendet, um auf der sicheren Seite zu sein. Dies dient nicht dazu, eine genaue Anpassung anzuzeigen, sondern aufgrund möglicher hoher Werte auf der „x“-Achse könnten die Leistungsterme diese zusätzliche Genauigkeit erfordern.
Abbildung 2
Eine Spektralanalyse wurde an den Daten durchgeführt, und die Abbildungen 3 und 4 zeigen die Ergebnisse für lange und kurze Zeiträume:
Abbildung 3
Abbildung 4
Abbildung 3 zeigt einen Spitzenwert (kaum erkennbar) bei einer Periode von 1429 Jahren. Die meisten anderen Gezeitenmessgeräte zeigen viel höhere Perioden, aber es wäre interessant zu sehen, wie Sinuskurven mit Perioden im Bereich von 1000 Jahren mit der quadratischen Anpassung verglichen werden könnten.
Die Kurvenanpassung wurde für Kurven mit Perioden von 1000, 1100 und 1200 Jahren durchgeführt. Die Gleichungen werden im Excel-Format angezeigt.
= CONST + AMP * SIN(((SHIFT + 2 * A1)/PERIOD) * PI()) (Gleichung 1)
Die Abbildungen 5, 6 und 7 vergleichen die quadratische Kurve mit den drei Sinuskurven und stellen dabei Steigung und Beschleunigung gegenüber:
Abbildung 5
Abbildung 6
Abbildung 7
Der nächste Teil könnte gutes Querdenken sein oder ein bisschen mehr La La Land!
Wenn man die 1200-Jahres-Kurve verwendet und von 500 v. Chr. bis 2500 n. Chr. extrapoliert, erhält man folgendes Ergebnis:
Abbildung 8
Die angegebenen Zeiträume sind möglicherweise umstritten. Ich war überrascht, dass die letzte Thames Ice Fair erst 1814 stattfand. Eine beunruhigendere Interpretation dieser Grafik, sofern sie überhaupt aussagekräftig ist wäre, dass der Meeresspiegel (und die damit verbundenen Temperaturen) erst um 2450 ihren Höchststand erreichen. Könnten die Ereignisse wirklich so schlimm werden? Wie warm war es während der römischen und der mittelalterlichen Warmzeit?
Schließlich zeigt Abbildung 9 die Residuen, d. h. die tatsächlichen Werte abzüglich der Werte auf der quadratischen Kurve, und Abbildung 10 die Spektralanalyse dieser Residuen:
Abbildung 9
Abbildung 10
Die Perioden der Spitzenwerte weichen von denen der vollständigen Spektralanalyse ab, und auf Abbildung 9 ist nicht ohne Weiteres zu erkennen, dass es möglicherweise eine dekadische Schwankung von etwa 93 Jahren gibt. Dies wurde
untersucht, indem Datendateien mit Zufallswerten erstellt wurden, wobei ein Satz als einfache Zufallswerte und ein Satz als Zufallszahlen mit einer Standardabweichung festgelegt wurde. Es wurden viele Fälle durchgespielt, und die Abbildungen 11 und 12 zeigen jeweils einen Fall aus jeder Reihe:
Abbildung 11
Abbildung 12
Der erste Eindruck ist etwas beunruhigend, da er Kurven mit Perioden im Bereich von 10 bis 100 Jahren anzeigt, aber bei genauerer Betrachtung zeigt sich, dass diese alle eine geringe Amplitude (in diesen Diagrammen mit „Theta” bezeichnet) von etwa 2 haben, während sie in den tatsächlichen Gezeitenmessdiagrammen zwischen 10 und 30 für die Residuen liegen. Diese Theta-Werte sind relative Werte und geben keine tatsächlichen physikalischen Werte an.
(Möglicherweise habe ich den Prozess nicht klar und korrekt beschrieben, daher wäre ich für jede Hilfe sehr dankbar.
Wenden wir uns nun den 9 Datensätzen der Gezeitenpegel zu, die wir beginnend mit dem längsten Messzeitraum und dann in etwa in der Reihenfolge abnehmender Zeiträume betrachten werden. Bevor wir jedoch fortfahren, zeigen die folgenden 9 kleinen Abbildungen das Ergebnis der früheren Kurvenanpassung einer 26-Jahres-Kurve an die Diagramme der Residualwerte, d. h. der tatsächlichen Werte abzüglich des Wertes der quadratischen Anpassung. Während eine Kurve mit einer Periode von etwa 26 Jahren an vielen Stellen passt, gibt es Hinweise auf andere, in der Regel längere Periodenkomponenten, wie aus dem Diagramm für Aberdeen ersichtlich ist, wo eine größere Schwankung von etwa 85 Jahren offensichtlich ist. Die größeren Spektralanalyse-Peaks beziehen sich auf Primärmodi, während die kürzeren andere Primärmodi oder Sekundärmodi sein können. Ein Problem bei diesen 9 Analysen war, dass die dargestellten Daten ein gleitender Durchschnitt basierend auf 101 Datenpunkten sind. Ohne Unterbrechungen in den Daten entspricht dies etwas mehr als 8 Jahren, aber da es mehrere Lücken in den Daten gibt, kann dies zu Verzerrungen führen. Durch die Mittelwertbildung werden die meisten kurzfristigen Frequenzen entfernt, wodurch die allgemeine Form leichter zu erkennen ist.
Aberdeen .. Bergen .. Narvik
Reykjavik .. Murmansk .. Barentsburg
Lerwick .. Tiksi .. Torshavn
Jeder der 9 Gezeitenmesser wird nun unter Berücksichtigung der Ausgangsdaten von der NOAA-Website, der verarbeiteten Daten mit der am besten passenden quadratischen Kurve, der Residuen (tatsächlicher Wert minus Wert auf der am besten passenden Kurve), der Spektralanalyse-Diagramme und der Ergebnistabellen betrachtet. Die Tabellen enthalten im Wesentlichen Werte aus der ursprünglichen Verwendung der Software, nämlich der Analyse variabler Sterne. Die erste Spalte enthält die Frequenz
(1/Periode) in Zyklen pro Jahr. Die Zeit ist die Periode, in der diese Frequenz in Jahren auftritt. Theta wird in diesem Artikel als Amplitude bezeichnet.
In dieser Phase wurde keine Kurvenanpassung durchgeführt, da in den meisten Fällen zwei oder mehr Peaks vorhanden sind. Die bei der Spektralanalyse verwendeten Amplituden (amp) und die Amplituden der Sinuskurven (AMP) wurden für bekannte Mehrfach-Sinuskurven untersucht, und es wurde festgestellt, dass die Amplituden für ein Kurvenpaar, 1 und 2, durch die folgende Gleichung miteinander in Beziehung stehen:
AMP2 = AMP1 * SQRT(amp2/ amp1) (Gleichung 2)
Damit lässt sich die relative Dominanz jeder in den Spektralanalyse-Diagrammen dargestellten Kurve abschätzen.
Aberdeen:
Bergen:
Narvik:
Narvik (reduzierter Datensatz):
Die Daten vor 1947 wurden aufgrund der großen Lücke in den Messwerten und der verdächtigen Anfangswerte nahe dem Beginn der Datenreihe verworfen.
Reykjavik:
Murmansk:
Barentsburg:
Lerwick:
Tiksi:
Torshavn:
Demnächst:
Nachdem die Spektralanalyse auf eine Reihe von Gezeitenmessgeräten angewendet wurde, werden in Teil 2 die Ergebnisse zur Ableitung von Sinuskurven verwendet.
Link: https://wattsupwiththat.com/2025/12/02/does-the-global-sea-level-rise-have-a-sinusoidal-variation/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Weist der globale Meeresspiegelanstieg eine sinusförmige Schwankung auf? – Teil 1 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Prof. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident von Tschechien, ist neuer Präsident von CLINTEL
Die Organisation Climate Intelligence, kurz CLINTEL, ist EIKE-Lesern nicht unbekannt. Zumindest die CLINTEL-Hauptaussage „Es gibt keinen Klimanaotstand“ ist weithin bekannt. Nachfolgend ein ins Deutsche übersetzter Auszug aus dem Programm von CLINTEL:
Climate Intelligence (CLINTEL) ist eine unabhängige Stiftung, die über den Klimawandel und Klimapolitik informiert. CLINTEL wurde 2019 vom emeritierten Professor für Geophysik Guus Berkhout und dem Wissenschaftsjournalisten Marcel Crok gegründet. Das Hauptziel von CLINTEL ist es, Wissen und Verständnis über die Ursachen und Auswirkungen des Klimawandels sowie der Wirkungen der Klimapolitik auf Wirtschaft und Umwelt zu vermitteln.
Zu diesem Zweck versucht die Stiftung 1) der Öffentlichkeit objektiv und transparent zu vermitteln, welche Fakten über den Klimawandel und die Klimapolitik vorliegen und wo Fakten zu Annahmen und Vorhersagen werden 2) führt die Stiftung eine öffentliche Debatte zu diesem Thema durch, regt diese an und betreibt investigative Berichterstattung in diesem Bereich 3) möchte die Stiftung als internationaler Treffpunkt für Wissenschaftler mit unterschiedlichen Ansichten zum Klimawandel und zur Klimapolitik fungieren 4) beabsichtigt die Stiftung auch eigene wissenschaftliche Forschungen zum Klimawandel und zur Klimapolitik durchzuführen oder zu finanzieren und 5) will CLINTEL die Rolle eines unabhängigen „Klimawächters” sowohl im Bereich der Klimawissenschaft als auch der Klimapolitik übernehmen.
Zu den Betreibern von CLINTEL gehören die beiden Physik-Nobelpreisträger Ivar Giaever und John F. Clauser. Nun ist nach dem Gründer von CLINTEL, Prof. Guus Berkhout, Vaclav Klaus zum neuen Präsidenten von CLINTEL ernannt worden (hier).
In seiner Abschiedsrede führt G. Berkhout aus: „Es sind nicht in erster Linie menschliche Aktivitäten, sondern die immensen Kräfte der Natur, die den Klimawandel vorantreiben“. Er betonte auch die viel wichtigere Rolle von Wasser und Wasserdampf in all seinen Phasen für das Klima als die untergeordnete Rolle von CO2 und beharrte darauf, dass „die Anpassung an den Klimawandel bei weitem der effektivste und humanste Weg ist, um Opfer und Schäden durch extremes Wetter zu reduzieren. Der Klimaschutz, der auf unrealistische Emissionsreduktionen abzielt, hat noch nie einen Dollar oder ein Opfer gerettet.“
In seiner Antrittsrede (hier) als neuer CLINTEL-Präsident sagte Vaclav Klaus: „Es ist unsere Pflicht, sich gegen den irrationalen, populistischen und offensichtlich unwissenschaftlichen Klimapessimismus zu wehren. Wir müssen nach neuen Wegen suchen, um etwas zu verändern – jeder einzelne von uns und wir alle gemeinsam.Wir planen, unsere Aktivitäten sowohl in einzelnen Ländern als auch auf globaler Ebene auszuweiten. Wir wollen uns aktiver an öffentlichen Debatten beteiligen. Wir wollen neue Unterstützer finden. In dieser Hinsicht beabsichtigen wir nicht, unsere Aktivitäten zu zentralisieren. Wir werden nationalen Gruppierungen und Initiativen Unabhängigkeit gewähren und ihre Aktivitäten begrüßen.“ Vaclav Klaus ist übrigens Autor des Buchs Blauer Planet in grünen Fesseln. Was ist bedroht: Klima oder Freiheit?, das im Jahr 2007 erschien.
EIKE wünscht CLINTEL und seinem neuen Präsidenten allen Erfolg.
Der Beitrag Prof. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident von Tschechien, ist neuer Präsident von CLINTEL erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Steigende Strompreise? Grüne Politik ist dafür verantwortlich!
Die Strompreise steigen, und die Demokraten geben Präsident Trump die Schuld dafür. Seit Jahren wird in Medienartikeln behauptet, dass erneuerbare Energien den günstigsten Strom liefern und dass Wind- und Solarkraftwerke billiger seien als Kohle, Erdgas und Kernkraft. Aber in den US-Bundesstaaten, die auf grüne Energie setzen, Wind- und Solaranlagen installieren und Kohlekraftwerke schließen, steigen die Preise rasant an.
Rahm Emanual, ehemaliger demokratischer Bürgermeister von Chicago und Stabschef des Weißen Hauses, sagte kürzlich, dass höhere Stromrechnungen „eine direkte Folge des One Big Beautiful Bill Act (OBBB) sind, der die Subventionen für grüne Energie gekürzt hat“. Der OBBB wurde jedoch erst im Juli verabschiedet, die Subventionskürzungen treten erst 2027 in Kraft, und die Strompreise steigen bereits seit vielen Jahren, obwohl die Subventionen weiterhin gezahlt wurden. Staaten, die sich für grüne Energie einsetzen und sich intensiv mit Klimapolitik beschäftigen, leiden unter den steigenden Preisen.
Daten des US-Energieministeriums (DOE) zeigen, dass die Strompreise in Kalifornien, Connecticut, Maine, Maryland, Massachusetts und New York in den letzten fünf Jahren um mehr als 30 Prozent gestiegen sind, verglichen mit nur 22,5 Prozent auf nationaler Ebene. Aufgrund der Klimapolitik haben diese Bundesstaaten in den letzten 15 Jahren ihre Kohlekraftwerke geschlossen, mit Ausnahme eines Kohlekraftwerks in Maryland und eines in Maine. Im Vergleich dazu steigen die Preise in Georgia, Florida, Missouri, Texas und anderen Bundesstaaten, die weniger von Initiativen für grüne Energie betroffen sind, weniger stark als im US-Durchschnitt. Diese Bundesstaaten setzen weiterhin auf kostengünstigere Kohlenwasserstoffe für die Stromerzeugung.
Die Strompreise in Kalifornien sind in den letzten fünf Jahren um 59 % gestiegen. Der Bundesstaat hat alle Kohlekraftwerke bis auf eines und alle Kernkraftwerke bis auf das Kraftwerk Diablo Canyon geschlossen. Kalifornien hat nun mit 31,9 Cent pro Kilowattstunde die zweithöchsten Strompreise für Privathaushalte in den USA, fast doppelt so viel wie der nationale Durchschnittspreis von 16,5 Cent. Die massiven Investitionen des Bundesstaates in erneuerbare Energien, die 2024 mehr als die Hälfte der Stromerzeugung in Kalifornien ausmachten, haben den Preisanstieg vorangetrieben.
Die Strompreise in Massachusetts sind in den letzten fünf Jahren um 31 % gestiegen. Die Preise für Privathaushalte liegen bei 29,4 Cent/kWh und sind damit die dritthöchsten in den USA. Aufgrund der Schließung von Kohlekraftwerken und des Kernkraftwerks Pilgrim im Jahr 2019 erzeugt der Bundesstaat nur noch etwa die Hälfte der Strommenge, die er 2010 produziert hat. Im Jahr 2024 stammte etwa ein Viertel der Stromerzeugung in Massachusetts aus gewerblichen und privaten Solaranlagen. Es ist geplant, dass alle neuen Erzeugungskapazitäten aus Wind- und Solarenergie stammen sollen.
Die steigenden Strompreise waren ein zentrales Thema bei den Gouverneurswahlen in New Jersey. Die Kandidaten Jack Cittarelli und Mikie Sherrill kritisierten beide die Energiepolitik des scheidenden Gouverneurs Phil Murphy. Angetrieben von den Zielen für grüne Energie schloss New Jersey während der Amtszeiten der Gouverneure Murphy und Chris Christie ein Kernkraftwerk, fünf Kohlekraftwerke und zwei Gaskraftwerke. Aufgrund der Kraftwerksschließungen muss der Bundesstaat nun etwa ein Fünftel seines Stroms aus anderen Bundesstaaten importieren. Sowohl Murphy als auch Christie förderten die Offshore-Windenergie, doch diese Projekte sind nun aufgrund steigender Kosten und des Widerstands der Trump-Regierung ins Stocken geraten.
Grün-politische Maßnahmen haben in Neuengland zu einer kostspieligen Erdgasverknappung geführt. Im Jahr 2024 wurden 55 % des Stroms für Haushalte in Neuengland aus Gas erzeugt. Doch mehr als ein Jahrzehnt lang blockierte New York den Bau von Gaspipelines nach Neuengland, um die CO₂-Emissionen zu reduzieren. Um die Verknappung zu verringern, importiert die Region Flüssigerdgas aus Kanada und Übersee zu höheren Preisen.
Der Mangel an Pipelines zwingt die Einwohner von Connecticut und anderen Bundesstaaten Neuenglands dazu, im Vergleich zu Einwohnern anderer Bundesstaaten bis zu doppelt so viel für Gas zu bezahlen. Die Strompreise in Connecticut sind in den letzten fünf Jahren vor allem aufgrund der Gasbeschränkungen um 31 % gestiegen. Die Trump-Regierung drängt auf die Wiederbelebung der Constitution- und NESE-Pipelines, um kostengünstigeres Gas nach Neuengland zu bringen – Projekte, die von New York blockiert wurden.
Die Strompreise in New York sind in den letzten fünf Jahren um 37 % gestiegen. Der New York State Scoping Plan sieht vor, dass bis 2030 70 % des Stroms aus erneuerbaren Energien und bis 2040 100 % aus emissionsfreien Quellen stammen sollen. Der Bundesstaat hat 2020 sein letztes Kohlekraftwerk und auch das Kernkraftwerk Indian Point geschlossen und plant, zunehmend Strom aus Wind- und Solarenergie zu erzeugen. Da erneuerbare Energien jedoch nicht schnell genug ausgebaut wurden, warnt der New York Independent System Operator nun vor einer zunehmenden Stromknappheit.
Die Strompreise in Florida, Georgia, Missouri und Texas sind in den letzten fünf Jahren um 21 % oder weniger gestiegen. Diese Bundesstaaten setzen weiterhin auf kostengünstigere Kohlenwasserstoffbrennstoffe zur Stromerzeugung: Florida (73 % Gas, 6 % Kohle), Georgia (41 % Gas, 16 % Kohle), Missouri (14 % Gas, 67 % Kohle) und Texas (54 % Gas, 21 % Kohle).
Andere Daten des DOE zeigen, dass die Strompreise in den führenden Windstaaten in den meisten Fällen schneller steigen als der nationale Durchschnitt. Von 2008 bis 2024 stiegen die nationalen Preise um 33,4 %, wobei der größte Teil des Anstiegs in den letzten fünf Jahren zu verzeichnen war. In sieben der zwölf führenden Windenergie-Bundesstaaten stiegen die Strompreise jedoch schneller als im nationalen Durchschnitt, darunter Kalifornien (116 %), Minnesota (59 %), Oregon (57 %), Kansas (51 %), Colorado (42 %), Nebraska (40 %) und Iowa (37 %). Windenergie ist teurer als herkömmliche Stromquellen, da sie große Flächen benötigt, zwei- bis dreimal so viel Übertragungsinfrastruktur erfordert und aufgrund ihrer Unbeständigkeit durch regelbare Kraftwerke abgesichert werden muss.
Die Demokraten sollten aufhören, den Republikanern die Schuld für die steigenden Energiepreise in den von Demokraten regierten Bundesstaaten zu geben, die durch ihre eigene grüne Energiepolitik verursacht werden. Wenn sie wollen, dass sich die Preise umkehren, sollten sie die Stromquellen nutzen, die tatsächlich billiger sind.
Originally published in The Wall Street Journal.
Link: https://www.cfact.org/2025/11/26/electricity-prices-going-up-green-policy-is-to-blame/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Steigende Strompreise? Grüne Politik ist dafür verantwortlich! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
COP30 stellt die Klimaschutz-Polizei vor
Die Klimakonferenzen der Vereinten Nationen, auch bekannt als COP (Conference of Parties), waren schon immer von dramatischen bürokratischen Auseinandersetzungen geprägt, aber die COP30 in Belém brachte etwas Neues. Anstelle einer weiteren Runde von CO2-Zusagen stellten die Delegierten diesmal die Erklärung zur Informationsintegrität im Klimawandel vor. Diese liest sich weniger wie ein wissenschaftliches Dokument, sondern eher wie eine Gebrauchsanweisung zur Überwachung der öffentlichen Debatte. Allein schon der Tonfall lässt genau erkennen, in welche Richtung das geht.
Die Erklärung beginnt mit den üblichen Hinweisen auf die Dringlichkeit. Darin heißt es: „Die Dringlichkeit der Klimakrise erfordert nicht nur entschlossenes Handeln der Staaten, sondern auch das breite Engagement aller Teile der Gesellschaft.“ Diese Formulierung lässt die Alarmglocken läuten. Das Orwell’sche Dokument macht deutlich, dass Engagement nur dann willkommen ist, wenn es von den zuständigen Behörden genehmigt wurde.
Als Nächstes betont die Erklärung, dass jeder Zugang zu „konsistenten, zuverlässigen, genauen und evidenzbasierten Informationen über den Klimawandel“ haben muss, um das zu schaffen, was sie als „öffentliches Vertrauen in Klimapolitik und -maßnahmen“ bezeichnet. Das ist bezeichnend. Vertrauen ist in ihrer Darstellung eher ein Produkt von Informationsmanagement von oben nach unten als von Transparenz oder offener Debatte. Echte Wissenschaft braucht kein gesteuertes Vertrauen. Sie verdient es sich.
Die Erklärung beklagt lautstark „Fehlinformationen“, „Desinformation“ und den neuesten Sammelbegriff: „Leugnung“. Früher bezeichneten diese Begriffe offensichtliche Unwahrheiten. Heute bedeuten sie einfach „Ideen, die den Verantwortlichen nicht gefallen“. In diesem Rahmen wird das Stellen grundlegender wissenschaftlicher Fragen zu Verzerrungen in Klimamodellen, Problemen der Datenhomogenität, politischen Auswirkungen oder Beobachtungsunsicherheiten von gesunder Skepsis zu Ketzerei. Es handelt sich um den gleichen rhetorischen Trick, den Inquisitionen im Laufe der Geschichte angewendet haben: Zweifel für unmoralisch erklären und dann reglementieren.
Das Dokument erhebt wiederholt etablierte Institutionen zu Hütern der „Wahrheit“. So „erinnert es beispielsweise an die Bedeutung des Zwischenstaatlichen Ausschusses für Klimawandel“ bei der Bereitstellung „genauer, konsistenter und evidenzbasierter wissenschaftlicher Informationen“. Der IPCC wird weniger als wissenschaftliche Einrichtung behandelt, sondern vielmehr als letzte Instanz, deren Schlussfolgerungen nicht in Frage gestellt werden dürfen.
Nachdem die Präambel die emotionale Grundlage geschaffen hat, geht die Erklärung zu den Empfehlungen über. Die erste wichtige Verpflichtung lautet: „Förderung der Integrität von Informationen zum Klimawandel auf internationaler, nationaler und lokaler Ebene im Einklang mit den internationalen Menschenrechtsgesetzen, einschließlich der Standards zur Meinungsfreiheit.“ Diese Kombination ist bemerkenswert. Sie versucht, Informationskontrolle und Meinungsfreiheit so miteinander zu verbinden, dass beide Begriffe bedeutungslos werden.
In einem anderen Abschnitt werden die Unterzeichner aufgefordert, „das Vertrauen in die Klimawissenschaft und wissenschaftlich fundierte Politik zu stärken“. Vertrauen lässt sich nicht durch Erklärungen stärken. Es wird verdient, wenn wissenschaftliche Behauptungen einer genauen Prüfung standhalten. Wenn Behörden beginnen, die Gesellschaft anzuweisen, ihnen zu vertrauen, signalisiert dies einen Mangel an Vertrauen in die zugrunde liegenden Beweise.
Die Erklärung enthält auch Anweisungen für den privaten Sektor. Unternehmen werden aufgefordert, sich „zur Integrität von Informationen über den Klimawandel zu verpflichten“ und „transparente, menschenrechtskonforme Werbepraktiken“ sicherzustellen. Damit werden Unternehmen effektiv dazu aufgefordert, Klimabotschaften innerhalb ihrer eigenen Betriebsabläufe und ihres Marketings zu überwachen.
An die Regierungen wird ein noch deutlicherer Aufruf zum Handeln gerichtet. Die Erklärung fordert sie auf, „politische und rechtliche Rahmenbedingungen zu schaffen und umzusetzen“, die die „Integrität“ von Informationen fördern und gleichzeitig die freie Meinungsäußerung respektieren. Darüber hinaus werden die Regierungen angewiesen, Technologieunternehmen dazu zu drängen zu prüfen, inwiefern ihre Plattformen „die Integrität des Ökosystems der Klimainformationen untergraben“, und Forschern Plattformdaten zur Verfügung zu stellen. Das ist eine höfliche Art zu sagen: Reguliert die Plattformen, bis sie die gewünschte Darstellung durchsetzen.
Der Text fordert die Regierungen außerdem auf, „Kampagnen zum Klimawandel zu fördern” und Initiativen zu unterstützen, die den Zugang der Öffentlichkeit zu „zuverlässigen Informationen” gewährleisten. Wer mit den bisherigen Kommunikationsbemühungen der Regierung vertraut ist, weiß genau, was das bedeutet: mehr steuerfinanzierte Botschaften, mehr einseitige Unterweisung und weniger Raum für abweichende Analysen.
Der Wissenschaft und der Zivilgesellschaft ergeht es nicht besser. Sie werden aufgefordert, „die Integrität von Informationen zum Klimawandel in ihre Arbeit zu integrieren“ und sich Netzwerken anzuschließen, um „bewährte Verfahren“ auszutauschen. Mit anderen Worten: Forschung und Öffentlichkeitsarbeit müssen an den bevorzugten Rahmen angepasst werden, sonst laufen sie Gefahr, als Teil des Informationsproblems angesehen zu werden.
Der letzte Abschnitt richtet sich an Geldgeber. Er fordert sie auf, „an den von der UNESCO verwalteten Globalen Fonds für Informationsintegrität zum Klimawandel zu spenden“. Dadurch entsteht ein zentraler Geldpool, der der Durchsetzung genau der Informationsumgebung dient, die in der Erklärung beschrieben wird. Diese Regelung würde Ressourcen für die Entpolitisierung der öffentlichen Kommunikation nach Standards bereitstellen, die von den gleichen Institutionen festgelegt werden, die von der daraus resultierenden Narrativkontrolle profitieren.
Die Erklärung schließt mit einer einigenden Floskel: Die Unterzeichner bekräftigen ihre Verantwortung, dafür zu sorgen, dass die Gesellschaften „mit dem Wissen und den Informationen ausgestattet werden, die sie benötigen, um dringend und entschlossen zu handeln“. Dies ist eine elegante Art zu sagen, dass die Öffentlichkeit nicht durch Überzeugungsarbeit, sondern durch die Regulierung der Informationen, die sie erhält, auf eine Linie gebracht werden muss.
Wenn man die diplomatische Formulierung beiseite lässt, wird die Absicht klar. Die Klimapolitik hat sich über das Argumentieren hinaus entwickelt. Sie versucht nun, die Diskussion selbst zu regulieren. Dabei geht es nicht darum, die Öffentlichkeit vor Fehlinformationen zu schützen. Es geht darum, Institutionen vor Fragen zu schützen, die sie nicht mehr beantworten wollen. Der Begriff „Informationsintegrität” klingt harmlos, sogar edel, aber die Wirkung ist unverkennbar. Er zentralisiert die Autorität darüber, was gesagt werden darf, von wem und mit welchen Konsequenzen.
Das ist bürokratische Doppelzüngigkeit in Reinkultur, die selbst Orwell als „zu offensichtlich” abgelehnt hätte.
Anthony Watts is a Senior Fellow for Environment and Climate at The Heartland Institute.
Link: https://townhall.com/columnists/anthonywatts/2025/11/25/cop30-unveils-the-climate-speech-police-n2666958?
Übersetzt von Christian Freuer für das EIKE
Der Beitrag COP30 stellt die Klimaschutz-Polizei vor erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Sierra-Club verliert 60% seiner Mitglieder – 350.org ist ausgesetzt
Der Wandel in der Klimakatastrophen-Debatte schreitet voran, und die USA sind dabei führend.
Einige US-amerikanische Basisorganisationen befinden sich bereits in einer existenziellen Krise. Tatsächlich kämpft der Sierra Club seit drei Jahren ums Überleben, aber niemand wollte das erwähnen.
Francis Menton vom Manhattan Contrarian weist auf den außergewöhnlichen Zusammenbruch der größten US-Umweltorganisation, des Sierra Clubs, hin:
Der Sierra Club befindet sich mitten in einer Entwicklung, die man durchaus als Implosion bezeichnen könnte. Die New York Times berichtete am 7. November darüber. Auszug:
Der Sierra Club bezeichnet sich selbst als „größte und einflussreichste Basis-Umweltorganisation des Landes“. Doch gerade jetzt, wo die Umweltschutzmaßnahmen der Trump-Regierung unter Beschuss stehen, befindet sich die Organisation mitten in einer Implosion – geschwächt, abgelenkt und gespalten. Die Gruppe hat 60 Prozent ihrer vier Millionen Mitglieder und Unterstützer aus dem Jahr 2019 verloren. Seit 2022 hat sie drei Entlassungsrunden durchgeführt, um ihr prognostiziertes Haushaltsdefizit von 40 Millionen Dollar auszugleichen. In diesem Jahr, als die Trump-Regierung besser organisiert und besser vorbereitet als in ihrer ersten Amtszeit zurückkehrte, war der Sierra Club das Gegenteil davon. Während Trump die Kohlekraft förderte, Windparks absagte und die Grenzwerte für Umweltverschmutzung zurücknahm, wurde der Club von internem Chaos heimgesucht, das seinen Höhepunkt fand, als der Vorstand seinen Geschäftsführer Ben Jealous feuerte, einen ehemaligen Präsidenten der N.A.A.C.P.
Zweifellos ist ein Teil des Problems Donald Trump und dem DOGE-Effekt zuzuschreiben, aber vieles davon war ein Insider-Job mit Hilfe der jubelnden Medien. Der Sierra Club vergaß, dass er sich eigentlich um die Umwelt kümmern sollte, und sprang auf alle verrückten linken Zugwagen auf, die er finden konnte. Als sie von der Straße abkamen, jubelten ihnen die Medien zu und zensierten jeden, der ihnen zu erklären versuchte, wie die reale Welt funktioniert. So stürzten sie sich wahrhaftig mit doppelter Wucht über die sprichwörtliche Lemming-Klippe.
Beweis dafür, dass selbst die grüne Linke „Go Woke, Get Broke” kann:
Der Sierra Club setzte sich für soziale Gerechtigkeit ein. Dann zerbrach er innerlich.David A. Fahrenthold und Claire Brown, The New York Times
Während Trumps erster Amtszeit, als der Sierra Club mit Spenden überhäuft wurde, versuchten seine Führungskräfte, weit über den Umweltschutz hinauszugehen und sich auch für andere progressive Anliegen einzusetzen. Dazu gehörten Rassengerechtigkeit, Arbeitnehmerrechte, Rechte von Homosexuellen, Rechte von Einwanderern und vieles mehr. An dieser Neuausrichtung halten sie bis heute fest.
Bis 2022 hatte der Club seine Finanzen aufgebraucht und seine Koalition gespalten.
Er vergraulte langjährige Freiwillige, welche die konsequente Verteidigung der Umwelt durch den Club schätzten, indem er von ihnen verlangte, seine Linksorientierung voll und ganz zu unterstützen. Einige hatten sogar das Gefühl, vom Club überprüft zu werden, weil sie sich nicht daran hielten. Viele eingefleischte Anhänger waren der Meinung, dass der Sierra Club den Schlüssel zu seinem Erfolg beiseite schob: Er war eine vielseitige Gruppe von Aktivisten, die ein gemeinsames Anliegen hatten, manchmal sogar nur ein einziges.
Der Club stellte in diesem Jahr seinen ersten schwarzen Geschäftsführer Herrn Jealous ein, um diesen Niedergang zu stoppen, aber während seiner Amtszeit beschleunigte sich dieser noch, da sich Vorwürfe wegen sexueller Belästigung, Mobbing und übermäßiger Ausgaben häuften.
Ein weiteres Opfer ist 350.org, das Einnahmen verloren hat und seinen Betrieb eingestellt hat.
Und dann gibt es noch 350.org. Diese Organisation ist das Baby des überaus engagierten Klimaaktivisten Bill McKibben, wobei die Zahl „350” angeblich eine Grenze für den CO2-Gehalt in der Atmosphäre angibt, die niemals überschritten werden darf, sonst könnte etwas passieren, das sie für wirklich, wirklich beängstigend halten. (Der aktuelle CO2-Gehalt in der Atmosphäre liegt bei etwa 424 ppm.) Am 13. November, noch während der COP30, stellte 350.org seinen Betrieb ein. Politico vom 13. November:
Die Umweltorganisation 350.org, welche die Bewegung zur Blockierung der Keystone XL-Ölpipeline anführte, wird laut einem Schreiben, das POLITICO am Donnerstag vorlag, ihre Programme in den USA und anderen Ländern aufgrund von Finanzierungsproblemen „vorübergehend aussetzen“. In dem Brief von Geschäftsführerin Anne Jellema an externe Organisationen heißt es, dass 350.org für die Geschäftsjahre 2025 und 2026 einen Einkommensrückgang von 25 Prozent hinnehmen musste, was die Organisation dazu zwingt, ihre Aktivitäten einzustellen. Die Gruppe wird drei Mitarbeiter in den USA behalten, in der Hoffnung, ihre Aktivitäten in Zukunft wieder aufnehmen zu können.
In den USA wurde über das große UN-Klimatreffen in Brasilien nicht einmal in den Nachrichten berichtet.
„… wusstet ihr überhaupt, dass dieses Jahr die COP 30 stattgefunden hat? In einem Artikel für das Civitas Institute stellt Steven Hayward heute fest, dass kein einziger amerikanischer Fernsehsender Reporter zu der diesjährigen Veranstaltung geschickt hat. Auch die Berichterstattung in den amerikanischen Print- und Online-Medien wurde drastisch reduziert. Hayward schreibt: „Einige wenige Reporter, die an der Konferenz teilnahmen, fragten sich in ihren Berichten, ob dies das letzte COP-Treffen sein würde.“
Da Donald Trump nicht teilgenommen hat, haben sich die US-Fernsehsender offenbar nicht die Mühe gemacht, Kamerateams zu entsenden.
Ich kann mich an keine COP-Konferenz erinnern, bei der jemals darüber diskutiert wurde, dass es die letzte sein könnte…
This article originally appeared at JoNova
Link: https://www.cfact.org/2025/11/30/the-sierra-club-loses-60-of-members-350-org-is-suspended/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Der Sierra-Club verliert 60% seiner Mitglieder – 350.org ist ausgesetzt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Begutachtung des Begutachtungs-Verfahrens
[Alle Hervorhebungen im Original. A. d. Übers.]
Uns wird ständig erzählt, dass die Wissenschaft eine sich selbst korrigierende Maschine ist. Ein makelloser Motor der Wahrheit, in dem schlechte Ideen verworfen werden und gute wie Sahne an die Oberfläche steigen. Uns wird gesagt, wir sollen „Trust The Science™“, weil sie die magische, mystische Prüfung namens Peer Review bestanden hat.
Schlechte Nachrichten. Die Maschine ist kaputt, die Sahne ist geronnene Milch, und die Torwächter schlafen am Schalter – oder schlimmer noch, sie verkaufen Freikarten an die Vandalen.
Eine neue Studie der Northwestern University mit dem Titel „Organized scientific fraud is growing at an alarming rate [etwa: Organisierte wissenschaftliche Betrügereien nehmen in alarmierendem Maße zu], wie eine Studie aufdeckt“ hat gerade den Vorhang gelüftet, hinter dem sich verbirgt, was viele seit Jahren behaupten. Es stellt sich heraus, dass „organisierte wissenschaftliche Betrügereien“ nicht nur ein paar betrügerische Doktoranden sind, die Daten manipulieren. Nein. Es handelt sich um eine globale Operation im industriellen Maßstab.
Der Studie zufolge haben wir es heute mit „ausgeklügelten globalen Netzwerken“ zu tun, die im Wesentlichen wie kriminelle Organisationen funktionieren. Sie fälschen nicht nur Ergebnisse, sondern erfinden ganze wissenschaftliche Karrieren. Sie verkaufen Autorenplätze in gefälschten Artikeln, als würden sie Eigentumswohnungen in Florida verkaufen.
Sie möchten „Erstautor“ einer bahnbrechenden Physikarbeit sein? Das kostet 5.000 Dollar. Sie möchten Mitautor sein? Wir haben einen Rabatt in Gang drei.
Die Studie stellt fest, dass dieser Betrug „die Wachstumsrate legitimer wissenschaftlicher Publikationen übertrifft“. Denken Sie darüber nach. Der Krebs wächst schneller als der Wirt.
Hilfe!
Und das Peer-Review-System, dieser viel gepriesene Schutzschild, der uns vor Fehlern bewahren soll? Es wirkt weniger wie ein Schutzschild als vielmehr wie ein Sieb.
Aber Moment mal. Bevor wir all dies auf dubiose „kriminelle Netzwerke” und namenlose Papierfabriken in Übersee schieben, sollten wir uns einmal etwas genauer umsehen. Denn die Fäulnis kommt nicht nur von außerhalb des Hauses. Sie kommt aus dem Keller.
Ich habe dies alles schon einmal gesehen. Ich habe es selbst erlebt.
Vor Jahren schrieb ich über meine Erfahrungen mit Peer-Reviews mit Dr. Michael Mann, dem Autor des berüchtigten „Hockeysticks“. Ich nannte ihn einen „Smooth Operator“ und meinte es auch so. In der Klimawissenschaft hat sich „Peer Review“ allzu oft zu „Pal Review“ [Pal = Kumpel, Komplice] gewandelt. Es ist ein gemütlicher Club, in dem Freunde die Arbeiten ihrer Freunde absegnen und, was noch wichtiger ist, die Veröffentlichung von Studien von Leuten wie mir blockieren, die es wagen, den „Konsens“ in Frage zu stellen.
Und wie ich in „Freedom of Information, My Okole“ ausführlich beschrieben hatte, habe ich jahrelang um die Daten und den Code hinter diesen steuerfinanzierten Studien gebeten. Und was habe ich bekommen? Ausflüchte. Ablehnungen. Wie Phil Jones zu Warwick Hughes sagte: „Warum sollte ich Ihnen meine Daten zeigen, wenn Sie nur etwas daran auszusetzen haben wollen?“
Das ist keine Wissenschaft. Das ist eine Priesterschaft, die ihr Dogma schützt.
Das derzeitige Peer-Review-System ist eine Black Box. Ein Herausgeber schickt einen Artikel an zwei oder drei anonyme Gutachter. Wenn diese Gutachter Freunde des Autors sind, wird der Artikel angenommen. Wenn der Autor ein Außenseiter oder Skeptiker ist, können die Gutachter den Artikel heimlich und ohne Rechenschaftspflicht ablehnen, aus Gründen, die nichts mit Wissenschaft zu tun haben, sondern nur mit dem Schutz ihrer Interessen.
Diese Graphik in deutscher Übersetzung:
Natürlich wird nur ein äußerst seltener, vollkommen ehrlicher Gutachter die Veröffentlichung einer Studie zulassen, welche die Grundlagen der Arbeit zerstört, die er sein Leben lang aufgebaut und erläutert hat. Upton Sinclair erklärte treffend: „Es ist schwierig, einem Menschen etwas verständlich zu machen, wenn sein Gehalt davon abhängt, dass er es nicht versteht.“ Ich nenne das die „Sinclair-Falle“, und es ist viel zu leicht, darin zu tappen.
Leider ist die Sinclair-Falle für Wissenschaftler noch schlimmer, weil es nicht nur um Geld geht. Ich habe bereits gesagt, dass „Wissenschaft ein blutiger Sport ist“. Damit meinte ich, dass jede neue wissenschaftliche Entdeckung oder Erkenntnis sehr kostspielig sein kann, nicht nur in Bezug auf das Gehalt, sondern auch in Bezug auf den geschätzten beruflichen Ruf der Vertreter der bisherigen Ansicht.
Es muss nicht teuer sein, wenn der Wissenschaftler, dessen frühere Arbeit diskreditiert wird, ehrlich und offen damit umgeht und bereit ist, voranzukommen und das neue Verständnis anzunehmen und weiterzuentwickeln.
Aber das gilt nicht für alle Wissenschaftler.
Und nun sehen wir das Ergebnis. Ein System, das so undurchsichtig und unkontrollierbar ist, dass es einerseits von kriminellen Syndikaten und andererseits von ideologischen Torwächtern ausgenutzt werden kann.
Was sollen wir also tun? Sollen wir einfach die Hände hochwerfen und sagen: „Wissenschaft ist schwierig“?
Nein. Auf keinen Fall.
Wir brauchen eine grundlegende Überarbeitung. Eine vollständige Abschaffung der Geheimhaltung, die es diesem Problem ermöglicht, im Verborgenen zu gedeihen.
Ich habe bereits zuvor eine Lösung vorgeschlagen, und ich werde sie erneut vorschlagen. Ich nenne sie „Peer Review Plus”.
So funktioniert sie: Sie ist einfach, kostengünstig und würde 90 % dieser Probleme über Nacht lösen.
Zunächst einmal behalten Sie das traditionelle Peer-Review-Verfahren bei. Aber hier kommt der Clou: Sie veröffentlichen alles.
Wenn ein Artikel veröffentlicht wird, dann nicht nur der Artikel selbst. Man veröffentlicht die gesamte Korrespondenz zwischen den Autoren und den Gutachtern. Man veröffentlicht die Namen der Gutachter und Herausgeber. Man veröffentlicht ihre Einwände und die Gegenargumente der Autoren.
Lassen Sie die Welt sehen, wie die Wurst gemacht wurde. Wenn ein Gutachter einen Artikel genehmigt hat, weil er mit dem Autor befreundet ist, wird das offensichtlich sein. Wenn ein Gutachter einen Artikel abgelehnt hat, weil ihm die Schlussfolgerung nicht gefallen hat, wird das ebenfalls offensichtlich sein.
Aber ich möchte noch weiter gehen.
Wir sollten auch alle wertvollen abgelehnten Artikel veröffentlichen.
Wissenschaft funktioniert durch Falsifizierung. Wenn ein Artikel abgelehnt wird, liegt das in der Regel daran, dass ein Gutachter einen Fehler gefunden hat. Diese Falsifizierung, ob gültig oder nicht, ist ein wertvoller wissenschaftlicher Beitrag. Aber derzeit landet sie im Mülleimer der Geschichte.
Wenn ein Gutachter meinen Artikel ablehnt, möchte ich, dass diese Ablehnung – und meine Antwort darauf – öffentlich zugänglich ist. Die Community soll entscheiden, ob die Ablehnung gültig war oder nur eine Form der Zensur.
Wir brauchen auch ein „Open Review”-System, bei dem die Veröffentlichung der Daten und des Codes obligatorisch ist. Mein Freund Mosh pflegte immer zu sagen: „Kein Code, keine Daten, keine Wissenschaft”. Das sollte zu „nicht veröffentlichen!” führen. Punkt.
Und dann, sobald es veröffentlicht ist, öffnen Sie die Diskussion. Erlauben Sie moderierte, nicht anonyme Kommentare im Internet von der größeren wissenschaftlichen Gemeinschaft und der Öffentlichkeit. Die Wahrheit ist, dass diese öffentliche Begutachtung durch die größere Welt die einzig wirklich wertvolle Begutachtung ist.
Die Studie der Northwestern University besagt, dass wir „uns selbst besser kontrollieren“ müssen. Damit haben sie halbwegs Recht. Wir brauchen nicht mehr Kontrolle. Wir brauchen mehr Licht und mehr Transparenz. Sonnenlicht ist das beste Desinfektionsmittel. Derzeit arbeitet die wissenschaftliche Gemeinschaft in einem fensterlosen Raum, und der Schimmel breitet sich aus.
Wir müssen aufhören, „Peer Reviewed“ als Siegel göttlicher Wahrheit zu betrachten, und anfangen, es als das zu behandeln, was es ist: ein fehlbarer, menschlicher und derzeit zutiefst korrumpierbarer Prozess.
Solange wir die Türen nicht aufstoßen und die Öffentlichkeit sehen lassen, wer wen bezahlt, wer wen begutachtet, welche Einwände gegen die Studie vorgebracht wurden und wo sich die Daten tatsächlich befinden, wird dieser Betrug weitergehen. Die Papierfabriken werden weiter produzieren, die Kumpels werden weiter begutachten, und das Vertrauen der Öffentlichkeit in die Wissenschaft wird seinen langen, langsamen Abstieg in den Abgrund fortsetzen.
Sowohl die Öffentlichkeit als auch die Wissenschaftler verdienen Besseres.
NACHTRAG: Nachdem ich Obiges geschrieben hatte, dachte ich, ich würde Perplexity nutzen, um mich über die Geschichte des Peer-Review-Verfahrens zu informieren. Wie immer gibt es für mich noch viel zu lernen. Das ist eine gute Frage für KI, da die Geschichte kein besonders umstrittenes Thema ist. Ich fragte:
Wie sieht die Historie des Peer-Review-Verfahrens in wissenschaftlichen Publikationen aus? Wer hat sich dafür eingesetzt? Wer hat Einwände dagegen erhoben?
Ich fügte meine üblichen Anweisungen hinzu, nicht zu raten, Primärquellen zu verwenden und ähnliches. Hier ist die Antwort:
===
Das Peer-Review-Verfahren in wissenschaftlichen Publikationen entwickelte sich schrittweise von informellen redaktionellen Konsultationen im 17. Jahrhundert zu einem standardisierten externen Begutachtungsverfahren nach dem Zweiten Weltkrieg, mit starker institutioneller Unterstützung durch große wissenschaftliche Gesellschaften und führende Fachzeitschriften sowie anhaltender Kritik von Wissenschaftlern und Fachleuten, die argumentierten, dass es konservativ, voreingenommen und oft unzuverlässig sei. Das moderne Peer-Review-Verfahren wurde nicht von einer einzelnen Person „erfunden“, und die erhaltenen historischen Dokumente lassen keine Zuordnung zu einer bestimmten Person zu. Vielmehr entstand es durch schrittweise Abläufe in Zeitschriften wie den Philosophical Transactions of the Royal Society und später durch formelle Richtlinien in Zeitschriften wie Nature. [1] [2] [3] [4] [5] [6] [7]
Frühe redaktionelle Überprüfung (17.–18. Jahrhundert)• Im Jahr 1665 begann Henry Oldenburg mit der Herausgabe der Philosophical Transactions of the Royal Society und holte Rat von sachkundigen Kollegen ein, um zu entscheiden, welche Beiträge gedruckt werden sollten. Historiker betrachten dies als Vorläufer des formellen Begutachtungsverfahrens, obwohl es sich dabei nicht um eine systematische externe Begutachtung im modernen Sinne handelte. [2] [8] [7]
• Im 18. Jahrhundert schuf die Royal Society einen Ausschuss für Veröffentlichungen, der Manuskripte annehmen, zurückstellen, ablehnen oder zur fachlichen Begutachtung an bestimmte Mitglieder weiterleiten konnte, wodurch interne wissenschaftliche Beurteilung in die Satzung der Zeitschrift eingebettet wurde, jedoch weiterhin ohne standardisierte, anonyme externe Begutachtung. [3] [8] [7]
Institutionalisierung im 19. Jahrhundert• Im 19. Jahrhundert verwendeten Philosophical Transactions und andere Fachzeitschriften zunehmend schriftliche Gutachten ausgewählter Gutachter, oft Mitglieder der Gesellschaft, um Entscheidungen bzgl. Veröffentlichungen zu treffen, wodurch der Prozess formeller und kollektiver wurde als Oldenburgs weitgehend persönliche redaktionelle Kontrolle. [7] [3]
• Wissenschaftshistoriker betonen, dass die Verfahren je nach Zeitschrift und Fachgebiet sehr unterschiedlich waren und dass selbst dort, wo Gutachten existierten, diese noch keine allgemeine oder einheitliche Anforderung für alle wissenschaftlichen Arbeiten waren. [4] [2]
Die „moderne“ Begutachtung im 20. Jahrhundert• Nach dem Zweiten Weltkrieg führten das rasante Wachstum der Anzahl von Manuskripten, die Ausweitung der Fachgebiete und das steigende Ansehen von Fachzeitschriften dazu, dass viele Zeitschriften routinemäßig externe Begutachtungen durch Fachleute einführten, was oft als die Geburtsstunde des „modernen“ Peer-Review-Verfahrens angesehen wird. [9] [1] [4]
• Ende der 1960er und Anfang der 1970er Jahre verfügten führende Zeitschriften wie Nature über formelle Peer-Review-Systeme, und der Begriff „Peer Review” selbst fand breite Verwendung, unterstützt durch Infrastrukturen zur Zitate-Verfolgung, die Veröffentlichungen in peer-reviewten Publikationen belohnten. [10] [4] [9]
Wer hat sich für die Begutachtung durch Fachkollegen eingesetzt?• Dokumentarische Belege zeigen, dass Funktionäre und Vorstände wissenschaftlicher Gesellschaften, insbesondere der Royal Society of London und ähnlicher Einrichtungen in Europa und Nordamerika, auf eine systematischere Begutachtung durch Experten drängten, um den wissenschaftlichen Ruf zu schützen, begrenzte Druckbudgets zu verwalten und die wachsende Zahl von Einreichungen zu filtern. [2] [3] [7]
• Herausgeber und Verleger bedeutender Fachzeitschriften in den Bereichen Medizin und Naturwissenschaften förderten Mitte des 20. Jahrhunderts die externe Begutachtung durch Fachkollegen als Instrument zur Qualitätskontrolle und als Gatekeeping- Verfahren. Später verstärkten Regierungs- und Förderbehörden dessen Einsatz, indem sie die Bewertung von Forschungsleistungen und die berufliche Laufbahn an die Veröffentlichung in Fachzeitschriften mit Peer-Review-Verfahren knüpften. [6] [1] [4]
Wer war gegen Peer Review?• Historische und zeitgenössische Analysen dokumentieren Einwände von prominenten Wissenschaftlern, darunter Albert Einstein, der sich deutlich dagegen wehrte, als eine seiner Arbeiten einer anonymen externen Begutachtung unterzogen wurde, sowie von späteren Kritikern, die argumentieren, dass Peer-Review innovative oder unkonventionelle Arbeiten unterdrücken kann. [5] [11]
• Methodologische Kritiken in der biomedizinischen und sozialwissenschaftlichen Literatur haben Probleme wie geringe Übereinstimmung zwischen den Gutachtern, Voreingenommenheit, konservative Präferenz für etablierte Paradigmen und begrenzte Fähigkeit zur Erkennung von Fehlern oder Betrug aufgezeigt, und einige Wissenschaftler haben umfassende Reformen oder sogar die Abschaffung der traditionellen Peer-Review vor der Veröffentlichung zugunsten alternativer Modelle gefordert. [12] [13] [1] [6]
Einschränkungen: Die erhaltenen Primärdokumente (Redaktionsprotokolle, Korrespondenz, Gutachten) sind unvollständig und je nach Zeitschrift unterschiedlich, sodass die Zuordnung der „ersten Verwendung” und die Listen der Personen, die sich dafür oder dagegen ausgesprochen haben, zwangsläufig unvollständig sind und keine Primärquelle eine vollständige, definitive Chronologie für alle Disziplinen liefert. [14] [7] [2]
[1](https://pmc.ncbi.nlm.nih.gov/articles/PMC11215012/)
[2](https://ethos.lps.library.cmu.edu/article/id/19/)
[4](https://blog.f1000.com/2020/01/31/a-brief-history-of-peer-review/)
[5](https://theconversation.com/hate-the-peer-review-process-einstein-did-too-27405)
[6](https://pmc.ncbi.nlm.nih.gov/articles/PMC4975196/)
[7](https://pmc.ncbi.nlm.nih.gov/articles/PMC4360128/)
[9](https://mitcommlab.mit.edu/broad/commkit/peer-review-a-historical-perspective/)
[10](https://www.youtube.com/watch?v=RGuaua10oRE)
[11](https://www.experimental-history.com/p/the-rise-and-fall-of-peer-review)
[12](https://pubmed.ncbi.nlm.nih.gov/12127284/)
[13](https://mediatheoryjournal.org/2018/09/03/mieke-bal-lets-abolish-the-peer-review-system/)
[14](https://www.nature.com/articles/d41586-024-03287-4)
Link: https://wattsupwiththat.com/2025/11/29/peer-reviewing-peer-review/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Begutachtung des Begutachtungs-Verfahrens erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Anmerkungen zu Brüssel vom ehemaligen Ministerpräsidenten und Präsidenten der Tschechischen Republik Prof. Dr. Vaclav Klaus
Vorbemerkung der EIKE-Redaktion: EIKE ist für Klima und Energie zuständig, aber auch für politische Kritik und Diskussionen zu diesen Themen. Im folgenden Vortrag von Prof. Dr. Vaclav Klaus, ehemaliger Ministerpräsident und Präsident der Tschechischen Republik (hier), gibt es keine Beschränkung auf EIKE-Themen. Dazu hätten wir ganze Passagen aus seiner Rede herausschneiden müssten und die Rede wäre unleserlich geworden. Wir machen lediglich darauf aufmerksam, dass diejenigenTeile der Rede von V. Klaus, die nicht EIKE-Themen sind, hier weder kommentiert, noch thematisiert werden. Formal maßgebend für diese EIKE-News sind die Teile der Rede, die direkt oder indirekt zur Klima- und Energiepolitik der EU gehören wie „Klimaschutz“, „green Deal“, CO2-Bepreisung, Abschaffung des Verbrenner-Motors und weitere unsere Industrie vernichtenden Maßnahmen. EIKE lehnt bekanntlich diese EU-Politik ab, weil sie ideologisch, aber nicht sachlich ist und Deutschland schadet.
Die Rede von Vaclav Klaus ist in Englisch und wurde von uns ins Deutsche übersetzt. Einige EIKE-Mitglieder sind mit Vaclav Klaus persönlich bekannt, so dass auch EIKE immer wieder einmal seine Reden hier publizieren kann. Diesmal ist es seine Rede im MCC Brussels (hier). Sie hat den Arbeitstitel The Battle for the Soul of Europe.
Anmerkungen zu Brüssel MCC1)
Vaclav Klaus
3. Dezember 2025
Sehr geehrte Damen und Herren,
vielen Dank für die Einladung zu dieser wichtigen Veranstaltung und für die Möglichkeit, hier zu sprechen. Hier in Brüssel. Ich habe etwas Stress den Namen dieser Stadt zu nennen. Für die meisten von Ihnen ist es wahrscheinlich ganz normal, nach Brüssel zu kommen, aber für mich ist das nicht so. Natürlich habe ich diese Stadt während meiner Zeit als Ministerpräsident und Präsident der Tschechischen Republik oft besucht, aber das ist vorbei. In den letzten mehr als zehn Jahren war ich nur einmal in Brüssel. Die Stadt ist nicht mehr die Stadt meiner Träume. Sie hat sich in vielerlei Hinsicht stark verändert seit 1962, als ich hier zufällig an einem Basketballturnier teilgenommen habe.
Es ist neun Jahre her, im Jahr 2016, seit ich das letzte Mal hier war. Ich kam hierher, um die flämische Version meines Buches „Europe All Inclusive: A Brief Guide to Understanding the Current Migration Crisis” ( Europa All Inclusive: Ein kurzer Leitfaden zum Verständnis der aktuellen Migrationskrise) vorzustellen. Dieses Buch kritisierte scharf die Zustimmung Westeuropas (und der EU) zur Masseneinwanderung nach Europa, kritisierte Angela Merkels Slogan „Wir schaffen das” und kritisierte die weit verbreitete europäische Illusion, dass es normal sei zu migrieren und dass jeder das Recht dazu habe. Diese Idee ist eine direkte Ablehnung des Konzepts des Nationalstaates. Wir sehen die Folgen an vielen Orten in Europa, Großbritannien ist in dieser Hinsicht wahrscheinlich führend.
Ich habe wiederholt argumentiert, dass wir die Gründe für Migration falsch interpretieren. Die europäische Nachfrage nach Migranten war als Quelle der Migration viel wichtiger als ihr Angebot. Nicht umgekehrt, wie es normalerweise behauptet wird. Ich erinnere mich, dass das belgische öffentlich-rechtliche Fernsehen während dieses Besuchs mir und meinen Ansichten gegenüber äußerst aggressiv war. Ich habe fast keine ähnlichen Erfahrungen gemacht – ehemalige Staatschefs genießen im Ausland normalerweise zumindest einen gewissen grundlegenden Respekt. Zu Hause ist das natürlich etwas anderes.
Seit den 1990er Jahren ist Brüssel zu einem Inbegriff all dessen geworden, womit ein europäischer Demokrat nicht einverstanden sein kann. Ich bin nicht einverstanden mit der Unterdrückung der Nationalstaaten und mit der Verherrlichung supranationaler Institutionen. Ich bin nicht einverstanden mit der Blockade elementarer Prinzipien der Marktwirtschaft und mit der Förderung lähmender Regulierung – einer Regulierung, die uns, die wir den Kommunismus erlebt haben, immer mehr an die alte zentrale Planwirtschaft erinnert. Politische Korrektheit und die fortwährende Bevormundung durch mächtige Brüsseler Eliten, die ohne elementare Kontrollmechanismen regieren, sind ebenso inakzeptabel. Diese Kontrollmechanismen sind für das Funktionieren der Demokratie unverzichtbar, existieren aber in der EU nicht.
Einige von uns haben ihr Leben dem Kampf gegen solche oder ähnliche Systeme gewidmet, die – wie viele Menschen jetzt verspätet zu verstehen beginnen – nicht nur mit dem offensichtlich unterdrückerischen und tragisch funktionierenden Kommunismus in Verbindung stehen. Wie wir sehen, stehen sie auch mit ähnlichen Systemen in Verbindung, die auf anderen kollektivistischen Ideologien basieren.
Ich entschuldige mich für diese schnelle und nur proklamatorische Zusammenfassung meiner Position, aber es ist unmöglich, diese Themen in einer kurzen Konferenzrede verständlich zu diskutieren.
Lassen Sie mich daher zwei Teilthemen als Beispiele für das aufgreifen, was ich für relevant halte.
Sie haben beschlossen, die heutige Konferenz „Kampf um die Seele Europas” zu nennen. Ist das ein korrekter und angemessener Titel? Ich glaube nicht. Es handelt sich um ein Thema, das ich vor sechzehn Jahren mit dem angesehenen Wiener Kardinal Christoph Schönborn bei einem Diskussionsforum in der bayerischen Stadt Passau erörtert habe. Die damals aufgeworfene Frage lautete: „Gibt es eine Seele Europas?” oder, in milderer Form, „Gibt es eine gemeinsame Idee von Europa?” Meine dortigen Ausführungen finden Sie auf meiner Website (auf Deutsch)2).
Die Europäer, die naiven Befürworter einer politischen Vereinigung Europas, die die Debatte in Passau organisiert hatten, suchten nach einem Konzept, das einen positiven „Europa-integrierenden Effekt” haben könnte. Ich war anderer Meinung. Wie ich damals sagte: „Europa hat keine gemeinsame Idee, es kann keine haben und es braucht auch keine.“ Stattdessen schlug ich vor, nach einem authentischen gemeinsamen Nenner zu suchen, den ich in der Freiheit sehe, etwas, das wirklich zu Europa gehört. Aber Freiheit ist nicht die Seele Europas. Freiheit ist eine soziale oder besser gesagt gesellschaftliche Vereinbarung, in der ein einzelner Mann (oder eine einzelne Frau) nicht vom Staat kontrolliert oder gelenkt wird.
Für Freiheit zu kämpfen bedeutet nicht, für eine pan-kontinentale Gemeinschaft oder für einen kulturell völlig homogenen Raum zu kämpfen. Europa ist nicht homogen. Wir sollten auch nicht so tun, als gäbe es eine gemeinsame Geschichte Europas (die es natürlich nicht gibt). Und wir sollten nicht künstlich eine „Seele Europas” erfinden. Solche Bemühungen können nur zur Verfälschung der Geschichte und der heutigen Realität führen. Unser Kontinent hat weder eine gemeinsame Idee noch eine Seele. Die Existenz einiger allgemein akzeptierter Werte ist wichtig, schafft aber keine Seele.
Ich betone immer wieder, dass die unbestreitbare Existenz eines europäischen Zivilisationsraums etwas völlig anderes ist als das künstliche Konstrukt namens Europäische Union. Wir sollten diese beiden Dinge nicht miteinander vermischen.
Ich habe die künstliche Intelligenz gefragt, ob ich jemals den Begriff „Seele Europas“ verwendet habe. Die Antwort war nein. Er (oder sie) sagte auch, dass ich den Begriff „kollektive Psyche Europas“ verwendet habe. Aber ich habe ihn ironisch verwendet, als etwas, das von den europäistischen Eliten in ihren Bemühungen zur Förderung des sehr fragwürdigen Projekts der politischen Vereinigung Europas propagiert wird.
Betrachten wir die EU einmal pragmatisch und realistisch. Es handelt sich um eine Gruppierung von Ländern, die einige gemeinsame Interessen haben und diese gemeinsam verfolgen wollen. Die Ökonomen würden von sogenannten öffentlichen Gütern auf kontinentaler Ebene sprechen, aber sie wissen, dass es davon nicht viele gibt.
Lassen Sie mich nun zu meinem zweiten Thema kommen. Ich nehme an einem europäischen Forum nach dem anderen teil. Die europäische Gesellschaft ist wohlhabend genug, um solche Zusammenkünfte großzügig zu finanzieren. Eine der prominenten Persönlichkeiten bei solchen Treffen ist Mario Draghi (aber wir könnten auch einige andere bekannte Konferenzredner nennen). Seine jüngste Rede in Rimini hat mich dazu veranlasst, ihn – auf einem Forum in Lugano – als den Gorbatschow der Europäischen Union von Ursula von der Leyen zu bezeichnen. Er spricht wie ein typischer „Perestroika“-Mann, falls sich noch jemand an diesen Begriff erinnert. Draghi möchte die Grundlage der aktuellen EU-Vereinbarungen intakt halten. Gorbatschow wollte ebenfalls den Kommunismus bewahren, strebte jedoch an, ihn – technokratisch – effizienter zu gestalten.
Nach dem Fall des Kommunismus lehnten wir – in den meisten mittel- und osteuropäischen Ländern – die Idee der Perestroika, diese Form eines „dritten Weges”, ab und erklärten stattdessen, dass wir den Kapitalismus, den ersten Weg, wollten. Ich möchte hier kein Geschichtsseminar halten, sondern spreche darüber, weil ich überzeugt bin, dass wir – in ähnlicher Weise – jetzt einen systemischen Wandel in ganz Europa brauchen.
Die Märkte sind nicht frei. Die Märkte in Europa wurden in den letzten Jahrzehnten so stark besteuert, reguliert und unterdrückt, dass wir – statt einer Informationsrevolution oder Digitalisierung – eine Rückkehr zu freien Märkten brauchen. Digitalisierung ist nicht das Gegenteil eines überregulierten Marktes, sondern eine Methode, um Regulierung einfacher und effizienter zu gestalten. Das Ziel der politischen Eliten ist es, uns effektiver zu regulieren. Heute befinden sich die Volkswirtschaften der EU-Länder in einer untergeordneten Position. Die Wirtschaft wird wieder einmal von der Politik diktiert.
Der Green Deal ist die offensichtlichste Verkörperung der grünen Politik, und trotz aller Kritik von vielen vernünftigen Gegnern gerät die EU immer tiefer in diese Falle, in diesen unverantwortlichen Irrtum. Um ihn zu beseitigen, brauchen wir die freie Meinungsäußerung als einzigen Weg zu einer grundlegenden Veränderung, nicht nur zu einer weiteren Perestroika.
Ich bin überzeugt, dass die MCC-Konferenz hier in Brüssel eine seltene Veranstaltung ist, die einen freien Meinungsaustausch ermöglicht. Ich danke Ihnen für die Einladung, hier zu sprechen.
- 1) “Battle for the Soul of Europe”, MCC Brussels Conference, December 3, 2025, Brussels
- 2) Notizen für Passau: Gibt es eine gemeinsame Idee Europas? Passauer Gespräche, Mediazentrum der Verlagsgruppe Passau, Passau, 16. September 2009; https://www.klaus.cz/clanky/1247
Der Beitrag Anmerkungen zu Brüssel vom ehemaligen Ministerpräsidenten und Präsidenten der Tschechischen Republik Prof. Dr. Vaclav Klaus erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
„Das Weißwaschen von Climategate geht weiter“ – Der Skandal eines Skandals
Robert Bradley Jr., MasterResource
„Es ist unmöglich, etwas zu finden, wenn man nicht wirklich danach sucht… [Sir Muir Russells Ausschuss] hat nur CRU-Mitarbeiter befragt, nicht die Leute, die von CRU verleumdet worden waren.“ (Patrick Michaels, unten)
Am 16. Jahrestag von Climategate ist ein Leitartikel aus dem Jahr 2010 des verstorbenen Patrick J. Michaels aktueller denn je. Michaels, der scharfsinnigste Klimawissenschaftler, der sich gegen den alarmistischen Konsens aussprach, würde sich über das Scheitern des Pariser Abkommens und „Net Zero“ auf der diesjährigen COP30 freuen. Es folgt sein Leitartikel, der im Wall Street Journal (12. Juli 2010) veröffentlicht worden war.
Alarmisten der globalen Erwärmung fühlen sich nach dem Skandal um Datenmanipulationen im letzten Jahr bestätigt. Glauben Sie den „unabhängigen” Gutachten nicht.
Im November letzten Jahres gab es weltweit einen Aufschrei, als eine Fülle von E-Mails veröffentlicht worden war, die darauf hindeuteten, dass einige der weltweit führenden Klimaforscher sich berufliches Fehlverhalten, Datenmanipulationen und Fälschungen sowohl in der wissenschaftlichen Literatur als auch bei Klimadaten zuschulden kommen ließen, um das zu zeichnen, was der Wissenschaftler Keith Briffa als „eine schöne, ordentliche Geschichte” der Klima-Historie bezeichnete. Der Skandal wurde als „Climategate” bekannt.
Nun kommt eine angeblich unabhängige Überprüfung der Beweise zu dem Schluss, dass es „nichts zu sehen gibt”. Letzte Woche sprach die von der University of East Anglia in Auftrag gegebene und finanzierte „Unabhängige Überprüfung der E-Mails zum Klimawandel” die University of East Anglia frei. Den Vorsitz des Überprüfungsausschusses hatte Sir Muir Russell, ehemaliger Vizekanzler der University of Glasgow.
Herr Russell bemühte sich, sein aus vier weiteren Wissenschaftlern bestehendes Komitee als unabhängig darzustellen. Er erklärte gegenüber der Londoner Zeitung „The Times“, dass „es angesichts der Art der Vorwürfe richtig ist, dass jemand, der weder mit der Universität noch mit der Klimawissenschaftsgemeinschaft in Verbindung steht, die Beweise prüft und auf der Grundlage seiner Erkenntnisse Empfehlungen ausspricht“.
Keine Verbindungen? Eines der vier Mitglieder des Gremiums, Prof. Geoffrey Boulton, war 18 Jahre lang an der Fakultät für Umweltwissenschaften der University of East Anglia tätig. Zu Beginn seiner Amtszeit wurde die Climatic Research Unit (CRU) – die Quelle der Climategate-E-Mails – an Boultons Fakultät in East Anglia gegründet. Im vergangenen Dezember unterzeichnete Boulton eine Petition, in der er erklärte, dass die Wissenschaftler, welche die globalen Klimadaten in East Anglia erhoben hatten, „höchste professionelle Integrität“ bewiesen hätten.
Diese angeblich unabhängige Überprüfung folgt auf zwei andere – eine von der University of East Anglia selbst und eine von der Penn State University, die beide im Frühjahr abgeschlossen wurden und sich auf ihren eigenen Mitarbeiter bezogen, Prof. Michael Mann. Mann war einer der Hauptakteure des Climategate-Skandals, der einen Plan vorschlug, der in E-Mails klar dargelegt wurde und deren Echtheit Herr Mann nicht angezweifelt hat, um eine wissenschaftliche Zeitschrift zu zerstören, die es gewagt hatte, drei Artikel zu veröffentlichen, mit denen er und seine Freunde aus East Anglia nicht einverstanden waren. Auch diese beiden Untersuchungen sahen nichts Verwerfliches. So kam die Penn State University beispielsweise zu dem Schluss, dass Dr. Michael E. Mann weder direkt noch indirekt an Handlungen beteiligt war, die ernsthaft von den in der akademischen Gemeinschaft akzeptierten Verfahren abwichen.
Leser beider früherer Berichte sollten wissen, dass beide Institutionen mehrere Millionen Dollar an staatlichen Fördermitteln für die Erforschung der globalen Erwärmung erhalten (was durch Einsichtnahme in die Fördermittelhistorie von Herrn Jones oder Herrn Mann bestätigt werden kann, die aus öffentlichen Quellen zusammengestellt wurde und online unter freerepublic.com verfügbar ist). Jedes Eingeständnis eines substanziellen wissenschaftlichen Fehlverhaltens würde wahrscheinlich zu einem erheblichen Verlust an Fördermitteln führen.
Es ist unmöglich, etwas Falsches zu finden, wenn man nicht wirklich danach sucht. In einer berühmten E-Mail vom 29. Mai 2008 schrieb Phil Jones, Direktor des CRU in East Anglia, unter dem Betreff „IPCC & FOI” an Mann: „Können Sie alle E-Mails löschen, die Sie mit Keith [Briffa] bezüglich AR4 [dem Bericht des Intergovernmental Panel on Climate Change (IPCC)] ausgetauscht haben? Keith wird das Gleiche tun … Können Sie auch Gene [Wahl, einem Mitarbeiter des US-Handelsministeriums] eine E-Mail schicken, damit er das Gleiche tut … Wir werden Caspar [Amman vom US-amerikanischen National Center for Atmospheric Research] bitten, das Gleiche zu tun.”
Herr Jones schrieb später in einer E-Mail, dass er „eine Menge E-Mails gelöscht“ habe, damit jeder, der einen Antrag nach dem Freedom of Information Act stellen würde, nur sehr wenig erhalten würde. Laut Fred Pearce, Autor bei New Scientist, „haben Russell und sein Team Jones oder seine Kollegen nie gefragt, ob sie dies tatsächlich getan haben“.
Der Russell-Bericht stellt fest: „Was die Behauptung betrifft, Temperaturdaten zurückgehalten zu haben, so stellen wir fest, dass das CRU nicht in der Lage war, den Zugang zu solchen Daten zu verweigern.“ Wirklich? Hier ist, was CRU-Direktor Jones im Februar 2005 an den australischen Wissenschaftler Warrick Hughes schrieb: „Wir haben etwa 25 Jahre in diese Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn Ihr Ziel darin besteht, Fehler darin zu finden[?]“
Dann gibt es noch das Problem der Einmischung in die Begutachtung durch Fachkollegen in der wissenschaftlichen Literatur. Auch hier konnte Russell keinen Fehler feststellen: „Was die Vorwürfe betrifft, dass es zu einer Untergrabung des Begutachtungs- oder Redaktionsprozesses durch Fachkollegen gekommen sei, finden wir keine Beweise, die dies belegen.“
Wirklich? Herr Mann behauptet, dass die Temperaturen vor etwa 800 Jahren, in der sogenannten mittelalterlichen Warmzeit, nicht so hoch waren wie die kürzlich gemessenen. Dies ist wichtig, denn wenn die heutigen Temperaturen nicht ungewöhnlich sind, lässt dies Zweifel an der Befürchtung aufkommen, dass die globale Erwärmung eine ernsthafte Bedrohung darstellt. Im Jahr 2003 veröffentlichten Willie Soon vom Smithsonian Institute und Sallie Baliunas von der Harvard University einen Artikel in der Fachzeitschrift Climate Research, in dem sie Manns Arbeit kritisierten, die auch im Widerspruch zu einer Vielzahl unabhängiger Studien zum Paläoklima stand. Es scheint also, dass der Artikel von Soon und Baliunas nur Teil des normalen wissenschaftlichen Diskurses war.
Aber Jones schrieb Mann am 11. März 2003: „Ich werde der Zeitschrift per E-Mail mitteilen, dass ich nichts mehr mit ihr zu tun haben will, bis sie diesen lästigen Herausgeber losgeworden ist, nämlich Chris de Freitas von der Universität Auckland.“ Mann antwortete Jones noch am gleichen Tag: „Ich denke, wir sollten Climate Research nicht mehr als seriöse Fachzeitschrift mit Peer-Review betrachten. Vielleicht sollten wir unsere Kollegen dazu ermutigen, keine Artikel mehr bei dieser Zeitschrift einzureichen oder zu zitieren. Wir müssten auch überlegen, was wir unseren vernünftigeren Kollegen, die derzeit im Herausgeberbeirat sitzen, sagen oder von ihnen verlangen.“
Mann schrieb schließlich am 11. Juli 2003 an Jones: „Ich denke, die Gemeinschaft sollte … ihre Beteiligung an dieser Zeitschrift auf allen Ebenen beenden … und sie in Vergessenheit und Verruf geraten lassen.“
Climate Research und mehrere andere Fachzeitschriften akzeptieren keine Beiträge mehr, welche die gängige Meinung zum Thema globale Erwärmung, wie sie vom CRU vertreten wird, grundlegend in Frage stellen. Seit den CRU-Machenschaften wurden vier meiner Manuskripte, die völlig in Ordnung waren, ohne weitere Prüfung abgelehnt, und ich bin bei weitem nicht der Einzige. Roy Spencer von der University of Alabama in Huntsville hat festgestellt, dass es fast unmöglich geworden ist, in Fachzeitschriften mit Peer-Review etwas zum Thema globale Erwärmung zu veröffentlichen, das nicht alarmistisch ist.
Natürlich hat Russell nicht untersucht, ob die in den Climategate-E-Mails diskutierten hässlichen Druckmethoden irgendwelche Konsequenzen hatten. Das liegt daran, dass sie nur CRU-Mitarbeiter interviewt haben, nicht aber die Leute, die CRU schlecht gemacht hatte.
Link: https://wattsupwiththat.com/2025/11/28/the-climategate-whitewash-continues-scandal-of-a-scandal/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag „Das Weißwaschen von Climategate geht weiter“ – Der Skandal eines Skandals erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
