«Und während Sie über Ungarn mal dies hören und mal das, sollten Sie besser schleunigst nach Brüssel sehen, wo von der Leyen das Projekt der Zweckentfremdung der EU, der Vergewaltigung der europäischen Verträge und der finalen Entmachtung der Nationalstaaten vorantreibt, als gäb’s kein Morgen. Ein Projekt, das nie etwas anderes als Ihre eigene Entmachtung, werter Bürger, war, die unter dieser Kommissionspräsidentin natürlich verlässlich aufs Hässlichste verschleiert ist.» (– Martin Sonneborn)
EIKE - Europäisches Institut für Klima und Energie e.V.
Kohlendioxid ist Leben, Kohlendioxid ist Schöpfung!
Von Matthias Baritz und Josef Kowatsch.
- CO₂ ist ein sauberes Gas und lebensnotwendig.
- CO₂ ist Leben, CO₂ ist Schöpfung
- Wir brauchen mehr CO₂ in der Atmosphäre
- Wir befinden uns in einer CO₂-Armut
- Der CO₂-gehalt ist über Jahrmillionen immer mehr gesunken
- Der Mensch hat die Schöpfung Erde vorerst gerettet
- CO₂ ist der Lebensmotor für die Schöpfung
- Schützt den Klimawandel
Im Allgemeinen gibt es unklare Vorstellungen darüber, was Kohlendioxid eigentlich ist. In den Medien zeigt man dann rauchende Schornsteine, Smog und qualmende Autos. Klimakiller und Klimakatastrophe sind weitere negative Attribute. Gewisse Nachrichtensprecher bezeichnen C02 sogar als Giftgas. Wer so etwas sagt, dem sollte man das Atmen verbieten, denn jeder von uns atmet dieses „Giftgas“ aus, etwas mehr als ein halbes Kilo täglich.
Genau das Gegenteil dieser Falschdarstellungen ist C02. Kohlendioxid ist ein farbloses, geruchloses völlig unsichtbares Gas, das 1,5mal schwerer als Luft ist. In der Atmosphäre ist es lediglich ein Spurengas mit einem Vorkommen von 0,043 Vol%. Physikalisch ist C02 so gut wie wirkungslos, chemisch hingegen ist sein Wirkung lebensnotwendig.
Ohne Luftdurchmischung konzentriert CO₂ sich in Senken oder Höhlen. In größeren Konzentration riecht es leicht säuerlich. Es wird im Feuerlöscher benutzt, genauso wie im sauren Mineralwasser. C02 ist das Endprodukt einer extrem sauberen Verbrennung. Je sauberer ein Motor oder eine Heizung arbeitet, desto höher ist der Wirkungsgrad und desto mehr CO₂ werden aus dem Brennstoff als „sauberes Abgas“ hergestellt. Wir atmen es gerade aus.
Kohlendioxid ist Leben, Kohlendioxid ist Schöpfung.CO₂ ist der notwendige Grundbaustein für das Leben auf der Erde. Wir Menschen wie auch Tiere und Pflanzen bestehen neben einigen anorganischen Komponenten aus unzähligen und ganz unterschiedlichen organischen Molekülen, die in hochkomplexer Weise interagieren als läge dem ein göttlicher Bauplan zugrunde. Sämtliche organische Verbindungen basieren dabei auf Kohlenstoff. Und jedes einzelne dieser C-atome stammt letztlich von dem Spurengas CO₂!!! Leider viel zu wenig vorhanden, nur 425 ppm in der Luft, das ist zu wenig CO₂ für eine optimale Lebensentfaltung auf diesem Planeten. Es muss erstaunen, dass diese relative geringe CO₂-Konzentration in der Luft überhaupt ausreicht, soviel pflanzliche Biomasse zu erzeugen. Tatsächlich müssen sich Pflanzen einige Tricks einfallen lassen, um ausreichend CO₂ bei der Fotosynthese zu kriegen. Die meisten Pflanzen sind C-3 Pflanzen, bei denen hängt die Bindung von einem Enzym, namens Rubisco ab. Sie haben gelernt, sich mit weniger CO₂ zurecht zu finden
Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO₂ vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.
Wir brauchen mehr CO₂ in der AtmosphäreDer Kohlendioxidgehalt hatte ein unteres Minimum erreicht.
Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid, Mineralien und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1200ppm, das sind etwa 0,1%. Das ist auch die Konzentration in den Gewächshäusern für den Gemüseanbau. Z.B. hier beschrieben.
Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.
Jeder, der CO₂ freisetzt, dürfte nicht ein Malus, sondern müsste einen Bonus bekommen. Und wir müssten uns auf das Grundgesetz berufen
„Grundgesetz für die Bundesrepublik Deutschland, Art 20a: Der Staat schützt auch in Verantwortung für die künftigen Generationen die natürlichen Lebensgrundlagen und die Tiere im Rahmen der verfassungsmäßigen Ordnung
Zu den natürlichen Lebensgrundlagen dieses Planeten gehört eine ausreichende CO₂-Konzentration. Unter 290 ppm bekommt das Leben seine Schwierigkeiten.
Grafik 1: Noch ist die Flora und Fauna auf diesem Planeten nicht gerettet. Wir haben bisher erst die CO₂-Konzentrationsabnahme stoppen können. Ein deutlicher CO₂-Aufwärtstrend, eine Konzentrationszunahme auf den optimalen Wert für Flora und Fauna ist noch nicht erkennbar
Weshalb ist die CO₂-Konzentration der Atmosphäre im Laufe von Jahrmillionen überhaupt gefallen?Dafür sind geologische und biologische Prozesse die Ursache. Diese Prozesse entzogen der Atmosphäre kontinuierlich Kohlenstoff und speicherten ihn in verschiedenen Senken.
Die Hauptgründe für diese Entwicklung sind:
- Auflösung in den Ozeanen: Ein Großteil des atmosphärischen CO₂ löste sich im Wasser und bildete Kohlensäure. Diese Säure reagierte dann mit Mineralien im Wasser, wodurch Karbonate und andere Verbindungen entstanden, die sich am Meeresboden ablagerten und so langfristig dem Kohlenstoffkreislauf entzogen wurden.
- Photosynthese und Entstehung fossiler Brennstoffe: Mit der Evolution und Ausbreitung von Pflanzen, insbesondere im Karbonzeitalter, wurde durch Photosynthese große Mengen CO₂ aus der Atmosphäre aufgenommen. Abgestorbene Pflanzenmaterie, die nicht vollständig zersetzt wurde, sammelte sich über Millionen von Jahren an und bildete die riesigen Lagerstätten fossiler Brennstoffe (Kohle, Öl, teilweise auch Gas), wodurch der Kohlenstoff dem kurzfristigen CO₂-Kreislauf dauerhaft entzogen und eingebunkert wurde.
- Chemische Verwitterung von Gesteinen (Silikatverwitterung): Atmosphärisches CO₂ (in Form von Kohlensäure im Regenwasser) reagierte mit Silikatgesteinen auf der Erdoberfläche. Bei dieser chemischen Verwitterung wird das CO₂ gebunden und über Flüsse in die Ozeane transportiert, wo es als Sedimentgestein (z.B. Kalkstein) abgelagert wird. Durch Anhebung des Meeresbodens sind ganze oberirdische Kalkgebirge entstanden.
- Einlagerung ins Knochenskelett und in den Kalkpanzer von Land- und Meereslebewesen: Nach dem Tode lagert sich der Kalk im Boden oder auf dem Meeresgrund ab. Die Folge all dieser Prozesse war eine schleichende Reduzierung des schöpfungsnotwendigen CO₂ in der Atmosphäre. Die Schöpfung war auf einem unteren Niveau angekommen, die Fotosynthese extrem behindert.
Der Kreislauf des Kohlendioxids zum Lebenserhalt auf der Erde
Abb. 2: Ein Teil des CO₂ wird auf dem Land ständig im Erdboden eingebunkert (siehe linke Hälfte der Abbildung) und somit aus der Luftkonzentration entzogen. Dasselbe geschieht im Meer, wenn Lebewesen absterben, ihr Knochengerüst absinkt und den Meeresboden als Sedimente auffüllt. Ganze unterirdische Kalkgebirge sind im Laufe der Jahrhundertmillionen entstanden, die nach Anhebung als Kalklandschaften die Landflächen bedecken.
Der Mensch hat die Schöpfung und das Leben auf der Erde vorerst gerettet.Es ist wohl eine wunderbare Vorsehung der Schöpfung, dass der Mensch berufen war, das Zugrundegehen der Vegetation auf diesem Planeten infolge immer weniger CO₂-Konzentration in der Atmosphäre durch das industrielle Zeitalter zu bekämpfen und zu beenden. Die CO₂-Zunahme durch vermehrte Verbrennung kohlenstoffhaltiger Energieträger hat diesen Planeten wieder lebensfähig gemacht, die 428 ppm CO₂ in der Atmosphäre sind aktuell noch zu wenig, die Photosynthese braucht für ein optimales Wachstum der Nahrungsmittelpflanzen etwa das doppelte.
Die Wüsten würden weiter zurückgehen und die Erde weiter ergrünen. Jede von der Politik verordnete CO₂-Einsparung ist eine Sünde gegen die lebende, grüne Erde. Den teuren CO₂-Einsparungsideen müssen wir entschieden widersprechen.
Nebenbei: CO₂ ist zwar klimawirksam, jedoch kein Treibhausgas – der Begriff ist eine Werbeerfindung- und bewirkt bei diesen geringen CO₂-Konzentrationsänderungen von 400 auf 800 ppm keine messbaren Temperaturerhöhungen. Das zeigen alle Versuche. Zuletzt im September 2022 der Großversuch mit dem zig-fach stärkeren „Treibhausgas“ Methan bei der Sprengung der Ostseepipeline. Jetzt weiß es alle Welt, – nur die Medien haben das nicht mitbekommen – dass Treibhausgase nichts wesentliches erwärmen, und die Behauptung ein weltweiter Schwindel ist mit dem alleinigen Ziel, eine Klimaangst und Panik zu erzeugen. Bei vielen Schulkindern zeigt diese irrsinnige Hysterie bereits psychische Angststörungen. Und nur mit einer CO₂-Ablaßhandelssteuer kann man sein Gewissen beruhigen. Dieses verwerflich sündige Geschäftsmodell kennen wir aus dem Mittelalter vom Sündenablasshandel. Wir dürfen diese CO₂-Panikmache nicht länger zulassen.
Und die hochverschuldeten westlichen Staaten haben nun einen Sündenbock gefunden, letztlich wird die Luft besteuert. Eine nie versiegende Geldquelle, um uns auszubeuten. Richtig gelesen, die Besteuerung der Luft.
Die Erde ist einzigartig wegen Kohlendioxid: Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO₂ verteufelt und vermindern will, versündigt sich gegen die Schöpfung dieses Planeten. CO₂ ist kein Klimakiller, wer das behauptet, will das Leben auf dem Planeten Erde ausrotten. Und solchen Falschaussagen müssen wir offensiv entgegentreten. Wir wollen keine Schöpfungszerstörer auf diesem Planeten dulden.
Die Fotosynthese ist der Lebensmotor für die einzigartige Schöpfungsgeschichte der ErdeHier sollen nur in aller Kürze das Notwendige hervorgehoben werden. Wir verweisen auf die reichliche Literatur zu diesem Thema.
Abb. 3: Bei der Fotosynthese geht es eigentlich um 2 unterschiedliche Vorgänge, die zusammenwirken: die Fotolyse des Wassers und der Calvinzyklus. Ersterer liefert die im Calvinzyklus benötigte Energie und den reduzierenden Wasserstoff und setzt nebenbei noch Sauerstoff frei. Beim Calvinzyklus wird CO₂ unter Mitwirkung eines besonderen Enzyms assimiliert
Dabei ergibt sich folgende Fotosynthese-Bilanz
6 CO₂ + 12 H₂O ——— C₆H₁₂O₆ + 6 O₂ + 6 H₂O
Hierbei werden die energiearmen Stoffwechselendprodukte CO₂ und H2O verbraucht und unter Verwendung von physikalisch hochfrequenter Lichtenergie energiereiche Glucose hergestellt. Die ursprüngliche Lichtenergie ist in den Molekülverbindungen der Glucose gespeichert.
Sowohl der freigewordene Sauerstoff als auch das energiereiche Zuckermolekül steht dann am Anfang der Nahrungskette für die gesamte Fauna.
Wäre eine andere Schöpfungsentstehung möglich gewesen, auf der Grundlage eines anderen Elementes?Grundsätzlich bietet sich das vierwertige Silicium an oder auch Schwefel. Wasserstoff bestimmt nicht, da es einwertig ist und somit scheidet die Lebensvielfalt aus.
Ein Leben auf Siliziumbasis ist eher ein beliebtes Thema in der Science-Fiction, aber wissenschaftlich gilt es als extrem unwahrscheinlich, da Silizium im Vergleich zu Kohlenstoff deutlich weniger stabile und vielseitige Bindungen eingehen kann wegen der geringeren Elektronegativität des Siliziumatomes im Vergleich zu C-atom, was somit eine Entwicklung komplexer Lebensformen wie auf der Erde unmöglich macht. Ein Leben auf Si-Basiss ist eher ein hypothetisches Konzept für extrem andere Umgebungen mit sehr niedrigen Temperaturen und wenig Wasser, wo es vielleicht eine primitive Form ermöglichen könnte. Solches Leben bräuchte sehr kalte Umgebungen, vielleicht mit Lösungsmitteln wie flüssigem Methan oder Schwefelsäure, und wenig Wasser und Sauerstoff.
Und noch ein Grund: Silicium ist das zweithäufigste Element in der Erdkruste. Das Leben hat jedoch Kohlenstoff bevorzugt. Es gibt jedoch auf der Erde Mikroorganismen, die in den Siliziumkreislauf eingebunden sind und Siliziumverbindungen verstoffwechseln können, allerdings nicht als primäre Energiequelle im Sinne des „Fressens“ von reinem Silizium oder von Siliziumdioxid.
Schwefelbasis: ja, das gibt es, sogar auf der Erde, siehe hier. Leben auf Schwefelbasis existiert sogar in Form von Schwefelbakterien, die Schwefelwasserstoff zur Energiegewinnung nutzen und in extremen Umgebungen wie Tiefsee-Hydrothermalquellen vorkommen, wo sie Basis für Ökosysteme bilden; theoretisch könnten auch komplexere Lebensformen auf Schwefel basieren, da Schwefel ähnliche Bindungseigenschaften wie Kohlenstoff hat, aber Kohlenstoff ist wegen seiner größeren Vielfalt an Verbindungen überlegener.
Ist es momentan zu heiß auf der Erde? Antwort Nein
Auch die seit 1979 mit Satelliten gemessene globale Erwärmung ist erst recht kein Grund zur Beunruhigung, wenn man die Anstiegswerte nicht in Hundertstel-Grad aufträgt wie die uns ausraubende Klimakirche das gerne tut, sondern die Zehntelgrade ins Klimageschehen der Erdgeschichte einreiht. Und außerdem begannen die Satelliten-Messungen aus einer Abkühlungsphase heraus. – dem „Seventies Cooling“.
Grafik 4: Laut Satellitenmessungen haben die globalen Temperaturen gerade mal um 0,3 Grad seit 1979 zugenommen. Das ist unbedeutend, wenn man diese angebliche“ furchterregende Erwärmung“ in den Verlauf der Erdgeschichte einreiht. Und ob die angenehme 0,3 Grad Temperaturzunahme dauerhaft sein wird ist ebenso ungewiss.
Das Ergebnis dieser Erwärmung zeigt uns die nächste Grafik:
Grafik 5: Die momentan global ermittelten Temperaturen sind weit entfernt von einem Hitzetod der Erde. Die „letzte Generation“ und viele Deutsche Gutgläubige sind auch ein Opfer übertriebener und entstellter Grafiken. Das Geschäftsmodell Treibhaus betreibt nebst vielen anderen Klimalügen und Katastrophenübertreibungen auch eine ausgewählte „Grafikpanik“
Zwei Grundforderungen von uns Natur- und Umweltschützern:Die werbe- und geschäftsmäßig geplante und regierungsgewollte CO₂-Klimaangstmache vor einer angeblichen Erdüberhitzung und Lebensbedrohung muss sofort eingestellt werden.
Wir sind deshalb gegen teure technische CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo wieder zu vergrößern. (Vorschlag aus den USA). Das ist ebenfalls ein Geschäftsmodell für eine angebliche Klimarettung. Das derzeitige Klima braucht überhaupt nicht gerettet zu werden.
Jedoch zeigt die Erde aufgrund massiver menschlicher Eingriffe, die wir Naturschützer als Natur- und Umweltzerstörung bezeichnen, Anfälligkeiten für das tägliche Wettergeschehen, z.B. heiße Sommertage mit einer längeren Trockenperiode:
Was man gegen heiße Sommertage und gegen die Trockenlegung Deutschlands vorgehen sollte, haben wir in 15 Punkten beschrieben.
Aber diese Hilfsmaßnahmen, die tatsächlich helfen würden, würden der CO₂-Treibhaustheorie widersprechen, deshalb entscheidet sich die Politik lieber für die teure CO₂-Bodenverpressung oder CO₂ aus der Luft ausfiltern und andere vollkommen sinnlose CO₂-Reduzierungs-maßnahmen, die nur die grüne Ideologie befriedigen. Unsere Vorschläge im obigen link würden nicht nur helfen, sondern wären zugleich ein Beitrag zum Naturschutz, die Vielfalt der Arten und die Ökologie der Landschaft würde sich wesentlich verbessern.
Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert, nur raffinierter und durchdachter. Ausführlich hier beschrieben.
Diesem Geschäftsmodell Treibhauskirche, der Zerstörung der Schöpfung auf der Erde müssen wir vereint und offensiv entgegenwirken. Es gibt überhaupt keinen Klimanotstand, dieser ist erfunden. Wir verweisen auf das neue Buch von Axel Bojanowski, der gut am Schluss den Aufstieg der Klimalobby mit all ihren Seilschaften beschreibt, deren Angst machende Behauptungen nichts mehr mit Wissenschaft zu tun hat, obwohl man sich ständig auf die alimentierte CO₂-Klimawissenschaft beruft und diese als seriös bezeichnet. Wer an der Verbreitung der Klimaangst verdient, der kann überhaupt nicht seriös sein. Wir müssen mithelfen, diesem schlimmen, vor allem in den letzten 15 Jahren entstandenem Klimakartell ein Ende zu bereiten. Viele Wege führen nach Rom und jeder muss seinen Weg gehen und mit seinen Argumenten dem CO₂-Ablasshandel ein Ende bereiten.
Wer oder was hat dann die Erwärmung herbeigeführt?Zunächst mal: Die Klimaerwärmung in Mitteleuropa begann erst 1987/88
Grafik 6: Nicht nur Kinder springen – die Temperatur kann das auch – z.B. von 1987 auf 1988, ab 1988 wurde es plötzlich wärmer bei uns.
Zusammenfassend nochmals in Kürze die viele Gründe, weshalb es plötzlich ab 1987/88 wärmer wurde in Mittel- und Westeuropa. Hier 10 Gründe, es gibt sicherlich noch mehr.
1) Die Drehung der Wetterlagen, von NW auf mehr südliche Richtungen
2) Die Zunahme der Sonnenstunden, samt den verstärkend wirkenden Luftreinhaltemaßnahmen
3) Die Abnahme der Niederschläge
4) Die Zunahme der Wärmeinselflächen, städtisch und flächenhaft in der einst freien Natur
5) Die anhaltende Trockenlegung der deutschen Landschaften durch Sickerschläuche und Drainageröhren, und zwar in Feld, Wald, Wiesen und Fluren.
6) Die AMO-Warmphase, die aber auch zyklisch ein Ende finden wird. (Inselwetterstationen, siehe Helgoland)
7)Laut DWD und dem Physikochemiker Dr. Hans Rolf Dübal die Abnahme der Bewölkungsdichte, siehe: https://www.youtube.com/watch?v=ONZZGrw62SQ&t=1339s
8) Die Verringerung der Albedo seit 40 Jahren, dadurch wird weniger Sonnenenergie ins Weltall zurückreflektiert.
9) Die statistische Erwärmung der DWD Temperaturreihen durch Stationentausch.
10) Die gänzliche neue Erfassungsmethode der Tagestemperatur – Wetterhütte und Mannheimer Stunden seit 2000 allmählich abgeschafft- die digitale Einheit muss nun frei und ganztägig in der Sonne stehen mit einer genormten Abschirmung. Näheres hier
Was die plötzliche erwärmende Änderung des Klimas ab 1987/88 in Mittel- und Westeuropa herbeiführte, also die 10 Einzelpunkte, das haben wir öfters schon beschrieben, z.B. hier ganz ausführlich.
Für die Behauptung der Klimakirche, dass fast allein CO₂, ein Spurengas in der Atmosphäre diese plötzliche Erwärmung 1987/88 bewirkt haben soll, gibt es keine wissenschaftlichen Beweise, nur Modellrechnungen, die dem Geschäftsmodell Klimaabzocke zuarbeiten.
- Es gibt keinen Versuch, der die Klimasensitivität von CO₂ auch nur annähernd bestimmen kann. Behauptet werden 2° bis 5°C Erwärmung. Jeder Versuch liefert Null oder das Ergebnis verschwindet im Rauschen der Messfehler.
- Es gibt auch keinerlei technisches Anwendungsbeispiel, bei welchem wir Menschen uns den behaupteten CO₂-Treibhauseffekt positiv zunutze machen könnten.
- Bei der Sprengung der Nordstream-Pipeline am 26. Sept. 2022 entwichen 300 000 Tonnen des 25x stärkeren Treibhausgases Methan. Erhöhte Konzentrationen konnten gemessen werden, die dazugehörige Treibhauserwärmung gab es nicht. Damit ist bewiesen, dass die sog. Treibhausgase auch in überhöhten Konzentrationen allerhöchstens in homöopathischen Dosen wirken können.
- Schon bei der Elite der deutschen Physiker wie Einstein, Heisenberg, Hahn, Planck spielte der CO₂-Treibhauseffekt keine Rolle. Er existierte für sie schlichtweg nicht, obwohl die Hypothese dazu schon Jahrzehnte zuvor entwickelte wurde.
- Und in anderen Teilen der Welt wie in der Antarktis steigen die Temperaturen seit Jahrzehnten überhaupt nicht an, trotz CO₂-Zunahme. Wir zeigen das immer wieder anhand der Temperaturgraphiken der deutschen Neumayerstation.
- Und in Grönland ist die Erwärmung vor etwa 15 Jahren zu einem Stillstand auf dem jetzigen Niveau angelangt.
- In Mitteleuropa haben sich nur die Tagestemperaturen stark erwärmt seit 1987/88, die Nächte nicht. Bei ländlichen Stationen wurden die Nächte sogar leicht kälter. Und manche „Experten“ der CO₂-Theorie behauten doch genau das Gegenteil.
- Und im Zeitraum 1943 bis 1987 war es genau umgekehrt, die Tage tagsüber wurden kälter, die Nächte wärmer.
Schlussfolgerung: CO₂ ist zwar ein klimaaktives Gas, aber in diesen geringen Konzentrationen wirkt CO₂ allerhöchstens in homöopathischen Dosen bei der Temperaturgestaltung mit.
Also nicht nur Freispruch für CO₂, sondern wir müssen zu Kohlendioxid wieder die richtige wissenschaftliche und lebensbejahende positive Einstellung herstellen. CO₂ ist der Lebensmotor dieses Planeten. Und nicht der Temperaturregelknopf. Und wer zerstört schon freiwillig seinen Motor und behauptet, ohne Motor fährt das Auto besser.
Merke: CO₂ ist der Lebensmotor dieses Planeten. Und nicht der Temperaturregelknopf.
Wir sind deshalb gegen teure technische CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo wieder zu vergrößern. (Vorschlag aus den USA). Es könnte auch sein, dass der Schuss nach hinten losgeht und die Erwärmung verstärkt wird, siehe hier.
Nicht nur Freispruch für CO₂, sondern wir müssen zu Kohlendioxid wieder die richtige wissenschaftliche und positive Einstellung herstellen.
Schützt den bei uns seit 1988 wirkenden Klimawandel, schützt die seit 100 Jahren segensreich wirkende CO₂-Zunahme!Die angenehme Erwärmung seit 1987/88 bis heute in Mitteleuropa ist ein Glücksfall für Deutschland und seine Menschen. Dass zugleich auch das Lebens- und Schöpfungsgas Kohlendioxid seit 100 Jahren weltweit zunimmt ist ein weiterer segensreicher Umstand, der die Ernten ständig steigen ließ. Die Zeit des Hungerns ist seit gut 70 Jahren vorbei. Dank der CO₂-Zunahme.
Wir leben in Deutschland derzeit klimatisch in einer außerordentlich gesegneten Zeit, die noch lange anhalten möge. Das CO₂ meint es gut mit der Welt und das Klima meint es derzeit gut mit uns Deutschen und unserem Land. Mehr Ernte, weniger Kälte im Winter. Wir sollten positiv in die Zukunft blicken und dem Schöpfer dankbar sein für dieses tolle Klima, das sich bei uns seit 1988 eingestellt hat.
Wir alle sind aufgerufen, jeder auf seinem Weg und nach seinem Können die derzeitige Klima-Panikmache und die Verteufelung des lebensnotwendigen Kohlendioxids zu bekämpfen. Ein Umdenken in der Bevölkerung und bei den Kirchen ist schnellstens erforderlich, um den völlig unsinnigen CO₂-Reduzierungsmaßnahmen der linksgrünen Klimapolitik ein Ende zu bereiten. Weg mit der CO₂-Steuer, weg mit dem angeblichen Klimaschutz. Das ist eine geplante Zerstörung unseres Landes. Nicht das Klima ist bedroht, sondern unsere Freiheit.
Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger, weil unbezahlter Klimaforscher
Matthias Baritz, Naturwissenschaftler und Umweltschützer.
Literatur: uns zugesandtes Manuscript zu diesem Thema von Dr. Johannes Wildmann, Marburg.
Der Beitrag Kohlendioxid ist Leben, Kohlendioxid ist Schöpfung! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Interesse an der Wahrheit über das Klima? Dann sollte man das Gegenteil glauben, wenn die Medien behaupten, etwas sei falsch.
This article was originally published at The Empowerment Alliance and is re-published here with permission.
Laut Gallup hat das Vertrauen der Amerikaner in die Medien einen neuen Tiefpunkt erreicht. Umfragen zeigen, dass nur 28 % der Befragten „großes“ oder „ziemliches“ Vertrauen darin haben, dass Zeitungen, Fernsehen und Radio Nachrichten „vollständig, genau und fair“ berichten.
Das renommierte Meinungsforschungsinstitut Gallup stellte fest: „Als Gallup in den 1970er Jahren begann, das Vertrauen in die Nachrichtenmedien zu messen, äußerten zwischen 68 % und 72 % der Amerikaner Vertrauen in die Berichterstattung. Bei der nächsten Erhebung im Jahr 1997 war das Vertrauen der Öffentlichkeit jedoch auf 53 % gesunken. Das Vertrauen in die Medien blieb knapp über 50 %, bis es 2004 auf 44 % sank, und es ist seitdem nicht mehr auf ein Niveau gestiegen, das von einer Mehrheit geteilt wird.“
Mit anderen Worten: Bereits 2004 – lange bevor Donald Trump als ernstzunehmender Präsidentschaftskandidat auftauchte und sich über „Fake News“ beschwerte – äußerte weniger als die Hälfte aller Amerikaner Vertrauen in die Medien. Der Versuch, Trump für die geringe Wertschätzung der Amerikaner gegenüber Journalisten verantwortlich zu machen, ist fehlgeleitet. Den offensichtlichen Grund für die weit verbreitete Skepsis hinsichtlich der Genauigkeit und Fairness der Medien liefern die Nachrichtenagenturen und ihre Reporter tagtäglich.
Nirgendwo neigen die Medien mehr dazu, von Wahrheit und Genauigkeit abzuweichen, als bei der Klimaberichterstattung. Die Mainstream-Medien sind größtenteils fest als überzeugte Anhänger der „Kirche der Klimatologie“ verankert.
[Hervorhebung vom Übersetzer]
Ein typisches Beispiel: Vor einigen Tagen war Lee Zeldin, Leiter der Umweltschutzbehörde der Trump-Regierung, einer der Hauptredner auf einer vom Heartland Institute organisierten Konferenz. Laut der New York Times sei dies ein Beweis dafür, dass „Klimaleugner in Trumps Washington ein triumphales Comeback erleben, nachdem sie sich jahrelang vom wissenschaftlichen und politischen Establishment an den Rand gedrängt gefühlt hatten“.
Nichts deutet darauf hin, dass die Times-Reporterin, die den Artikel verfasste, einen wissenschaftlichen Abschluss besitzt, obwohl sie bereits über Erfahrung in der Klimaberichterstattung verfügt. Und dennoch hat sie es sich in ihrem Artikel mindestens dreimal zur Aufgabe gemacht, verschiedene Aussagen, mit denen sie offenbar nicht einverstanden war, als „falsch“ zu bezeichnen. In der Reihenfolge:
1. „Der Klimawandel ist eine von ‚linken Politikern‘ inszenierte Lüge. Fossile Brennstoffe sind die umweltfreundlichsten Energiequellen. Mehr Kohlendioxid in der Atmosphäre ist harmlos. Dies waren einige der falschen Behauptungen, die am Mittwoch auf einer Konferenz von Gruppen vorgebracht wurden, die den überwältigenden wissenschaftlichen Konsens zum Klimawandel ablehnen.“
2. „Zu den weiteren Sponsoren gehörte die CO2 Coalition, eine gemeinnützige Organisation, die fälschlicherweise behauptet, dass das zur Erderwärmung beitragende Kohlendioxid für den Menschen von Vorteil sei.“
3. „Die Konferenz sollte am Donnerstag mit einem Vortrag von John Clauser fortgesetzt werden, einem Nobelpreisträger für Physik, der fälschlicherweise behauptet hat, dass Wolken einen netto kühlenden Effekt auf den Planeten haben.“
Der Bericht enthielt diese in den Mainstream-Medien übliche Behauptung zum Klimawandel: „Eine große Mehrheit der Wissenschaftler ist sich einig, dass der Klimawandel real ist und durch die Verbrennung fossiler Brennstoffe wie Öl, Gas und Kohle verursacht wird.“ Eine umfassende Liste dieser Wissenschaftler wurde nicht vorgelegt.
Die Times war natürlich Vorreiter bei der Praxis der Mainstream-Medien, Äußerungen von Donald Trump oder Personen aus seinem Umfeld in ihren Berichten als „Lügen“ oder „falsch“ zu bezeichnen, ohne es für nötig zu halten, eine externe Quelle anzugeben. Mit anderen Worten: Die Reporter sind voll und ganz befugt, sich als Gott aufzuspielen, die Wahrheit unmissverständlich festzulegen und ihr göttliches Wissen mit ihren Lesern zu teilen. Die schiere Arroganz, die dahintersteckt, ist verblüffend.
[Hervorhebung vom Übersetzer]
Die Behauptung, Clauser habe „fälschlicherweise behauptet, dass Wolken einen netto kühlenden Effekt auf den Planeten haben“, ist besonders dreist. Es ist allgemein anerkannt, dass Wolken tatsächlich einen netto kühlenden Effekt auf den Planeten haben. Tatsächlich veröffentlichte keine geringere Autorität als eben diese New York Times erst letztes Jahr einen Artikel, in dem klargestellt wurde, dass Wolken zur Kühlung der Erde beitragen.
Der Artikel mit der Überschrift [übersetzt] „Wir nehmen Wolken als selbstverständlich hin“ stellte fest, dass zwar manche Wolken zur Abkühlung und andere zur Erwärmung des Planeten beitragen, die Schlussfolgerung jedoch eindeutig war: „Die Mischung der Wolkentypen über unserem Planeten sorgt dafür, dass sie insgesamt eine kühlende Wirkung haben, da der Schatten der tiefhängenden Wolken den Erwärmungseffekt der hochhängenden Wolken überwiegt.“
Mit anderen Worten: Dr. Clauser hatte absolut Recht – mit der Art von Feuchtigkeit, die am ehesten von einer Nimbostratus- oder Cumulonimbus-Wolke stammt, obwohl auch andere Wolken Regen erzeugen können (falls die New York Times dies überprüfen sollte).
Andere Punkte, welche die Reporter der Times als „falsch“ bezeichnet haben, sind in Wirklichkeit lediglich umstrittene Meinungen; viele glauben tatsächlich, dass der Klimawandel ein von linken Politikern inszenierter Schwindel ist. Und es steht außer Frage, dass Kohlendioxid für den Menschen in vielerlei Hinsicht von Vorteil und zudem für das Pflanzenleben unverzichtbar ist. Das sind keineswegs falsche Behauptungen.
Fazit: Die New York Times berichtete fälschlicherweise, dass die Konferenz des Heartland Institute zahlreiche Unwahrheiten enthielt. Aber das ist ja eigentlich keine Neuigkeit, oder?
Gary Abernathy is a longtime newspaper editor, reporter and columnist. He was a contributing columnist for the Washington Post from 2017-2023 and a frequent guest analyst across numerous media platforms. He is a contributing opinion columnist for The Empowerment Alliance, which advocates for realistic approaches to energy consumption and environmental conservation.
This article was originally published by RealClearEnergy and made available via RealClearWire.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Interesse an der Wahrheit über das Klima? Dann sollte man das Gegenteil glauben, wenn die Medien behaupten, etwas sei falsch. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Die Spannungen in der Straße von Hormuz und die materiellen Vorteile fossiler Brennstoffe
Ronald Stein, P.E.
Die jüngsten Forderungen nach einer realistischeren Verlagerung von „Dekarbonisierung“ hin zu „kohlenstoffarm“ deuten darauf hin, dass sich in der öffentlichen Debatte endlich Unbehagen gegenüber einer ideologisch geprägten Klimapolitik bemerkbar macht. Seit Jahren werden Klimadiskussionen in vielen Ländern von abstrakten Zielen, Slogans und numerischen Verpflichtungen dominiert. Doch hinter diesen hehren Idealen verbirgt sich eine tiefgreifendere und praktischere Frage: Haben wir Energie viel zu eng gefasst? Die Spannungen in der Straße von Hormuz Anfang 2026 haben diese Frage unübersehbar gemacht.
Heute wird Energie unter dem Banner der Dekarbonisierung oft so behandelt, als sei sie gleichbedeutend mit Elektrizität. Die öffentliche Diskussion konzentriert sich meist darauf, wie man Strom ohne CO₂-Emissionen erzeugen kann, wie schnell Elektrofahrzeuge herkömmliche Autos ersetzen können oder wie weit sich erneuerbarer Strom aus Windkraftanlagen und Solarzellen ausweiten lässt. Das sind wichtige Fragen, aber sie zeigen nicht das ganze Bild. Aus der Perspektive eines Chemieingenieurs kommt die Reduzierung der Energiedebatte auf Elektrizität allein dem gleich, nur die Hälfte der Zivilisation zu sehen.
Fossile Brennstoffe sind nicht nur Vorleistungen für die Stromerzeugung. Sie sind auch unverzichtbare Rohstoffe für die moderne Industriewelt. Neben der Unterstützung von Verkehrssystemen verdanken mehr als 6.000 Produkte, die das tägliche Leben sichern – darunter Kleidung, medizinische Geräte, Düngemittel, Kunststoffe, synthetische Fasern, Baumaterialien, Reinigungsmittel, Verpackungen und unzählige Industriekomponenten – ihre Existenz den materiellen Vorteilen fossiler Brennstoffe. Erdöl und Erdgas werden nicht einfach verbrannt; sie werden in die Ausgangsstoffe umgewandelt, auf denen das moderne Leben aufbaut.
Dieser Unterschied ist entscheidend. Wenn Politiker und Aktivisten so tun, als könne das Problem einfach dadurch gelöst werden, dass die Stromerzeugung aus fossilen Brennstoffen durch erneuerbare Energien ersetzt wird, übersehen sie die materielle Grundlage der modernen Zivilisation. Strom allein kann die petrochemischen Ketten nicht ersetzen, die Medizin, Sanitärversorgung, Lebensmittelproduktion, Logistik, Kommunikationsgeräte, Transport und Wohnungsbau stützen. Selbst eine Gesellschaft, der es gelingt, einen Großteil ihres Verkehrs- und Energiesystems zu elektrifizieren, stünde immer noch vor der Frage, wie sie die immense Bandbreite an Materialien sichern kann, die derzeit aus fossilen Brennstoffen gewonnen werden.
Aus diesem Grund verdient die petrochemische Industrie weitaus mehr Aufmerksamkeit, als ihr in Klimadiskussionen üblicherweise zuteil wird. Aus fossilen Brennstoffen gewonnene Rohstoffe werden zu petrochemischen Grundstoffen wie Ethylen und Propylen verarbeitet, aus denen wiederum Tausende von Folgeprodukten entstehen. Dieses riesige Netzwerk von Verarbeitungsprozessen stützt nicht nur die Bereiche Bekleidung, Ernährung, Verkehr und Wohnen, sondern auch das medizinische und sanitäre System, von dem die öffentliche Gesundheit abhängt. Es ist in jeder Hinsicht ein fester Bestandteil des Gefüges der modernen Zivilisation.
Sobald wir dies verstanden haben, wird klar, dass eine Unterbrechung der Versorgung mit fossilen Brennstoffen weit mehr bedeuten würde als nur höhere Benzinpreise oder vorübergehenden Druck auf die Stromerzeugung. Würden die Lieferungen ernsthaft unterbrochen, würden die Folgen fast jeden Bereich des täglichen Lebens betreffen. Die Kleidung, die wir tragen, die Medikamente, die wir einnehmen, die Smartphones, die wir nutzen, die Düngemittel, die die Landwirtschaft am Leben erhalten, und sogar die Behälter und Verpackungen, in denen Lebensmittel und medizinische Güter transportiert werden – all dies wäre von Rohstoffengpässen betroffen. Die moderne Welt wird von fossilen Brennstoffen nicht nur angetrieben; sie ist materiell durch sie strukturiert.
Deshalb haben die jüngsten Spannungen in der Straße von Hormuz eine so tiefgreifende Bedeutung. Das Problem beschränkt sich nicht auf Geopolitik, Tankerverkehr oder Schwankungen der Energiepreise. Die Straße von Hormuz ist einer der kritischsten Engpässe im globalen Energiesystem, und die dort herrschende Instabilität macht deutlich, wie verwundbar fortgeschrittene Gesellschaften nach wie vor sind. Wenn Versorgungswege bedroht sind, steht nicht nur die Energiesicherheit im engeren Sinne auf dem Spiel, sondern auch die Kontinuität der materiellen Systeme, die das alltägliche Leben aufrechterhalten.
Im Frühjahr 2026 wurde die Kluft zwischen Ideologie und Realität auf einen Schlag sichtbar. Die Spannungen in der Straße von Hormus sowie die schonungslose Erinnerung daran, dass einige Länder, wie beispielsweise Japan, auf endliche, in Tagen gemessene Vorräte an importierten fossilen Brennstoffen angewiesen sind, waren nicht bloß Statistiken.
Sie waren eine Warnung vor der Fragilität des Alltagslebens selbst. Zahlen wie diese mögen trocken und technisch anmuten, doch dahinter verbirgt sich eine einfache Wahrheit: Wenn Lieferketten lange genug unter Druck stehen, werden die Auswirkungen nicht nur auf den Kraftstoffmärkten zu spüren sein, sondern auf die gesamte Bandbreite an Gütern, von denen die moderne Gesellschaft abhängt.
Was lange Zeit unter der Rhetorik der Dekarbonisierung verborgen geblieben war, kam durch die Krise plötzlich ans Tageslicht. Die „Dichte der Zivilisation“ wurde wieder sichtbar. Damit meine ich das dichte, miteinander verflochtene und oft unsichtbare materielle Netzwerk, welches das Wohlergehen der Menschen stützt: Industriechemie, Fertigung, Transport, Abwasserentsorgung, Kommunikation, Gesundheitswesen, Landwirtschaft und Bauwesen. Dies sind keine nebensächlichen oder optionalen Merkmale des modernen Lebens. Sie sind dessen Substanz. Und diese Krise hat offenbart, dass mehr als 6.000 für das tägliche Leben unverzichtbare Produkte gleichzeitig gefährdet sein könnten.
Das bedeutet keineswegs, dass Umweltprobleme ignoriert werden sollten oder dass Gesellschaften ihre Bemühungen zur Abfallreduzierung, Effizienzsteigerung und Entwicklung sauberer Technologien aufgeben sollten. Es bedeutet jedoch, dass die Energiepolitik von einem ehrlicheren Verständnis der Realität ausgehen muss. Eine Zivilisation kann nicht auf Slogans aufgebaut werden. Ebenso wenig können politische Entscheidungsträger verantwortungsvoll die Zukunft gestalten, während sie so tun, als seien fossile Brennstoffe nichts weiter als ein schmutziges Erbe, das es zu entsorgen gilt. Sie sind auch Teil der materiellen Infrastruktur des Lebens, wie wir es kennen.
[Hervorhebung vom Übersetzer]
Die eigentliche Herausforderung besteht daher nicht darin, diese Abhängigkeit zu leugnen, sondern sie klug zu bewältigen. Eine ausgereifte Energiepolitik sollte nicht auf vereinfachende moralische Reinheit abzielen, sondern auf Widerstandsfähigkeit, Umsicht und Realismus. Sie sollte der Frage nachgehen, wie Gesellschaften ihre Lebensqualität bewahren, stabile Lieferketten aufrechterhalten, unnötigen Abfall reduzieren und begrenzte Ressourcen intelligent nutzen können. Sie sollte auch anerkennen, dass der technologische Wandel Zeit braucht und dass das Erzwingen von Veränderungen ohne Rücksicht auf die materiellen Gegebenheiten zu Engpässen, Instabilität und unnötigem Schaden führen kann.
Sich der Realität zu stellen, ist kein Akt der Resignation. Im Gegenteil, es ist die aufrichtigste und zukunftsorientierteste Vorgehensweise. Es bedeutet, die Spannung zwischen Idealen und praktischer Notwendigkeit anzuerkennen und gleichzeitig weiterhin stetige und verantwortungsvolle Schritte zu unternehmen. Von diesem Ausgangspunkt aus können wir beginnen, die Energiepolitik so neu zu gestalten, dass sie sowohl nachhaltig als auch menschlich ist – eine Politik, welche die Umwelt respektiert ohne die materiellen Grundlagen der Zivilisation selbst zu vergessen.
This article was first published at America Out Loud News
Ronald Stein is an internationally published columnist and energy consultant, and a policy advisor for The Heartland Institute.
Link: https://heartland.org/opinion/strait-of-hormuz-tensions-and-the-material-benefits-of-fossil-fuels/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Die Spannungen in der Straße von Hormuz und die materiellen Vorteile fossiler Brennstoffe erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wie eine Vermutung aus dem Jahr 1955 zur falschen Grundlage der Wissenschaft des vom Menschen verursachten Klimawandels wurde …
[Alle Hervorhebungen im Original]
Im Jahr 1955 stellte Hans Suess fest, dass der Gehalt an radioaktivem Kohlenstoff-14 in Baumringen in den vorangegangenen fünfzig Jahren zurückgegangen war. Er lieferte eine vorläufige Erklärung. Seine genauen Worte lauteten:
„Der Rückgang lässt sich auf die Einleitung einer bestimmten Menge an C¹⁴-freiem CO₂ in die Atmosphäre durch die künstliche Verbrennung von Kohle und Öl sowie auf die Geschwindigkeit des Isotopenaustauschs zwischen atmosphärischem CO₂ und dem in den Ozeanen gelösten Bicarbonat zurückführen.“
Lesen Sie diesen Satz aufmerksam durch. Suess schlug zwei Prozesse vor – die Verbrennung fossiler Brennstoffe und den natürlichen Austausch in den Ozeanen –, verbunden durch „und“, ohne zu behaupten, welcher davon wichtiger sei. Der Ausdruck „kann zurückgeführt werden auf“ ist die Sprache einer Hypothese, nicht einer Erkenntnis. Der Ausdruck „eine bestimmte Menge“ ist bewusst vage gehalten. Hier handelt ein Wissenschaftler so, wie es von Wissenschaftlern erwartet wird: Er bietet eine plausible Erklärung an und lässt die Frage offen.
Was dann geschah, war keine Wissenschaft. Es war Soziologie.Die nachfolgende Literatur griff Suess’ Satz auf, strich den zweiten Prozess (den ozeanischen Austausch), stufte den ersten (fossile Brennstoffe) von „kann zugeschrieben werden“ auf „wird verursacht durch“ hoch und nannte das Ergebnis „Suess-Effekt“ – als hätte Suess selbst fossile Brennstoffe als alleinige Ursache identifiziert. Das hatte er nicht. Er hatte eine zweiteilige Vermutung aufgestellt, ohne sich quantitativ auf einen der beiden Teile festzulegen. Aber die vereinfachte Version war leichter zu zitieren, leichter zu lehren, leichter in Modelle einzubauen und leichter zu finanzieren. Also setzte sich die vereinfachte Version durch. In den 1970er Jahren stand sie in den Lehrbüchern. In den 1990er Jahren stand sie in den IPCC-Berichten. In den 2000er Jahren galt sie als so offensichtlich, dass es als ausreichend angesehen wurde, sie ohne Beweise zu behaupten.
Im November 2020 veröffentlichten dann Heather Graven (seit 2013 Leiterin der Forschungsgruppe „Kohlenstoffkreislauf“ am Imperial College London), Ralph Keeling (Sohn von Charles David Keeling (1928–2005)) und Joeri Rogelj das Werk, das zur maßgeblichen Darstellung dieses „Konsens’“ werden sollte: „Changes to Carbon Isotopes in Atmospheric CO₂ Over the Industrial Era and Into the Future“ in Global Biogeochemical Cycles. Es wurde als „Grand Challenges“-Artikel ausgewiesen – eine wegweisende Übersichtsarbeit, die den Wissensstand eines gesamten Fachgebiets definieren soll. Der Artikel wurde vielfach zitiert, vom IPCC verwendet, vom MIT Climate Portal referenziert und als maßgebliche Quelle für die isotopischen Belege der vom Menschen verursachten CO₂-Anreicherung herangezogen.
Die Arbeit ist umfassend, technisch detailliert und sorgfältig referenziert. Sie basiert zudem, vom ersten Satz der Zusammenfassung bis zur letzten Prognose in Abschnitt 8, auf der ungeprüften Suess-Annahme. Und sie ist so strukturiert, dass diese Annahme unsichtbar bleibt.
Und zwar folgendermaßen:
Der Aufbau eines ZirkelschlussesDas Abstract von Graven et al. (2020) enthält folgenden Satz:
„Vorzeichen und Ausmaß der Veränderungen werden hauptsächlich durch die weltweiten Emissionen aus fossilen Brennstoffen bestimmt.“
Dies liest sich wie eine Erkenntnis – eine aus Belegen gezogene Schlussfolgerung. Das ist es jedoch nicht. Es handelt sich um eine Beschreibung dessen, was im Modell der Autoren geschieht, wenn sie einen Eingabewert variieren. Das Modell wurde mit Emissionen aus fossilen Brennstoffen als dominierendem exogenem Antrieb erstellt. Es wurde so abgestimmt, dass es historische Isotopendaten unter der Annahme reproduziert, dass fossile Brennstoffe die beobachteten Veränderungen verursacht haben. Das Modell wurde dann unter sechs Zukunftsszenarien durchgespielt, in denen sich nur die Emissionen aus fossilen Brennstoffen ändern. Das Ergebnis zeigt, wenig überraschend, dass Emissionen aus fossilen Brennstoffen das Ergebnis „hauptsächlich bestimmen“. Dies wird dann in der Zusammenfassung so dargestellt, als handele es sich um eine Entdeckung über die physikalische Welt.
Der Kreislauf verläuft in einer engen Schleife:Man gehe davon aus, dass fossile Brennstoffe der dominierende Faktor für isotopische Veränderungen sind. Man erstelle ein Modell, in dem fossile Brennstoffe der dominierende Faktor sind. Man passe das Modell so an, dass es unter dieser Annahme die historischen Daten wiedergibt. Man variiere in den Zukunftsszenarien ausschließlich den Anteil fossiler Brennstoffe. Man berichte, dass fossile Brennstoffe die Ergebnisse dominieren.
Zu keinem Zeitpunkt in dieser Kette wird die Annahme überprüft. An jedem Punkt wird sie bekräftigt. Die Arbeit stellt nie die eine Frage, die diesen Kreislauf durchbrechen könnte: Hat sich der Netto-Isotopeneintrag in die Atmosphäre tatsächlich in einer Weise verändert, die mit den steigenden Emissionen aus fossilen Brennstoffen übereinstimmt?
Diese Frage hat eine Antwort. Demetris Koutsoyiannis führte in einer Arbeit aus dem Jahr 2024 mit den gleichen Scripps-Daten, auf die sich Graven et al. stützen, die Massenbilanz-Inversion durch, die Graven et al. nicht durchgeführt hatten. Er ermittelte die Nettoeintragssignatur δ¹³C_I – den isotopischen Fingerabdruck dessen, was aus allen Quellen zusammen in die Atmosphäre gelangt, abzüglich aller Senken. Wenn fossile Brennstoffe die isotopischen Veränderungen „hauptsächlich bestimmen“ würden, müsste sich diese Größe mit steigenden kumulativen Emissionen nach unten verschieben. Die kumulativen Emissionen haben sich zwischen 1978 und 2022 etwa verdreifacht.
Die Eingangssignatur blieb unverändert. Sie lag bei etwa −13,2 Promille und blieb innerhalb der Messunsicherheit konstant – über vier weltweit verteilte Beobachtungsstationen hinweg, über mehr als 40 Jahre instrumenteller Daten und über fünf Jahrhunderte von Proxydaten, die bis in die Kleine Eiszeit zurückreichen. Koutsoyiannis erstellte daraufhin ein Zwei-Parameter-Modell, das vollständig von der natürlichen saisonalen Variabilität der Biosphäre – dem jährlichen „Atmen“ der Vegetation des Planeten – bestimmt wurde und keinerlei anthropogenen Einfluss enthielt. Es reproduzierte die gesamte δ¹³C-Aufzeichnung an allen vier Stationen mit einer erklärten Varianz von 98 bis 99 Prozent. Der Einfluss fossiler Brennstoffe ist nicht gering. Er ist jedoch überflüssig. Seine Hinzufügung verbessert die Anpassung nicht.
Was Graven et al. hätten tun sollen, aber nicht getan habenDas Bemerkenswerte an Graven et al. (2020) ist, dass sich die Autoren des Instruments voll und ganz bewusst sind, mit dem sie ihre These hätten überprüfen können. Sie erörtern Keeling-Plots – genau die Methode, die Koutsoyiannis verwendet hat – in Abschnitt 6 ihrer Arbeit. Sie beschreiben, wie der Keeling-Plot „die Isotopensignatur einer CO₂-Quelle oder -Senke quantifiziert, indem die Massenbilanzgleichungen für CO₂ und ¹³CO₂ so manipuliert werden, dass die Isotopensignatur durch den Schnittpunkt oder die Steigung einer Regressionsanpassung gegeben ist.“ Sie führen Anwendungen dieses Verfahrens auf lokaler und regionaler Ebene an.
Aber sie wenden es niemals global an. Sie fragen nie, wie der Keeling-Plot-Achsenabschnitt für die gesamte Atmosphäre während der Industriellen Revolution aussieht. Sie prüfen nie, ob sich die Signatur des Nettoeintrags verschoben hat. Die einzige Diagnose, die ihre zentrale Behauptung bestätigen oder widerlegen könnte – und es handelt sich um eine einfache Berechnung, die nur die Daten erfordert, über die sie bereits verfügen –, fehlt in der Arbeit. Stattdessen gehen sie direkt von der Annahme zum Modell zur Prognose über und behandeln die Annahme als etabliertes Hintergrundwissen, das zu offensichtlich ist, um einer Überprüfung zu bedürfen.
Die Biosphäre, die sich vor aller Augen verbirgtGraven et al. zeigen in ihrer Abbildung 1 ein Diagramm, das die typischen δ¹³C-Bereiche für jeden Kohlenstoffpool darstellt, der mit atmosphärischem CO₂ in Wechselwirkung steht. Dieses Diagramm – das auch Koutsoyiannis wiedergibt und analysiert – zeigt deutlich, dass sich die terrestrische Biosphäre (C3-Pflanzen bei −26 bis −28 ‰, organische Bodensubstanz noch stärker verarmt) mit fossilen Brennstoffen überschneidet und isotopisch häufig leichter ist als diese (Kohle bei etwa −24 ‰, Öl bei −26 bis −30 ‰, Erdgas bei −44 ‰). Der jährliche CO₂-Fluss der Biosphäre macht etwa 96 % des gesamten atmosphärischen Umsatzes aus. Fossile Brennstoffe tragen etwa 4 % bei.
Die Arbeit präsentiert dieses Diagramm und zieht daraus die entgegengesetzte Schlussfolgerung. Wenn 96 % des in die Atmosphäre gelangenden CO₂ aus natürlichen Quellen stammen, die isotopisch ebenso verarmt oder stärker verarmt sind als fossile Brennstoffe, dann folgt daraus nicht die qualitative Schlussfolgerung: „Die Luft wird isotopisch leichter, daher müssen fossile Brennstoffe die Ursache sein.“ Die Biosphäre ist eine weitaus größere Quelle für isotopisch leichten Kohlenstoff als die Verbrennung fossiler Brennstoffe. Die Abbildung 1 des Artikels selbst belegt dies, doch der Artikel ignoriert es.
Wie dies eine ganze Generation indoktrinierteGraven et al. (2020) ist keine gewöhnliche wissenschaftliche Arbeit. Es handelt sich um einen „Grand Challenges“-Übersichtsartikel – also um eine Arbeit, die das Selbstverständnis eines Fachgebiets prägt. Sie wird Doktoranden als Pflichtlektüre zugewiesen. Es wird in Förderanträgen zitiert, um den Rahmen zu schaffen, innerhalb dessen neue Forschung durchgeführt wird. Es wird vom IPCC als maßgebliche Zusammenstellung herangezogen. Es wird von Wissenschaftskommunikationskanälen – MIT, NASA, Universitätswebsites – als die definitive Erklärung dafür verlinkt, warum Kohlenstoffisotope die menschliche Verantwortung für den Anstieg des CO₂-Gehalts belegen.
Ein Doktorand, der diesen Artikel im Jahr 2021 liest, würde daraus folgendes Verständnis gewinnen: Die isotopischen Beweise für die anthropogene CO₂-Zuschreibung sind gesichert, umfassend und quantitativ. Der „Suess-Effekt“ ist ein etablierter physikalischer Prozess, keine Hypothese. Die Modelle reproduzieren die Daten. Die Zukunftsprognosen ergeben sich aus der Physik. Die einzigen verbleibenden Fragen betreffen die Details zukünftiger Szenarien und deren Auswirkungen auf die Radiokarbondatierung und forensische Anwendungen.
Zu keinem Zeitpunkt würde dieser Student auf die Information stoßen, dass sich die Signatur des Netto-Isotopeneintrags nicht verändert hat. Zu keinem Zeitpunkt würde er erfahren, dass ein einfaches Biosphärenmodell ohne fossile Brennstoffe 99 % der Varianz in den Daten erklärt. Zu keinem Zeitpunkt würde er entdecken, dass Suess selbst zwei Prozesse vorschlug, sich aber auf keinen davon festlegte. Zu keinem Zeitpunkt würde er dazu aufgefordert werden, die eine Berechnung durchzuführen – den globalen Keeling-Plot-Schnittpunkt –, welche die Prämisse überprüfen würde, auf der die gesamte Arbeit beruht.
So funktioniert Indoktrination in der Wissenschaft. Es reicht aus, dass eine Prämisse alt genug ist, weit genug verbreitet ist und tief genug in der Methodik verankert ist, sodass sie unsichtbar wird. Die Suess-Zuschreibung hielt 1955 als vorläufige Vermutung Einzug in die Fachliteratur. Bis 2020 war sie zur tragenden Säule eines Übersichtsartikels zu den „Grand Challenges“ in einer der renommiertesten Fachzeitschriften des Fachgebiets geworden, in der Zusammenfassung als Tatsache dargestellt, im Hauptteil nie überprüft und an eine neue Generation von Wissenschaftlern als etabliertes Wissen weitergegeben worden ist.
Koutsoyiannis testete es im Jahr 2024. Es schlug fehl.Die Eingabesignatur ist konstant. Die Biosphäre erklärt alles. Fossile Brennstoffe sind in den Daten nicht nachweisbar. Die maßgebliche Veröffentlichung auf diesem Gebiet basiert auf einer Annahme, die die Daten bei genauerer Betrachtung nicht stützen. Die Generation von Wissenschaftlern, die auf der Grundlage dieser Arbeit ausgebildet wurde, wird sich früher oder später damit auseinandersetzen müssen. Der Mathematik ist es egal, wie oft diese Annahme zitiert wurde oder wie renommiert die Zeitschrift ist, in der sie veröffentlicht wurde. Die Erhaltung der Masse ist keine von Fachkollegen geprüfte Meinung. Es handelt sich um eine rechnerische Identität. Und die Rechnung geht nicht so auf, wie Graven et al. es behaupten.
Link: https://x.com/cohler/status/2045091890941292767
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wie eine Vermutung aus dem Jahr 1955 zur falschen Grundlage der Wissenschaft des vom Menschen verursachten Klimawandels wurde … erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Australiens Kunst der Selbst-Demontage
Cap Allon
Australien exportiert seine Energie und importiert seine Kraftstoffe. Es fördert Kohle und Gas, verschifft diese ins Ausland und kauft dann Benzin, Diesel und Kerosin zu einem höheren Preis zurück.
Australien ist einer der weltweit größten Exporteure von Flüssigerdgas. Der größte Teil dieses Gases wird im Rahmen langfristiger Verträge ins Ausland geliefert. Gleichzeitig importiert das Land einen großen Teil seiner raffinierten Kraftstoffe, weil ein Großteil der heimischen Raffineriekapazitäten stillgelegt worden ist.
Rohenergie wird exportiert. Die Verarbeitung erfolgt im Ausland. Der fertige Brennstoff wird wieder importiert.
Doch gerade in der Verarbeitung liegt ein Großteil des Wertes. Raffination und Verarbeitung sorgen für die Gewinnspannen, viele Arbeitsplätze und die industrielle Basis. Wenn dieser Schritt im Ausland erfolgt, bleiben diese Vorteile auch dort.
Das Umweltargument ändert nichts am Ergebnis. Wenn ein Projekt in Australien blockiert wird, sinkt die Nachfrage nicht. Der Käufer bezieht die gleiche Energie anderswo. Es wird immer noch genauso viel, wenn nicht sogar mehr CO₂ ausgestoßen.
Die Industrie orientiert sich an den Energiekosten.
Die Fertigungsindustrie ist auf zuverlässige, bezahlbare Energie angewiesen. Wenn die Kosten steigen, wird die Produktion eingestellt oder ins Ausland verlagert. Der Anteil der Fertigungsindustrie am australischen BIP ist von 14 % in den 1970er Jahren auf heute 5 % gesunken.
Ein rohstoffreiches Land entscheidet sich dafür, mit hohen Energiepreisen und reduzierten Industriekapazitäten zu arbeiten.
Hinzu kommt noch ein Versorgungsrisiko. Australien ist im Transport- und Logistikbereich auf importierte Kraftstoffe angewiesen. Wenn die Importe unterbrochen werden, wirkt sich das schnell auf die gesamte Wirtschaft aus.
Viele rohstoffreiche Länder verfolgen ein anderes Modell. Norwegen beispielsweise hat seine Ressourcen erschlossen, einen größeren Teil des Wertes im Land behalten und einen Staatsfonds aufgebaut, der mittlerweile einen Wert von über 1 Billion Dollar hat.
Australien hat diesen Weg gewählt:
Link: https://electroverse.substack.com/p/spring-storm-brings-snow-boost-to?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Australiens Kunst der Selbst-Demontage erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue Studie: Seit den 1980er Jahren gibt es entlang der nördlichen Antarktischen Halbinsel weder eine lineare Erwärmung noch einen Gletscherschwund
Die Ursachen für die Erwärmung und den Gletscherschwund im antarktischen Klima stehen nicht im Einklang mit einem linear ansteigenden Trend des atmosphärischen CO₂-Gehalts.
Wissenschaftler (Park et al., 2026) haben festgestellt, dass die Muster der Lufttemperatur, der Meerestemperatur und des Gletscherschwunds in der Nähe der King-George-Insel (nördlich der nördlichsten Spitze der Antarktischen Halbinsel) in den letzten vier Jahrzehnten mit den negativen bis positiven Phasen des Southern Annual Mode (SAM) und natürlichen Wechselwirkungen zwischen Ozean und Atmosphäre übereinstimmen.
Phasen der Abkühlung und des Gletschervorstoßes wechseln sich mit Phasen der Erwärmung und eines deutlichen Gletscherrückgangs ab, folgen jedoch weder einem linear ansteigenden Muster noch den Trends bei den Treibhausgasemissionen.
Die Wissenschaftler stellen einen allgemeinen Rückgang der Gletscherrückgangsraten von Mitte der 1990er Jahre bis 2015 fest, als „kühlere Phasen den Rückgang verlangsamten“.
Die Studie „zeigt, wie gekoppelte Wechselwirkungen zwischen Fjordgeometrie, Ozean und Atmosphäre das Rückzugsverhalten bestimmen“.
Menschliche Aktivitäten beeinflussen weder die Erwärmung noch den Gletscherrückzug.
Quelle: Park et al., 2026
Zum Vergrößern anklicken
Elephant Island liegt nur 130 km nordöstlich von King George Island. Dort leben zahlreiche Pinguine und Robben.
Eine aktuelle Studie (Atkinson et al., 2022) berichtet von einer signifikanten (ca. -0,75 °C) Abkühlung auf Elephant Island (lila) seit den 1990er Jahren, was mit der Abkühlung entlang Südgeorgiens, der Scotia-See und der gesamten Westantarktischen Halbinsel in den letzten Jahrzehnten übereinstimmt.
Quelle: Atkinson et al., 2022
Zum Vergrößern anklicken
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Neue Studie: Seit den 1980er Jahren gibt es entlang der nördlichen Antarktischen Halbinsel weder eine lineare Erwärmung noch einen Gletscherschwund erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Erneuerbare Energien kosten uns ein Vermögen – Justin Rowlatt
Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT
h/t Ian Cunningham
WOW! Justin Rowlatt hat die Erleuchtung gefunden!
„Ich bin ein Early Adopter, wenn es um neue Technologien geht“, sagt Gavin Tait, ein 69-Jähriger aus Glasgow, mit einem Anflug von Stolz.
Als er vor etwa zehn Jahren bei seiner Pensionierung eine Pauschalsumme erhielt, investierte er daher in erneuerbare Energien: Sonnenkollektoren auf dem Dach, eine Hausbatterie und eine Wärmepumpe. „Das schien mir ein Kinderspiel zu sein“, erinnert er sich. „Ich konnte Geld sparen und der Umwelt helfen – warum sollte ich das nicht tun?“
Zunächst funktionierte es. Sein gut isoliertes Haus blieb warm und seine Energiekosten sanken. Doch in den letzten beiden Wintern begann sich die Lage zu ändern. „Ich bemerkte, dass meine Stromrechnungen in die Höhe schossen“, sagt er.
In diesem Winter schalteten er und seine Frau die Anlage aus und kehrten zu ihrem Gasboiler zurück, den sie als Reserve aufbewahrt hatten.
Gavin – der sich bei „BBC Your Voice“ über seine Erfahrungen gemeldet hat – sagt, er wisse, worin das Problem lag. Im besten Fall liefert Gas fast eine Wärmeeinheit pro eingesetzter Energieeinheit; seine Wärmepumpe kann bis zu drei oder vier Wärmeeinheiten pro Energieeinheit liefern. Da Wärmepumpen jedoch mit Strom betrieben werden, zahlt er nun etwa 27 Pence pro Kilowattstunde, verglichen mit weniger als 6 Pence für Gas, das einen Heizkessel antreibt – mehr als viermal so viel.
Gavin Tait und seine Frau schalteten ihre Wärmepumpe aus und kehrten zu ihrem Gaskessel zurück, nachdem steigende Stromkosten den Betrieb zu teuer gemacht hatten.
„Es ist ganz einfach“, sagt er. „Wirtschaftlich gesehen rechnet es sich einfach nicht.“
Seine Erfahrung ist kein Einzelfall. Eine Umfrage unter 1.000 Wärmepumpenbesitzern, die Censuswide im vergangenen Sommer im Auftrag von Ecotricity durchgeführt hatte ergab, dass zwei Drittel angaben, das Heizen ihrer Häuser sei teurer geworden als zuvor.
Für Kritiker der Regierungspolitik deuten Geschichten wie die von Gavin auf ein tiefer liegendes Problem hin.
Heizung und Verkehr machen über 40 % der Emissionen in UK aus, doch sie sagen, dass die Fortschritte beim Austausch von Gasheizkesseln und Benzinfahrzeugen weit hinter den Zielen zurückbleiben, weil die Minister den falschen Schwerpunkt setzten.
Ihrer Ansicht nach ist die Regierung darauf fixiert, die Stromerzeugung umweltfreundlicher zu gestalten, obwohl diese nur einen weitaus geringeren Anteil an unseren Gesamtemissionen ausmacht – etwa 10 %. Diese Fixierung treibt die Strompreise in die Höhe und verteuert den Umstieg auf Wärmepumpen oder Elektrofahrzeuge für die Bürger.
Das Thema hat an Dringlichkeit gewonnen, weil der Konflikt im Nahen Osten die Öl- und Gaspreise in die Höhe treibt und Befürchtungen weckt, dass die hohen Energiekosten anhalten könnten.
Die Regierung beharrt darauf, dass die Konzentration auf erneuerbare Energien letztendlich zu mehr Energiesicherheit führen wird, indem sie die Abhängigkeit von importiertem Gas verringert, die Emissionen senkt und – was entscheidend ist – die Kosten senkt.
Haben sie recht? Oder verfolgt die Regierung die falschen Ziele, indem sie saubererem Strom Vorrang einräumt, während die Fortschritte bei Heizung und Verkehr hinterherhinken?
Die versteckten Kosten „sauberer“ EnergieDas Problem ist, dass die Erzeugung von Strom aus erneuerbaren Energien zwar kostengünstig sein kann, das für seine Einspeisung erforderliche System jedoch nicht. Als ich Sir Dieter Helm, Professor für Wirtschaftspolitik an der Universität Oxford, nach seiner endgültigen Antwort auf die Frage nach den Kosten erneuerbarer Energien frage, lacht er.
„Es kommt ganz darauf an, was man misst“, sagt er. Sir Dieter erklärt, dass man einen wichtigen Aspekt übersieht, wenn man sich nur auf die Kosten der Stromerzeugung konzentriert: die Kosten des Gesamtsystems.
Strom muss jederzeit verfügbar sein – nicht nur, wenn der Wind weht oder die Sonne scheint. Das bedeutet Reserveerzeugung, zusätzliche Kapazitäten und ein ausgedehnteres Netz.
Sir Dieter gibt mir ein vereinfachtes Beispiel. Der Spitzenstrombedarf in UK liege bei etwa 45 Gigawatt (GW), sagt er. In der Vergangenheit konnte dieser Bedarf mit rund 60 GW Kapazität aus Kohle-, Gas- und Kernkraftwerken gedeckt werden.
Da sich das System zunehmend auf erneuerbare Energien verlagert, wird weitaus mehr Kapazität benötigt – nicht nur für Wind- und Solarenergie, sondern auch für Reservekapazitäten für Zeiten, in denen diese keine Energie liefern. Nach Schätzungen von Sir Dieter bewegt sich Großbritannien auf einen Wert von etwa 120 GW zu. Gleichzeitig muss auch das Stromnetz ausgebaut werden, um den Strom aus Offshore-Windparks dorthin zu leiten, wo er benötigt wird.
Über die genauen Zahlen wird diskutiert, aber die Richtung ist klar: Teilweise aufgrund der erneuerbaren Energien wird das System größer, komplexer und teurer. Ein Teil dieser Kosten schlägt sich bereits in den Rechnungen nieder. Der Ausbau des Netzes – der Bau neuer Masten und Stromleitungen – treibt die Netzentgelte in die Höhe.
Hinzu kommen „Ausgleichskosten“, darunter Zahlungen an Windparks, damit diese abschalten, wenn das System nicht den gesamten von ihnen erzeugten Strom aufnehmen kann. Und bis vor kurzem machte ein Subventionsprogramm rund 10 % der durchschnittlichen Haushaltsrechnung aus.
Es gibt noch einen weiteren Punkt. UK verfügt über besonders große Vorkommen einer der kostspieligeren erneuerbaren Energiequellen – der Offshore-Windenergie.
Dank der Massenproduktion sind die Kosten für Solarenergie drastisch gesunken. Doch der oft bewölkte Himmel in Großbritannien – insbesondere im Winter, wenn der Bedarf am höchsten ist – schränkt die Leistungsfähigkeit des Systems ein.
Offshore-Windenergie ist zuverlässiger, erfordert jedoch große, standortspezifische Ingenieurprojekte, die sich nicht auf die gleiche Weise reproduzieren lassen und daher nicht den gleichen nachhaltigen Kostenrückgang verzeichnen konnten. Gleichzeitig haben steigende Preise für Materialien wie Stahl und Seltene Erden – zusammen mit höheren Zinssätzen – die Kosten weiter in die Höhe getrieben.
Der Preis des FortschrittsAuf dem Papier hat Großbritannien erhebliche Fortschritte bei der Ökologisierung gemacht – die Emissionen des Landes sind seit 1990 um rund 50 % gesunken. Das bedeutet jedoch nicht zwangsläufig, dass sich der globale Fußabdruck Großbritanniens insgesamt um den gleichen Prozentsatz verringert hat.
Viele früher in Großbritannien hergestellte und dort verbrauchte Güter werden heute im Ausland produziert und dann hierher importiert, wobei diese Produktion oft in Ländern mit einem höheren CO₂-Fußabdruck stattfindet.
China beispielsweise deckt nach wie vor mehr als die Hälfte seines Energiebedarfs mit Kohle, was bedeutet, dass die Emissionen lediglich ins Ausland verlagert und nicht insgesamt reduziert wurden.
Darauf weisen führende Klimaforscher hin, darunter Prof. Kevin Anderson von der Universität Manchester, der argumentiert, dass die Zahl von 50 % „den internationalen Luft- und Seeverkehr sowie unsere Importe und Exporte nicht berücksichtigt“.
Er fügt hinzu: „Bezieht man diese mit ein – was beim Klima natürlich der Fall ist –, dann beträgt der Rückgang seit 1990 etwa 20 %.“ Die Regierung erklärt, sie halte sich an die Richtlinien der Vereinten Nationen zur Emissionsberichterstattung.
China deckt nach wie vor mehr als die Hälfte seines Energiebedarfs mit Kohle, was die Befürchtung aufkommen lässt, dass die mit dem britischen Verbrauch verbundenen Emissionen lediglich ins Ausland verlagert wurden.
Gleichzeitig schlagen sich die höheren Systemkosten nicht nur in den Stromrechnungen der Haushalte nieder – sie wirken sich auf die gesamte Wirtschaft aus. Britische Haushalte haben mit einigen der höchsten Stromrechnungen in Europa zu kämpfen. Für Unternehmen sieht die Lage noch düsterer aus.
https://www.bbc.co.uk/news/articles/c86ey5n9vx9o
Willkommen auf der dunklen Seite, Justin!
Link: https://wattsupwiththat.com/2026/04/18/renewables-are-costing-us-a-fortune-justin-rowlatt/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Erneuerbare Energien kosten uns ein Vermögen – Justin Rowlatt erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Kaiser ist nackt: Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete
https://x.com/cohler/status/2045615260443279694
Zusammenfassung meines Vortrags auf der ICCC16 am 8. April 2026.
John Cohler bei seinem Vortrag Heartland Climate Conference April 2026
Die dieser Analyse zugrunde liegenden Dokumente sind unter
http://papers.jcohler.com verfügbar.
Seit fast vier Jahrzehnten wird der Welt eine Geschichte erzählt: Die Erde erwärmt sich in alarmierendem Tempo, der Mensch ist dafür verantwortlich, indem er fossile Brennstoffe verbrennt, und wenn wir nicht Billionen von Dollar investieren, um dies zu verhindern, droht eine Katastrophe. Regierungen haben ihre Wirtschaften auf diese Geschichte ausgerichtet. Kinder wachsen mit Angst davor auf. Wissenschaftler, die sie hinterfragen, werden ausgegrenzt.
Es gibt da nur ein Problem. Die wissenschaftliche Grundlage dieser Argumentation – jede einzelne Zahl, die der IPCC verwendet – ist physikalisch bedeutungslos. Nicht unsicher. Nicht diskutabel. Physikalisch bedeutungslos, genauso wie der Durchschnitt aller Telefonnummern in Washington, D.C., bedeutungslos ist. Man kann ihn berechnen. Die Rechnung stimmt. Aber das Ergebnis sagt absolut nichts über die Realität aus.
Das ist keine abwegige Behauptung. Es handelt sich um einen mathematischen und physikalischen Beweis, der auf wissenschaftlichen Artikeln und den Grundprinzipien der Thermodynamik basiert. Und wenn man es einmal erkannt hat, kann man es nicht mehr ignorieren.
Die erste Lüge: Eine Temperatur, die nicht existiertAlles beginnt mit der globalen mittleren Oberflächentemperatur (GMST). Diese eine Zahl – üblicherweise als Abweichung vom vorindustriellen Niveau angegeben – bildet die Grundlage der gesamten IPCC-Studie. Wenn Sie hören, dass sich die Erde seit der industriellen Revolution um 1,2 Grad erwärmt hat, sprechen Sie von der GMST. Wenn Klimamodelle eine Erwärmung von 2, 3 oder 4 Grad bis zum Jahr 2100 prognostizieren, beziehen sie sich auf Veränderungen der GMST. Wenn das Pariser Abkommen eine Obergrenze von 1,5 Grad festlegt, ist dies eine Obergrenze für die GMST.
Was genau ist GMST? Hier beginnt die Geschichte sich zu entwirren.Temperatur ist in der Physik eine sogenannte intensive Größe. Das bedeutet, sie beschreibt den Zustand eines spezifischen physikalischen Systems – eines Systems mit Grenzen, das sich im oder nahe am thermischen Gleichgewicht befindet und dessen Zustandsgleichung eindeutig definiert ist. Man kann sinnvoll über die Temperatur einer Tasse Kaffee, eines Zimmers oder des Ozeans in einer bestimmten Tiefe sprechen, da es sich dabei jeweils um ein definiertes physikalisches System handelt. Was man jedoch nicht tun kann, ohne die Gesetze der Thermodynamik zu verletzen, ist, Temperaturen von Systemen zu addieren, die nicht in thermischem Kontakt miteinander stehen, und das Ergebnis als „Temperatur“ zu bezeichnen.
Die Erdoberfläche ist kein thermodynamisches System. Sie ist ein Flickenteppich aus Tausenden von lokalen Systemen – Wüsten und Regenwäldern, polaren Eisschilden und tropischen Ozeanen, Berggipfeln und Talsohlen –, von denen keines mit den anderen im thermischen Gleichgewicht steht. Die Mittelung ihrer Temperaturen ergibt zwar einen Wert. Dieser Wert ist aber keine Temperatur im physikalisch sinnvollen Sinne. Er unterliegt keiner Zustandsgleichung. Es gibt kein physikalisches Gesetz, das ihn mit irgendetwas verknüpft. Wie der Physiker Christopher Essex und seine Kollegen in einer Veröffentlichung aus dem Jahr 2007 überzeugend darlegten, ist er schlichtweg keine Temperatur.
The Emperor Has No Clothes: How the IPCC Built a 38-Year Climate Empire on a Circle of Lies
Summary of my talk at ICCC16 on April 8, 2026.
The papers underlying this analysis are available at https://t.co/ym4Iv7EjWR.
For nearly four decades, the world has been told a story. The… https://t.co/EwuAzclQxL
— Jonathan Cohler (@cohler) April 18, 2026
Das ist keine bloße Formalität. Es handelt sich um einen Kategorienfehler, der in jedem anderen Wissenschaftsbereich ein Forschungsprogramm sofort beenden würde. Intensive Eigenschaften über Nichtgleichgewichtssysteme hinweg zu mitteln, ist so, als würde man die Postleitzahlen aller Einwohner New Yorks mitteln und das Ergebnis dann als Wegbeschreibung verwenden. Die Rechnung liefert eine Zahl. Diese Zahl ist bedeutungslos.
Die Internationale Organisation für Normung (ISO) erkannte dies bereits vor Jahrzehnten implizit an. 2002 wurde die ISO beauftragt, alle wichtigen Begriffe im Zusammenhang mit dem Klimawandel zu definieren – und bis heute fehlt der Begriff „globale Durchschnittstemperatur“ in den finalen Definitionen. Diese Auslassung ist kein Versehen. Der Auftrag der ISO erfordert messtechnische Genauigkeit, und der Begriff „globale Durchschnittstemperatur“ kann diesen Anforderungen nicht gerecht werden.
Weder der IPCC noch irgendeine andere Klimabehörde hat jemals eine präzise physikalische Definition der globalen mittleren Oberflächentemperatur (GMST) vorgelegt. Sie verwenden den Begriff ständig – er taucht in praktisch jedem Kapitel des Sechsten Sachstandsberichts des IPCC auf –, aber sie haben nie definiert, welche physikalische Größe er repräsentiert, weil eine solche Definition nicht möglich ist.
Die zweite Lüge: Modelle, die auf nichts basierenWenn GMST physikalisch bedeutungslos ist, was leisten dann die Klimamodelle des IPCC eigentlich?
Die Antwort ist unbequem. Jedes der vom IPCC verwendeten wichtigen Klimamodelle – das Ensemble CMIP (Coupled Model Intercomparison Project) – ist darauf ausgelegt, historische Trends der mittleren globalen Oberflächentemperatur (GMST) zu reproduzieren. Diese Modelle verfügen über Hunderte von anpassbaren Parametern, die so eingestellt werden, dass die Modellausgabe mit den beobachteten GMST-Daten übereinstimmt. Diesen Vorgang nennt man Validierung: Man passt das Modell so lange an, bis es zu den Daten passt, und erklärt es dann anhand der Beobachtungen für validiert.
Wenn die globale mittlere Oberflächentemperatur (GMST) jedoch keine physikalisch sinnvolle Größe darstellt, ist die Anpassung eines Modells an ihre Reproduktion keine Validierung. Es handelt sich vielmehr um eine Kurvenanpassung an eine Zahl ohne physikalischen Gehalt. Das Modell lernt, ein mathematisches Artefakt abzubilden, nicht die physikalische Realität. Und da es sich um gekoppelte globale Zirkulationsmodelle handelt – in denen die Temperatur mit Niederschlag, Wind, Meeresströmungen, Meereis und Dutzenden weiterer Variablen interagiert –, breitet sich diese Verfälschung überall aus. Jede vom Modell erzeugte Projektion erbt für jede Variable die ursprüngliche Bedeutungslosigkeit.
Die Auswirkungen sind erschreckend. Jede Temperaturprognose. Jede Meeresspiegelprognose. Jede Prognose extremer Wetterereignisse. Jede CO₂-Bilanz. Jede Berechnung der verbleibenden Emissionen. All das basiert auf Modellen, die anhand einer physikalisch nicht existierenden Größe validiert wurden.
Die dritte Lüge: Ein Ozean, der nie vermessen wurdeDa die Aufzeichnungen der Oberflächentemperatur umstritten und unzuverlässig waren, entwickelte der IPCC eine zweite Beweiskette: den Wärmeinhalt der Ozeane (OHC). Die Argumentation war einfach: Wenn die Erde durch den Treibhauseffekt Energie speichert, muss diese Energie irgendwohin fließen, und der größte Teil davon sollte in die Ozeane gelangen. Misst man den Wärmeinhalt der Ozeane über einen längeren Zeitraum, erhält man ein direktes Maß für das Energieungleichgewicht der Erde.
Dieses Argument klingt überzeugend. Es basiert auf dem Programm Argo – einem Netzwerk von rund 4.400 Roboterbojen, die in den Weltmeeren verteilt sind. Jede Boje taucht bis zu 2.000 Meter tief und steigt alle zehn Tage wieder an die Oberfläche, wobei sie Temperatur- und Salzgehaltsprofile übermittelt. Argo ist eine echte wissenschaftliche Leistung, ein technisches Meisterwerk, das eine enorme Menge wertvoller ozeanografischer Daten geliefert hat.
Laut den Gründungsdokumenten von 1998 war Argo ursprünglich für Folgendes konzipiert: die Beobachtung des sich verändernden physikalischen Zustands der oberen Ozeanschichten, die Erfassung regionaler Wärme- und Salzgehaltsmuster, die Unterstützung der Wettervorhersage und die Ergänzung von Satellitenaltimetern. Der globale Wärmegehalt der Ozeane und das Energieungleichgewicht der Erde werden nirgends erwähnt. Das Programm war nicht für diesen Zweck gedacht und ist dafür grundlegend ungeeignet.
Das Problem beginnt mit grundlegenden physikalischen Prinzipien. Wenn eine Argo-Boje innerhalb von sechs bis zehn Stunden von 2.000 Metern Tiefe zur Oberfläche aufsteigt, sammelt sie dabei etwa 1.000 Temperaturmessungen. Die Boje driftet jedoch die ganze Zeit. Bis sie auftaucht und per Satellit Daten sendet, kann sie sich bis zu 50 Kilometer von der Stelle entfernt befinden, an der die tiefsten Messungen durchgeführt wurden. Diese Messungen werden alle der GPS-Position an der Oberfläche zugeordnet – dem einzigen tatsächlich bekannten Standort. Die tatsächliche Unterwasserbahn ist völlig unbekannt. Jeder einzelne Datenpunkt unter Wasser wird dem falschen Standort zugeordnet.
Dann beginnt die Interpolation. Die 12.000 monatlichen Messwerte – die bereits räumlich falsch zugeordnet sind – werden verwendet, um 45.000 dreidimensionale Gitterzellen zu füllen, die den globalen Ozean abdecken. Der größte Teil des Ozeans wird gar nicht gemessen, sondern berechnet. Polargebiete, Küstenzonen und Randmeere werden weitgehend ausgeschlossen. Etwa die Hälfte des gesamten Ozeanvolumens, einschließlich aller Wassermassen unterhalb von 2.000 Metern, wird schlichtweg ignoriert. Die Berechnungen verwenden Korrelationsfunktionen, die Messwerte von Wassermassen vermischen, die Hunderte oder sogar Tausende von Kilometern voneinander entfernt liegen, und so jegliche lokale Information zerstören, die die Messbojen tatsächlich erfasst haben.
Die aus diesem Prozess berechneten Anomalien – die Abweichungen von einem historischen Referenzwert – stoßen dann auf dasselbe grundlegende physikalische Problem wie GMST. Temperatur ist eine intensive Größe. Man kann Temperaturanomalien nicht sinnvoll über Nichtgleichgewichtsvolumina des Ozeans mitteln, genauso wenig wie über die Erdoberfläche. Der resultierende Wert hat zwar eine Einheit und die Berechnung ist korrekt, aber er repräsentiert keine physikalische Realität.
Wenn alle relevanten Unsicherheitsquellen – nicht erfasste Trajektorien, Interpolationsfehler, unzureichende Kenntnisse über die Tiefsee, Lücken in den Polargebieten und uneinheitliche Messrahmen – korrekt quantifiziert werden, beträgt die tatsächliche Unsicherheit des abgeleiteten Wertes für das Energieungleichgewicht der Erde mehr als ± 1 Watt pro Quadratmeter bei einer Wahrscheinlichkeit von 95 %. Der sechste Sachstandsbericht des IPCC gibt sie mit 0,7 ± 0,2 Watt pro Quadratmeter an. Die tatsächliche Unsicherheit ist etwa fünfmal größer als das gemessene Signal. Das Ergebnis ist statistisch nicht von null zu unterscheiden.
Die vierte Lüge: Satelliten wurden an die Fiktion angepasstDer IPCC präsentiert seine Daten zum Wärmegehalt der Ozeane und seine satellitengestützten Daten zum Energieungleichgewicht als zwei unabhängige, übereinstimmende Beweisketten. Diese Übereinstimmung wird als starke Bestätigung dafür angeführt, dass die Erde Energie in dem behaupteten Ausmaß speichert.
Was der IPCC nicht prominent in den Vordergrund rückt, ist, wie diese Einigung zustande kam.
Die CERES-Instrumente der NASA – Satelliten zur Messung der Strahlungsbilanz am oberen Rand der Atmosphäre – liefern Rohmesswerte mit einer absoluten Unsicherheit von etwa drei bis fünf Watt pro Quadratmeter. Das vom IPCC angegebene Messsignal beträgt 0,7 Watt pro Quadratmeter. Die Satelliten allein können diese Größe nicht bestimmen.
Was wurde also getan? Die CERES-Daten wurden – mittels einer Methode der kleinsten Quadrate – angepasst, um eine Übereinstimmung mit der aus Argo-Daten abgeleiteten Schätzung des Wärmegehalts der Ozeane zu erzielen. Die Dokumentation des IPCC-Berichts AR6 bestätigt dies ausdrücklich: Die CERES-Flüsse „wurden innerhalb der geschätzten Unsicherheiten angepasst, um sicherzustellen, dass der Nettofluss an der Obergrenze der Atmosphäre mit der auf Basis von Messungen des Wärmegehalts der Ozeane geschätzten Energiebilanz der Erde übereinstimmt.“
Anders ausgedrückt: Sie haben die Satelliten so ausgerichtet, dass sie mit den Driftbojen übereinstimmten, und diese Übereinstimmung dann als unabhängige Bestätigung angeführt. Das ist keine Wissenschaft. Das ist ein Zirkelschluss mit unnötigen Umwegen.
Dieses Verhalten ist im IPCC-Ökosystem nicht beispiellos. Kevin Trenberth, einer der Architekten des Modells zur Berechnung des Wärmegehalts der Ozeane, schrieb in einer mittlerweile berüchtigten E-Mail aus dem Jahr 2009, die durch die ClimateGate-Enthüllungen ans Licht kam: „Tatsache ist, dass wir die derzeit ausbleibende Erwärmung nicht erklären können, und es ist eine Farce, dass wir es nicht können. Die im August veröffentlichten CERES-Daten zeigen, dass es eigentlich noch stärkere Erwärmung geben müsste: aber die Daten sind mit Sicherheit falsch.“ Wenn die Satellitendaten nicht mit den Modellen übereinstimmen, gelten die Satelliten als falsch. Wenn die Satellitendaten so angepasst werden, dass sie übereinstimmen, wird diese Übereinstimmung als Bestätigung angeführt. Das System ist von vornherein manipuliert.
Die fünfte Lüge: Der CO-Fingerabdruck ₂ , der nie existierteDie letzte Säule der IPCC-Argumentation ist die Zuordnung des Kohlendioxids. Zwar ist der CO₂-Gehalt ₂ in der Atmosphäre gestiegen, und menschliche Industrieaktivitäten emittieren CO₂ ₂ . Doch der IPCC geht noch weiter und behauptet, der Anstieg des atmosphärischen CO₂ ₂ sei fast ausschließlich anthropogen bedingt – natürliche Prozesse könnten ihn nicht erklären, und die Isotopenzusammensetzung des atmosphärischen CO₂ ₂ liefere einen eindeutigen menschlichen Fingerabdruck.
Diese Behauptung stützt sich auf das Berner Modell, ein mathematisches Modell, das die CO₂-Verteilung ₂ zwischen Atmosphäre und natürlichen Speichern beschreibt. Das Berner Modell weist eine besonders alarmierende Eigenschaft auf: Es prognostiziert, dass ein erheblicher Anteil des heute emittierten CO₂ ₂ Jahrhunderte oder Jahrtausende in der Atmosphäre verbleiben wird. Der fünfte Sachstandsbericht des IPCC (AR5) besagt, dass 15 bis 40 Prozent des emittierten CO₂ ₂ über tausend Jahre in der Atmosphäre verbleiben werden. Dies ist die Grundlage für CO₂-Budgets und Klimaneutralitätsziele.
Das Berner Modell wurde durch Beweise widerlegt, die seit sechzig Jahren offenkundig waren.Als die atmosphärischen Atomtests Anfang der 1960er Jahre ihren Höhepunkt erreichten, wurde ein massiver Impuls radioaktiven Kohlenstoffs – Atom-14-Kohlenstoff (CO₂) – in die Atmosphäre freigesetzt. Dieser Impuls wird seither kontinuierlich verfolgt. Wäre das Berner Modell korrekt, müsste dieser Impuls langsam abklingen, wobei ein substanzieller permanenter Anteil zurückbliebe. Stattdessen klingt er exponentiell mit einer e-Faltungszeit von etwa siebzehn Jahren ab. Der Atom-14-Kohlenstoff ist verschwunden. Er durchlief das System und wurde innerhalb von etwa einem halben Jahrhundert vollständig absorbiert. Das multi-exponentielle Berner Modell mit seinem permanenten Anteil in der Atmosphäre ist schlichtweg falsch. CO₂ ₂ verbleibt nicht über Jahrtausende in der Atmosphäre. Es durchläuft das System innerhalb von Jahren bis Jahrzehnten.
Die Isotopenanalyse bestätigt dies. Das Kohlenstoffisotopenverhältnis im atmosphärischen CO₂ ₂ – die sogenannte Delta-13C-Größe – nimmt ab, da sich das isotopisch leichtere CO₂ aus fossilen Brennstoffen ₂ mit der Atmosphäre vermischt. Der IPCC wertet diesen Rückgang als eindeutigen Beweis für die menschliche Verursachung.
Eine 2024 von Fachkollegen begutachtete Studie von Prof. Demetris Koutsoyiannis untersuchte die tatsächlichen Isotopendaten eingehend und fand etwas, das mit der gängigen Lehrmeinung nicht vereinbar ist: Die Netto-Isotopensignatur des atmosphärischen Eintrags ist seit der Kleinen Eiszeit im Wesentlichen unverändert geblieben. Der Wert ist stabil geblieben – weltweit, an allen wichtigen Messstationen und während der gesamten Industrialisierungsphase. Ein sich verändernder menschlicher Einfluss müsste sich in einer veränderten Nettosignatur widerspiegeln. Das ist jedoch nicht der Fall. Die Isotopenzusammensetzung ist mit der Dominanz der natürlichen Biosphäre und einem nicht nachweisbaren menschlichen Beitrag vereinbar.
Der Grund dafür ist nicht mysteriös. Die Biosphäre – Pflanzen, Böden, Ozeane – zirkuliert jährlich etwa 25-mal mehr Kohlenstoff als die menschlichen Industrieemissionen. Natürliche Prozesse sind dabei mit Abstand dominant. Menschliche Emissionen stellen lediglich ein Rauschen dar, das einem gewaltigen natürlichen Signal überlagert ist. Und die Temperatur, nicht menschliche Aktivitäten, ist für den größten Teil dieses Signals verantwortlich: Die Erwärmung führt dazu, dass die Biosphäre mehr CO₂ ausstößt ₂ , was die atmosphärischen Konzentrationen erhöht. Die Kausalität verläuft von der Temperatur zum CO₂ ₂ , nicht umgekehrt.
5 x 0 = 0Treten Sie einen Schritt zurück und betrachten Sie das Gesamtbild.
Die Argumentation des IPCC für eine vom Menschen verursachte Klimakatastrophe stützt sich auf fünf miteinander verknüpfte Indikatoren: die globale mittlere Oberflächentemperatur (GMST), die darauf abgestimmten Klimamodelle, den Wärmeinhalt der Ozeane, das aus der Wärme der Ozeane resultierende Energieungleichgewicht der Erde und die CO₂-Zuordnung ₂ . Jeder dieser Indikatoren wird als unabhängiger Beweis präsentiert. Zusammen bilden sie laut IPCC einen überwältigenden Beweis.
Sie sind jedoch nicht unabhängig. Sie bilden einen Kreis. Die globale mittlere Oberflächentemperatur (GMST) ist physikalisch bedeutungslos. Die Modelle sind auf die GMST abgestimmt und erben deren Bedeutungslosigkeit. Der Wärmegehalt der Ozeane wird durch ein Verfahren berechnet, das gegen die Gesetze der Messphysik verstößt und statistisch nicht von null zu unterscheiden ist. Die Energiebilanz der Erde wird aus dem Wärmegehalt der Ozeane abgeleitet und durch Satelliten bestätigt, die entsprechend justiert wurden. Die Zuordnung von CO ₂ basiert auf einem Modell, das durch Daten aus Atombombenversuchen widerlegt wurde, und einem Isotopen-Fingerabdruck, der in den Beobachtungen nicht existiert.
Jedes Glied der Kette ist von den anderen abhängig. Keines steht für sich allein. Der IPCC nennt dies „mehrere Beweisketten“. Doch fünf mal null ist immer noch null.
Was das bedeutetNichts davon beweist, dass sich das Klima nicht verändert oder das menschliche Aktivitäten keinen Einfluss auf die Atmosphäre haben. Das Klima verändert sich kontinuierlich, und das seit Milliarden von Jahren. Es zeigt lediglich, dass die spezifischen Kennzahlen, mit denen der IPCC die Krise quantifiziert – jede Zahl, die die Politik bestimmt, jede Zahl, die die Ausgaben rechtfertigt, jede Prognose, die die Öffentlichkeit verängstigt – auf einem Fundament beruhen, das den Gesetzen der Physik nicht standhält.
Die Internationale Organisation für Normung konnte keine globale Durchschnittstemperatur definieren, da diese den metrologischen Anforderungen nicht genügt. Vier verschiedene KI-Systeme, denen die mathematischen Argumente vorgelegt wurden, kamen unabhängig voneinander zum selben Ergebnis. Der Kaiser ist nackt – und selbst die Werkzeuge, die sein Hof zu seinem Schutz geschaffen hat, erkennen es.
Seit 38 Jahren wurde auf diesen Kennzahlen eine gewaltige wissenschaftliche und politische Infrastruktur aufgebaut. Billionen von Dollar an Ausgaben wurden damit gerechtfertigt. Karrieren, Institutionen und internationale Abkommen hängen von ihnen ab. Sie in Frage zu stellen, wurde als Ketzerei behandelt.
Doch die Physik verhandelt nicht. Eine Zahl ohne physikalische Bedeutung erhält diese nicht, nur weil einflussreiche Personen sie für nützlich halten. Eine Messung, die sich nicht von Null unterscheidet, wird nicht zum Beweis einer Krise, nur weil ein Satellit entsprechend justiert wurde. Ein Modell, das durch sechzig Jahre Atombomben-Kohlenstoffdaten widerlegt wurde, wird nicht gültig, nur weil es zehntausendmal zitiert wurde.
Die Arbeit ist getan. Die Artikel sind veröffentlicht. Die mathematischen Grundlagen stehen jedem zur Verfügung, der sie untersuchen möchte. Die Frage ist nun nicht wissenschaftlicher Natur. Es geht vielmehr darum, ob die Institutionen, die ihre Macht auf diesen Zahlen aufgebaut haben, endlich anerkennen werden, was die Physik ihnen seit jeher zu sagen versucht.
Der Kaiser ist nackt. Das war schon immer so. Und es ist längst überfällig, das auszusprechen.
Der Vortrag „Des Kaisers neue Kleider“ wurde auf der 16. Internationalen Klimakonferenz in Washington DC am 8. und 9. April 2026 gehalten
Der Beitrag Der Kaiser ist nackt: Wie der IPCC ein 38-jähriges Klimaimperium auf einem Lügengebäude errichtete erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Nein, BBC, Katastrophenschäden lassen sich nicht mit dem Klimawandel in Verbindung bringen
Anthony Watts
Die Darstellung von Modellberechnungen in Billionenhöhe als feststehende wirtschaftliche Tatsache ist schlechter Journalismus, und die BBC sollte sich schämen, solch leicht widerlegbaren Unsinn als Tatsache zu präsentieren. Das ist hier die wahre Katastrophe.
In der jüngsten Veröffentlichung „The US is now paying more than any other country for climate change damage, study suggests“ (Die USA zahlen laut einer Studie mittlerweile mehr als jedes andere Land für Klimaschäden) in der Rubrik „Science Focus“ der British Broadcasting Corporation (BBC) wird behauptet, dass die Vereinigten Staaten „mittlerweile mehr als jedes andere Land für Klimaschäden zahlen“, und beruft sich dabei auf eine Studie, welche die Verluste der USA seit 1990 auf 16,2 Billionen Dollar schätzt. Dies ist eine erfundene Lüge. Jahrzehntelange, von Fachkollegen begutachtete Forschung zu Katastrophenschäden zeigt keinen nachweisbaren langfristigen Trend bei normalisierten wetterbedingten Schäden, die auf einen vom Menschen verursachten Klimawandel zurückzuführen sind, und die BBC verwechselt fälschlicherweise Wetter mit Klima.
Die BBC stützte ihren Bericht auf eine Studie von Forschern der Stanford University, die schreiben: „Der Klimawandel verursacht weltweit messbare Schäden.“ Sie räumen ein, dass keine Forschungsergebnisse Verluste und Schäden durch Extremwetterereignisse mit dem Klimawandel in Verbindung bringen; eine Wissenslücke, die sie zu schließen versuchen, indem sie politisch motivierte, fehlerhafte Schätzungen der sozialen Kosten von Kohlenstoff auf ökonometrische Modelle anwenden, welche in Simulationen die Kohlendioxidemissionen mit der gesamtwirtschaftlichen Leistung verknüpfen und dabei untersuchen, wie hoch die Wirtschaftsleistung gewesen wäre, wenn sich die Erde nicht leicht erwärmt hätte.
Die aus dem Modell abgeleiteten BIP-Schätzungen der Studie stellen nicht dokumentierte oder beobachtete Schäden dar, wie der BBC-Bericht suggeriert. Es besteht ein entscheidender Unterschied zwischen ökonometrischer Modellierung und realen Schadensdaten.
Dr. Roger Pielke Jr. untersuchte in seiner umfassenden Übersicht „Climate Change and Disaster Losses“ aus dem Jahr 2023 die begutachtete Literatur zur Normalisierung und stellte überwiegend fest, dass der Anstieg der gemeldeten Katastrophenschäden durch erhöhte Gefährdung, Wohlstand und Entwicklung erklärt wird – nicht durch den Klimawandel.
Das ist keine Randthese, sondern reflektiert die vorherrschende Schlussfolgerung in der bestehenden wissenschaftlichen Literatur.
NormalisierungWie Pielke im Abstract seiner Arbeit aus dem Jahr 2020 erläutert, muss man klimatische Veränderungen von gesellschaftlichen Veränderungen unterscheiden, um Katastrophenschäden zu verstehen. Wenn die Schäden unter Berücksichtigung von Inflation, Bevölkerungswachstum und ausgebauter Infrastruktur „normalisiert“ werden, verschwinden die Aufwärtstrends weitgehend. Seine Übersicht untersuchte 54 zwischen 1998 und 2020 veröffentlichte Normalisierungsstudien und fand „kaum Belege für die Behauptung, dass irgendein Teil des auf Klimaskalen dokumentierten Gesamtanstiegs der globalen wirtschaftlichen Schäden auf vom Menschen verursachte Klimaveränderungen zurückzuführen ist“.
Ebenfalls in seiner Veröffentlichung fasst Pielke die Schlussfolgerung des Fünften Sachstandsberichts (AR5) des IPCC zusammen, wonach „die Entwicklung der Schäden nicht eindeutig auf den anthropogenen Klimawandel zurückgeführt werden kann“. Allein diese Aussage steht in direktem Widerspruch zur Darstellung der BBC.
Die von Pielke in seiner Übersicht von 2023 veröffentlichten visuellen Tabellen, insbesondere die zusammenfassende Normalisierungstabelle (siehe unten) zeigen, dass bei Hurrikanen, Überschwemmungen, außertropischen Stürmen, Tornados und Waldbränden die Mehrheit der begutachteten Studien keine Trends bei den normalisierten Verlusten feststellt und diese nicht auf Treibhausgasemissionen zurückführt.
Mehr EigentumswerteTatsächlich identifiziert Pielke in seiner bis 2023 aktualisierten Studie weltweit 62 relevante Normalisierungsstudien, von denen 61 keine Aussagen zur Ursachenzuordnung treffen. Die Normalisierung ist unerlässlich, weil die wirtschaftlichen Verluste zunehmen, je wohlhabender Gesellschaften werden. Ein Hurrikan, der heute Florida erreicht, trifft weitaus mehr Sachwerte als einer, der die gleiche Küste im Jahr 1950 oder früher heimgesucht hätte. Das bedeutet nicht, dass der Sturm stärker ist. Es bedeutet, dass der Schaden größer ist, weil mehr Menschen die Küstengebiete besiedelt haben und dort im Vergleich zu früheren Jahrzehnten mehr Immobilien-Infrastruktur vorhanden ist. Floridas Bevölkerung betrug 1950 knapp über 2,7 Millionen, überstieg jedoch bis 2024 die 23-Millionen-Marke. Die Zahl der Häuser in Florida ist von rund 600.000 im Jahr 1950 auf heute über 10 Millionen gestiegen, was zu einer viel höheren Dichte an Vermögenswerten in hochrisikobehafteten Küstengebieten geführt hat.
In einem Substack-Beitrag aus dem Jahr 2022 zeigte Pielke, wie sehr sich Miami Beach in knapp 100 Jahren verändert hat und wie viel mehr Infrastruktur heute vorhanden ist:
Pielke veröffentlichte 2024 einen zweiten begutachteten Artikel in der Fachzeitschrift „Nature“ und fügte die nachstehende Grafik bei:
Dieser Abwärtstrend ist eine unumstößliche wissenschaftliche Tatsache, die der Position der BBC widerspricht.
Die Behauptung des BBC-Artikels bezüglich der Billionen-Dollar-Verluste stützt sich auf kontrafaktische BIP-Modellierungen und nicht auf normalisierte Daten zu Katastrophenschäden. Dabei werden Zusammenhänge zwischen Temperatur und BIP extrapoliert und anschließend die finanzielle Haftung auf die einzelnen Länder verteilt. Dieser Ansatz geht davon aus, dass Temperaturabweichungen die Wirtschaftsleistung direkt und messbar beeinträchtigen, wobei sich dieser Effekt über Jahrzehnte hinweg verstärkt. Er isoliert nicht die tatsächlichen Katastrophenschäden, sondern modelliert hypothetische Wirtschaftswelten.
VerschwindenIm Gegensatz dazu untersuchen Normalisierungsstudien reale Daten zu Katastrophenschäden, die um das gesellschaftliche Wachstum bereinigt wurden. Wenn man dies tut, verschwinden langfristige Trends weitgehend.
Pielke stellt ausdrücklich klar, dass das Fehlen von Nachweisen oder Zuordnungen bei Katastrophenschäden den Klimawandel nicht leugnet. Es reflektiert lediglich, was die empirische Literatur zeigt. Es gibt in den normalisierten Katastrophenschäden kein statistisch robustes Signal, das auf Treibhausgasemissionen zurückgeführt werden könnte.
Dies steht in vollem Einklang mit dem Sechsten Sachstandsbericht (AR6) des IPCC, der weiterhin große Unsicherheiten bei der Verknüpfung von aggregierten wirtschaftlichen Verlusten mit dem anthropogenen Klimawandel einräumt.
Die beobachteten normalisierten Katastrophenschäden stützen nicht die Behauptung, dass die Vereinigten Staaten aufgrund des Klimawandels in einzigartiger Weise „mehr als jedes andere Land zahlen“. Der Anstieg der wirtschaftlichen Verluste im Laufe der Zeit lässt sich überwiegend durch das Wachstum des Wohlstands und der Gefährdung erklären.
Betrachtet man die begutachteten Normalisierungsstudien in ihrer Gesamtheit, wird das Muster deutlich. Es gibt keinen nachweisbaren, auf Treibhausgasemissionen zurückzuführenden Aufwärtstrend bzgl. Katastrophenschäden.
Tatsächlich ist das BIP der USA in der jüngsten Phase der leichten globalen Erwärmung erheblich gestiegen. Das Gegenteil müsste der Fall sein, wenn der Klimawandel wirtschaftliche Verluste in Höhe von mehreren Billionen Dollar verursachen würde. Tatsächlich kann die Studie kein einziges extremes Wetterereignis explizit mit menschlichen Emissionen oder den entstandenen Verlusten in Verbindung bringen. Die Verluste sind alle in Computersimulationen enthalten und finden in der realen Welt keine Bestätigung.
Modellberechnungen in Billionenhöhe als gesicherte wirtschaftliche Tatsache zu präsentieren, ist schlechter Journalismus, und die BBC sollte sich schämen, solch leicht widerlegbaren Unsinn als Tatsache zu präsentieren. Das ist die wahre Katastrophe in diesem Fall.
This article was published first on climaterealism.com on 10 April 2026.
Anthony WattsAnthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.
Link: https://clintel.org/no-bbc-disaster-losses-cant-be-tied-to-climate-change/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Nein, BBC, Katastrophenschäden lassen sich nicht mit dem Klimawandel in Verbindung bringen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Energie im Untergrund – Niederlande und Deutschland
Dieser Beitrag über die Rohstoffe im Boden von Holland, hat mich angeregt, auch kurz etwas zu den Rohstoffen im Boden von Deutschland zu recherchieren. Siehe Ergänzung – der Übersetzer
Rob, klimaatgek.nl, 27.03.2026
Heute Morgen wurde ich in der Bäckerei mit der aktuellen Energieknappheit in unserem Land konfrontiert: Mein Lieblingsbrot war 25 Cent teurer geworden. Mein Energieversorger nannte mir einen Gaspreis von 1,40 Euro für heute, inklusive aller Steuern und Abgaben. Der Grundpreis für Gas pro Kubikmeter liegt heute ohne Mehrwertsteuer deutlich über 50 Cent; Steuern (Energiesteuer 73 Cent) plus Mehrwertsteuer (fast 11 Cent) kosteten mich daher heute 84 Cent pro Kubikmeter Gas.
Es ist bekannt, dass das Groninger Gasfeld, einst eines der größten Gasfelder der Welt, von Politikern stillgelegt wurde. Von den ursprünglichen Reserven von 2.800–2.900 Milliarden m³ Gas befinden sich noch etwa 450–550 Milliarden m³ im Boden. Darüber hinaus lagern noch etwa 90–100 Milliarden m³ Gas in zahlreichen kleineren Gasfeldern an Land, vorwiegend unter der Nordsee.
Abb. 1 Quelle: NLOG
Abbildung 1 ist eine Übersichtskarte des niederländischen geologischen Portals (NLOG). Über den Link unterhalb der Abbildung gelangen Sie zur interaktiven Karte. Wählen Sie dort „Felder“ aus.
Abb. 2 Quelle: NLOG
Abbildung 2 zeigt die detaillierte Gasfeldkarte der nordöstlichen Niederlande. Das riesige Groninger Feld ist hellgrau mit einem hellgrünen Rand dargestellt. Darüber hinaus ist das gesamte Gebiet mit kleineren Gasfeldern übersät, die fast alle in Produktion sind. Das Gasfeld Eleveld südlich von Assen ist mit einem roten X markiert; dort ereignete sich am 14. März ein leichtes Erdbeben. Das Erdgasfeld war zwar bereits einige Monate zuvor stillgelegt worden (hellgrün), doch können Erdbeben auch nach der Stilllegung noch geraume Zeit auftreten.
Auffällig sind auch die zahlreichen Gasfelder im Osten von Ameland. Südlich von Zoutkamp und Roden befinden sich zudem zwei unterirdische Gasspeicher (blau). Ein dritter Speicher liegt in der Nähe von Alkmaar in Nordholland. Es handelt sich dabei um erschöpfte Gasfelder, die im Sommer mit importiertem Erdgas aufgefüllt werden.
Abb. 3
Unser Erdgas entstand bei der Inkohlung tiefer liegender Kohleflöze, die sich im Untergrund fast der gesamten Niederlande befinden. Der schematische Querschnitt in Abbildung 3 zeigt, dass die Kohleflöze aus dem Karbon (vor 300 Millionen Jahren) in Südlimburg nahe der Oberfläche liegen und nach Norden hin immer tiefer reichen. Unter Groningen befinden sie sich in einer Tiefe von etwa 5 km.
Erdgas entsteht durch die Verkohlung von Gestein aufgrund steigenden Drucks und steigender Temperatur und entweicht normalerweise an der Erdoberfläche in die Atmosphäre. Es kann nur dann eingeschlossen werden, wenn sich darüber eine undurchlässige Gesteinsschicht (Salz) befindet. Dies ist unter Groningen in etwa 3 km Tiefe in einer Sandsteinformation namens Rotliegendes der Fall. Das Profil zeigt auch deutlich, warum in den südlichen Niederlanden kein Erdgas vorkommt. Es wird nun auch verständlich, warum man in der Nordsee tiefer bohren muss, um an Erdgas zu gelangen.
Abb. 4 Quelle: NLOG
Der detaillierte Querschnitt des Groninger Untergrunds (Abbildung 4) zeigt, dass die Salzablagerung (Alter ca. 260 Millionen Jahre) in ihrer Mächtigkeit stark variiert. Dies ist darauf zurückzuführen, dass sich (Gesteins-)Salz unter Druck verformt. Dabei bilden sich Salzsäulen, die teilweise über 1 km hoch sind und das darüber liegende Gestein verdrängen. Durch den Druck von unten entstehen in den darüber liegenden Gesteinen Brüche (die dünnen schwarzen Linien).
Wir benötigen (bezahlbares) Erdgas, um unseren Lebensstandard zu halten. Mit ausschließlich „fossilen“ Energiequellen wie Windkraft und Solaranlagen ist dies völlig unmöglich. Schon allein deshalb, weil jedes aus Wind und Sonne erzeugte Kilowatt eine hundertprozentige Reserve benötigt, wenn die Sonne nicht scheint (was die Hälfte des Jahres der Fall ist) oder der Wind nicht ausreicht (was häufig vorkommt). Hinzu kommt, dass Wind- und Solarenergie sehr teuer sind! Ohne Subventionen werden keine weiteren Windparks in der Nordsee gebaut, und erst recht nicht, wenn die Regierung (sprich: der Steuerzahler) keine Kabelverbindungen zum Festland garantiert.
Abb. 5 Quelle: Lomborg
Die Grafik in Abbildung 5 zeigt deutlich: Je höher der Anteil von Solar- und Windenergie an der Stromerzeugung ist, desto höher ist der Strompreis. Billiger Strom aus Solar- und Windenergie existiert nicht. Und mit „sauberer Produktion“ hat er wenig zu tun. Wie vielfach nachgewiesen wurde, belastet er die Umwelt massiv. Zudem gefährdet ein hoher Anteil von Solar- und Windenergie die Stabilität des Stromnetzes, wie wir kürzlich in Spanien gesehen haben. Kurz gesagt: Wind- und Solarenergie als Stromerzeuger sind extrem teuer, umweltschädlich und unerschwinglich.
Das erklärte Ziel der Energiewende in der EU ist, dass bis zum Jahr 2050 keine fossilen Brennstoffe mehr verwendet werden. Alles soll elektrifiziert werden. Diese Daten von Statistics Netherlands zeigen jedoch, dass dies völlig unrealistisch ist:
Die Energiemenge, die in den Niederlanden primär für den Verbrauch zur Verfügung steht Gesamtprimär-energieversorgung PJ Anteil Gesamte Energieträger 2.629,6 100 % Kohle und Kohleprodukte 172,3 6,5 % Erdölböden – und -produkte, fossile 1.042,5 39,6 % Erdgas 941,4 35,8 % Erneuerbare Energie 409,7 15,6 % Strom -15,2 -0,6% Wärme % Wasserstoff 0,7 0,0% Sonstige Energieträger insgesamt 78,3 3,0 %Abb. 6 Quelle: CBS [Ein Petajoule sind 1015 Joule (1 Million Milliarden) oder 278 Gigawattstunden.]
Abbildung 6 stellt das Energieangebot die im Land im Jahr 2024 zur Verfügung stehende Energiemenge für Umwandlung oder Verbrauch dar. Importe, Exporte und Bunkerungen sind, wie aus der ursprünglichen Tabelle des Zentralen Statistikamtes (CBS) hervorgeht, bereits in den Bruttozahlen berücksichtigt. Das geringfügig negative Angebot unter „Strom“ bezieht sich auf die Strombilanz zwischen Exporten und Importen im Jahr 2024. Die Kategorie „Sonstige Energieträger gesamt“ umfasst hauptsächlich die Stromerzeugung unseres einzigen Kernkraftwerks in Borssele.
Die unteren Zeilen der Tabelle zeigen, wo wir nach so vielen Jahren des Übergangs in den Niederlanden gelandet sind: 82 % fossile Energien und 15,6 % erneuerbare Energien ; die Elektrifizierung scheint langsam zum Stillstand zu kommen.
Abb. 7 Quelle: Blomborg
Auf globaler Ebene ist der Anteil von Solar- und Windenergie am gesamten Energiepaket sogar noch geringer als in den Niederlanden, wie Abbildung 7 zeigt.
Die aktuelle Energiekrise zwingt uns, den Tatsachen ins Auge zu sehen: Ohne bezahlbare Energie wird der Motor des Wohlstands unweigerlich zum Erliegen kommen . Fast die ganze Welt ist sich dessen bewusst, mit Ausnahme der EU, Australiens und einiger weniger anderer Länder. In Europa sind die ersten Folgen dieser aussichtslosen Energiewende bereits sichtbar: die Deindustrialisierung. Industrien wandern in Gebiete mit günstiger Energie ab, zunächst in Billiglohnländer innerhalb der EU und später in Länder außerhalb der EU. Die Folge: Zehntausende verlorene Arbeitsplätze und zunehmende Armut.
Die Niederlande können sich retten, indem sie nicht länger an dem von der EU aufgezwungenen, sinnlosen Elektrifizierungswettlauf teilnehmen. Wir müssen eine ausreichende und bezahlbare Energieversorgung in allen Formen sicherstellen. Meiner Ansicht nach bedeutet das die Reaktivierung des Groninger Erdgasfelds, selbstverständlich verbunden mit einer angemessenen Entschädigung für die Anwohner, die durch den Bergbau geschädigt wurden. Und besondere Aufmerksamkeit bedarf es der wenigen hundert kleineren Erdgasfelder. Nicht zu vergessen ist auch der zügige Bau weiterer Kernkraftwerke sowie der Weiterbetrieb unserer hochmodernen Kohlekraftwerke.
Und schließlich: Unter fast den gesamten Niederlanden lagern gigantische Kohlevorkommen im Untergrund. Die geologische Gesamtmenge wird auf rund 1 Billion Tonnen geschätzt! Ein Teil davon wird technisch schwer zu fördern sein, doch es schlummert ein enormes Energiepotenzial, das darauf wartet, entdeckt zu werden. Ein Teil davon lässt sich möglicherweise kostengünstig erschließen, beispielsweise durch Untertagevergasung oder andere moderne Verfahren. Aber auch die traditionelle Methode, der Schachtbau, ist natürlich möglich. In Flandern wird ernsthaft geprüft, ob einige kürzlich stillgelegte Bergwerke durch neue Schächte wiedereröffnet werden könnten. In den Niederlanden ist der Schachtbau in Südlimburg sowie am Peelhorst und im Meinweg-Gebiet denkbar. Warum also nicht?
https://klimaatgek.nl/wordpress/2026/03/27/energie-in-de-nederlandse-ondergrond/
Ergänzung
ROHSTOFFLAND DEUTSCHLANDDeutschland verfügt über bedeutende Ressourcen an. Energierohstoffen wie Braun- und Steinkohle sowie an nichtenergetischen Rohstoffen
https://v-r-b.de/wp-content/uploads/2016/09/VRB-ImageBroschuere_A4_20160919_WEB.pdf
Erdgas, Erdöl, Kohle und UranWelche Rohstoffe hat Deutschland?
Um seinen Energiebedarf zu decken, ist Deutschland aktuell auf Öl und Gas aus dem Ausland angewiesen. Doch welche Bodenschätze lagern eigentlich noch in Deutschland? Und zu welchem Preis könnte man die Rohstoffe abbauen?
11.11.2022
Braunkohlevorkommen:Die bekannten und wirtschaftlich förderbaren Braunkohlevorkommen in Deutschland könnten theoretisch noch für etwa 200 Jahre reichen.
Deutsche Steinkohle zählt nicht zur Reserve Auch aus Steinkohle wird in Deutschland noch Strom produziert – doch die Kohle dafür wird inzwischen vollständig importiert. 2018 wurden die letzten deutschen Steinkohle-Bergwerke stillgelegt. Der Abbau in Deutschland konnte wirtschaftlich schon lange nicht mehr mit den Weltmarktpreisen konkurrieren, denn die deutsche Steinkohle liegt in über 1.000 Metern Tiefe. Hierzulande gelten außerdem hohe Sozial-, Sicherheits- und Arbeitsstandards. Deshalb ist es billiger, sie per Schiff um die halbe Welt zu schicken, als sie von der Zeche nebenan zu holen. Die deutsche Steinkohle zählt daher nicht mehr zur Reserve. Die Bundesanstalt für Geowissenschaften und Rohstoffe schätzt, dass noch 83.000 Millionen Tonnen Steinkohle in Deutschland im Boden liegen. Mit so viel Steinkohle ließen sich theoretisch 680.000 Terawattstunden Strom erzeugen. Das würde den aktuellen Strombedarf für über 1.000 Jahre abdecken.Der Beitrag Energie im Untergrund – Niederlande und Deutschland erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Höhlenfunde zeigen, dass das heutige Wüstenklima vor nicht allzu langer Zeit weitaus wärmer und feuchter war und es von Leben wimmelte
Fuerteventura, eine der acht größten Kanarischen Inseln, war während des frühen bis mittleren Holozäns nicht die „Wüste im Ozean“, die sie heute ist.
Wissenschaftler (Sánchez-Marco et al., 2026) haben in einer Höhle auf Fuerteventura, der trockensten der Kanarischen Inseln, Überreste mehrerer Vogelarten geborgen, von denen bekannt ist, dass sie an den Rändern von Gewässern (z. B. Lagunen, Seen, Flüssen) mit Ufervegetation und dichten Wäldern leben. Die Knochen stammen aus einer Zeit vor etwa 9000 bis 5000 Jahren.
Diese Entdeckung zeigt „unerwarteterweise“, dass das Klima im Holozän deutlich wärmer war als heute (um etwa „3 bis 7 °C“). Vor einigen tausend Jahren war es zudem auch „deutlich feuchter als heute“, sodass Regionen, die heute trocken und weitgehend unbewohnbar sind, vor nicht allzu langer Zeit eine weitaus größere Vielfalt an Pflanzen- und Tierarten beherbergen konnten.
Die kühlere Landschaft auf Fuerteventura ist heute von Sanddünen bedeckt und gilt als trockene Wüste, fällt doch dort jährlich nur 100–150 mm Niederschlag. Die Insel bietet keinen Lebensraum mehr für Wasservögel oder andere Arten, die auf hohe jährliche Niederschlagsmengen angewiesen sind.
„Jüngste Eiskernanalysen aus Nordgrönland zeigen, dass die höchsten Temperaturen des Holozäns zwischen 10 und 7 ka BP auftraten und 3 bis 7 °C über den heutigen Werten lagen. Dies lässt darauf schließen, dass die hier untersuchten Tiere unter wärmeren Bedingungen starben als den heute vorherrschenden.“
„Es scheint wahrscheinlich, dass sich in der Nähe der Höhle eine Lagune oder ein Teich befand, um den sich ausgedehnte Ufervegetation entwickelte. Ebenso befanden sich wahrscheinlich auch bewaldete Gebiete mit Unterholz in der Nähe der Höhle, in denen sogar Wendehälse vorkamen. Die ornithologischen Funde aus der Cueva del Llano deuten darauf hin, dass das vorherrschende Klima auf den Kanarischen Inseln in den frühen Phasen des Holozäns wesentlich feuchter war als heute. Auf Fuerteventura gab es Gewässer mit Ufervegetation und mehr oder weniger dichte Waldgebiete mit strauchartigem Unterholz. Höhere globale Temperaturen als heute könnten zu Veränderungen in den jährlichen Verschiebungen des Azorenhochs geführt und ein intensiveres Niederschlagsregime begünstigt haben, was den Erhalt vielfältigerer Lebensräume und folglich eine deutlich vielfältigere Vogelwelt als heute förderte. Die mit diesen Lebensräumen verbundenen Vogelarten sind wahrscheinlich mit den Klimaveränderungen verschwunden, die zu deutlich trockeneren und kälteren Bedingungen führten.“
Quelle: Sánchez-Marco et al., 2026 Zum Vergrößern anklicken
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Höhlenfunde zeigen, dass das heutige Wüstenklima vor nicht allzu langer Zeit weitaus wärmer und feuchter war und es von Leben wimmelte erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kältereport Nr. 16 /2026
Meldungen vom 13. April 2026:
Blizzards in den Hochlagen von SchottlandKalte Luft ist wieder nach Europa vorgedrungen und hat in höheren Lagen – darunter auch in Schottland – für Neuschnee gesorgt.
Am Cairngorm Mountain fiel das ganze Wochenende über Neuschnee, wobei das Skigebiet weiterhin in Betrieb ist.
Etwa 100 km westlich davon meldete das Glencoe Mountain Resort am Sonntagmorgen Schneesturmbedingungen. Starke Winde schränken den Betrieb ein, doch in den höheren Lagen ist die Schneedecke sehr hoch.*
Beide Skigebiete bleiben für Skifahrer geöffnet.
Trotz aller Klagen des britischen Establishments wird die Schneedecke in Schottland als die beste seit fast einem Jahrzehnt beschrieben, und es soll noch mehr Schnee kommen.
Ähnlich hat sich auf dem Kontinent ein weiterer extremer „Schwung“ vollzogen, am deutlichsten sichtbar am Col de Couraduque (1.366 m) in den Pyrenäen:
*Einschub des Übersetzers dazu: Das Wesentliche dieses Vorgangs hat Cap Allon gar nicht erwähnt. Schnee in den schottischen Bergen ist nun wirklich nichts Besonderes – sofern die Kaltluft arktischen Ursprungs direkt von Norden einströmt. Der Weg über das eisfreie Nordmeer ist nämlich ziemlich kurz.
Das war hier jedoch nicht der Fall! Diese Schnee bringende Kaltluft kam nicht von Norden, sondern von Westen aus dem kanadischen Kältepol. Trotz des langen Weges über den warmen Atlantik hat sich diese Luftmasse nicht so stark erwärmt, dass die Schneefallgrenze die sonst übliche Höhe erreicht hat. Dafür gibt es zwei Ursachen: entweder ist die überströmte Meeresfläche außerordentlich kalt (davon zeigen die entsprechenden Graphiken jedoch nichts) oder die Temperatur zum Startzeitpunkt der Advektion aus dem kanadischen Kältepol war so außerordentlich niedrig, dass es anderer zusätzlicher Wärme bedurft hätte, diese Luftmasse aufzuheizen. Betrachtet man die vergangenen Kältereports, ist es ziemlich eindeutig, dass Letzteres der Fall sein dürfte. – Ende Einschub
————————————–
Nordindien: Die kälteste April-Nacht in Shimla seit 47 JahrenIn Shimla, einer Bergstadt im nordindischen Bundesstaat Himachal Pradesh, sank die Temperatur auf 3,6 °C – es war die kälteste Aprilnacht seit 1979 (als 3,4 °C gemessen wurden).
Auch die Tagestemperaturen brachen ein. Die Stadt erreichte nur 11,4 °C, den niedrigsten Tageswert im April seit zehn Jahren.
Und das war kein Einzelfall.
In ganz Himachal Pradesh sind die Tagestemperaturen in den letzten Tagen stark gesunken. Auslöser sind anhaltende westliche Lagen, die wiederholt Regen und für diese Jahreszeit ungewöhnliche Schneefälle in den höheren Lagen mit sich bringen.
Ähnliche Anzeichen für ungewöhnliche Kälte in der späten Saison sind in den letzten Jahren in ganz Nordindien zu beobachten. Kälteeinbrüche im April, die mit westlichen Lagen zusammenhängen, haben die Temperaturen wiederholt deutlich unter die saisonalen Durchschnittswerte gedrückt, was zu Ernteausfällen geführt und den Übergang zum Frühling verzögert hat.
Der Frühling kommt nicht reibungslos voran.
————————————–
USA: Der extrem kalte März in AlaskaDer März 2026 war in ganz Alaska von Kälte geprägt. Laut ERA5 lagen 96 % des Bundesstaates unter dem Referenzwert. Auf Bundesstaatsebene stuft NOAA/NCEI diesen Monat als den viertkältesten seit 1925 ein.
Regional war die Kälte weit verbreitet und extrem. Rund 20 % von Alaska verzeichneten den kältesten März seit Beginn der ERA5-Aufzeichnungen (1950), wobei nur im Jahr 2007 ein größerer Teil des Bundesstaates von „extremer Kälte“ betroffen war.
Insgesamt verzeichneten sechs Klimaregionen ihren kältesten März seit Beginn der Aufzeichnungen. Elf von dreizehn landeten unter den fünf kältesten. Auf lokaler Ebene verzeichneten mehrere Landkreise und Gemeinden ihren kältesten März seit Beginn der Aufzeichnungen im Jahr 1925, darunter Anchorage, Juneau, Yakutat, Haines und Kodiak. Fairbanks erreichte seinen kältesten März seit Beginn der Aufzeichnungen.
Der Schnee hielt mit der Kälte Schritt.
Im Südosten Alaskas wurden extreme Gesamtmengen verzeichnet. Der Flughafen Juneau verzeichnete im Monatsverlauf 190 cm, was einen neuen Rekord um etwa 30 cm bedeutete. Die saisonale Schneemenge stieg über5 m, ebenfalls ein Rekord.
Die höchste monatliche Gesamtmenge erreichte 320 cm in Snettisham in der Nähe von Juneau.
Starker Schneefall erstreckte sich über die gesamte Region. Craig verzeichnete 109 cm, Ketchikan (10N) 90 cm und Sitka 80 cm. Dies sind die höchsten monatlichen Gesamtmengen seit einem Jahrzehnt oder mehr für diese Orte.
Ein überdurchschnittliches Schneewasseräquivalent bedeckte einen Großteil des östlichen Landesinneren bis hin zum Yukon und Teile des North Slope. Auch Anchorage schloss den März überdurchschnittlich ab.
Meereis verstärkte das Kältephänomen.Im östlichen Beringmeer war eine ausgedehnte Eisbedeckung zu beobachten. Das Eis erreichte St. Paul Island am 4. März und umgab die Insel für den Rest des Monats. Am 12. März erreichte es St. George Island und hielt sich bis zum Monatsende in der Nähe der Insel.
Die Ausdehnung im östlichen Beringmeer war vergleichbar mit den Jahren mit hoher Eisbedeckung zwischen 2008 und 2012 und lag nahe an den Werten von 1976.
März 2026: weit verbreitete Rekordkälte und starke Schneefälle vor allem im Südosten.
————————————–
Meldungen vom 14. April 2026:
USA: Spät-saisonaler Schneesturm in der Sierra NevadaEin Sturm Mitte April hat in der Sierra Nevada für eine drastische Wende gesorgt.
In Palisades Tahoe fielen innerhalb von 24 Stunden 56 cm Schnee, wodurch die Gesamtmenge innerhalb von drei Tagen auf 109 cm stieg. Die Schneefallgrenze sank auf etwa 1.200 m.
Ein zweiter schwerer Sturm traf weiter südlich ein.
In der Nähe von Mammoth Lakes fiel am Wochenende über 1 m Schnee, davon allein 108 cm zwischen Freitag und Sonntag. Aufgrund der Schneesturmbedingungen musste die Interstate 80 durch die Sierra gesperrt werden.
Die Wetterumschwung ist kein Einzelfall. Im gesamten pazifischen Nordwesten ist bis zum 16. April ein neuer Sturmzyklus im Gange. Prognosen sagen weitere 25–50 cm für höhere Lagen voraus.
Wichtige Skigebiete wie Mount Baker und Crystal Mountain werden davon profitieren, da kältere Luft Mitte der Woche die Schneefallgrenze senkt. Der frühe Schneefall wird dicht sein und sich mit sinkenden Temperaturen und steigendem Schneeverhältnis verbessern.
Der Wind bleibt der wichtigste einschränkende Faktor, insbesondere in den Cascades in Oregon, wo in der Anfangsphase Windböen bis 110 km/h erwartet werden.
Nach einem schwachen Winter hat ein später Wintereinbruch Kälte und Schneefall im Westen der USA zurückgebracht.
————————————–
Frankreich: Weiterhin Frühjahrs-FrostKalte Luft hält bis Mitte April weiterhin über weiten Teilen Europas Ein.
Am Morgen des 14. April wurde in Frankreich erneut Frost verzeichnet, vom Südwesten bis in den Norden. Die Temperaturen fielen in Mourmelon-le-Grand auf -3,4 °C und in Chaumont auf -2,2 °C.
Die Frostgefahr lässt in dieser Gegend nicht nach.
Stattdessen hält der nächtliche Frost unter klarem Himmel und unter dem Einfluss polarer Luft an – ein anhaltendes Kaltwetterphänomen, das Westeuropa erfasst hat, wo der Frühling ins Stocken geraten ist.
Für die Landwirte hat die wiederholte Frostgefahr dazu geführt, dass sie Frostkerzen angezündet haben.
————————————–
Eine Meldung vom 15. April 2026:
USA: Kaltluftvorstoß im Nordosten drohtAn diesem Wochenende zieht eine kräftige Kaltfront über den mittleren und östlichen Teil der Vereinigten Staaten hinweg, wodurch die derzeitige Wärme ein Ende findet und die Temperaturen wieder deutlich unter den Durchschnitt sinken.
Der Auslöser liegt weiter nördlich. Eine Troglage, die mit dem anhaltenden Polarwirbel über der Hudson Bay verbunden ist – der für Mitte April immer noch ungewöhnlich stark ist –, lässt kältere Luft nach Süden strömen, während sich der Hochdruckkeil östlich davon auflöst.
Dies wird auch kein Einzelfall bleiben.
Die neuesten Modellläufe zeigen ein sich wiederholendes Muster: Über dem Osten baut sich ein Hoch auf, das dann zusammenbricht, wenn sich eine neue Tiefdruckrinne festsetzt. Jeder Zusammenbruch ebnet den Weg für einen weiteren Kälteeinbruch aus Süden.
Der Jetstream mäandriert stark und verläuft nicht zonal. Das sorgt für starke Schwankungen.
Stürme ziehen während jedes Übergangs entlang der Grenze, gefolgt von kälterer Luft. Die nördlichen Gebiete sind dem höchsten Risiko für Spätfrost ausgesetzt.
Das Kältereservoir über dem arktischen Kanada bleibt intakt.
Weiter südlich bleibt das Muster bestehen: Wärmeeinschübe. Dann kehrt die Kälte zurück.
————————————–
Eine Meldung volm 16. April 2026:
Kanada: Immer noch Schneezuwachs in den Rocky MountainsDas Skigebiet Marmot Basin in den kanadischen Rocky Mountains in Alberta ist Mitte April noch immer in Hochform.
In den letzten 48 Stunden fielen dort 22 cm Schnee, die Schneedecke beträgt 153 cm, und alle Pisten bleiben bis in den Mai hinein geöffnet.
In den höheren Lagen verharren die Temperaturen unter dem Gefrierpunkt (bei etwa -6 °C bis -9 °C), wobei es die ganze Woche über weiterhin zu leichtem Schneefall und tagsüber nur zu einer sehr begrenzten Schneeschmelze kommt.
In der näheren Umgebung ist das Bild in den kanadischen Rocky Mountains einheitlich. Skigebiete im Westen Kanadas melden Neuschnee im April, wobei sich nach einer kurzen Warmphase wieder kältere Luft durchsetzt.
Dies entspricht dem allgemeinen Muster der Spätsaison.
In der gesamten nördlichen Hemisphäre liegt für diese Jahreszeit weiterhin überdurchschnittlich viel Schnee. Die neuesten FMI-Daten (14. April, siehe Grafik unten) zeigen, dass die Schneemasse über dem Normalwert liegt, sogar mehr als eine Standardabweichung darüber.
Trotz der spürbaren Schwierigkeiten im Westen der Vereinigten Staaten hält die Hemisphäre insgesamt ihre Schneedecke gut aufrecht und verliert sie nicht rapide, wie die Schlagzeilen vermuten lassen könnten. Die Rocky Mountains sind nur ein sichtbarer Teil davon.
Kurz gesagt: Der Westen bekommt noch einen späten Schub.
Ein Sturm hat kürzlich 1 m Neuschnee in die Sierra Nevada gebracht, wodurch Mammoth Mountain seine Saison bis Ende Mai verlängern kann. Geringere Schneemengen haben sich auch auf Teile des westlichen Landesinneren ausgebreitet, einschließlich der Rocky Mountains.
Kein vollständiger Aufschwung, aber sicherlich ein willkommener Schub zum Saisonende.
————————————–
Meldungen vom 17. April 2026:
Nordindien: Schnee in Kaschmir blockiert wichtige Verkehrswege
Starke Schneefälle im April beeinträchtigen weiterhin den Verkehr in den höheren Lagen von Jammu und Kaschmir, wobei mehrere wichtige Strecken derzeit gesperrt sind.
Die Achse Sonamarg–Minamarg und der Razdan Top bleiben am Freitag aufgrund anhaltender Neuschneefälle gesperrt. Mindestens bis Sonntag wird mit weiteren Schneefällen gerechnet.
Berichte vom 17. April bestätigen anhaltende starke Schneefälle am Razdan Top.
Weiter südlich fällt auch am Sinthan Top und entlang der Mughal Road Schnee.
Die Behörden raten von Reisen auf den betroffenen Strecken bis mindestens Dienstag ab, weil man hofft, dass sich die Lage dann allmählich stabilisieren könnte.
————————————–
Japan: Schnee-KorridoreDie Tateyama-Kurobe-Route wurde am 16. April für die Saison 2026 eröffnet und führt durch tiefen, festgefahrenen Winterschnee in den Nordjapanischen Alpen.
Diese Route ist bekannt für ihre Frühlingsschneewände, und diese sind wieder in voller Größe zu sehen. Der Winterdienst hat einen Korridor durch meterhohen, festgefahrenen Schnee gebahnt.
Die Schneemenge dieses Winters ist ausreichend, der Zeitplan bleibt unverändert, und der Korridor sieht so aus, wie er Mitte April aussehen sollte – das Gejammer über sein Ende hat sich einmal mehr nicht bewahrheitet:
Wird fortgesetzt mit Kältereport Nr. 17 / 2026
Redaktionsschluss für diesen Report: 17. April 2026
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kältereport Nr. 16 /2026 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Wie schalten wir die Sonne ab?
Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT
https://www.solar.sheffield.ac.uk/pvlive/#
Um auf die Geschichte vom Solarstromüberschuss zurückzukommen: Letzte Woche erreichte die Solarstromproduktion am Dienstag einen Spitzenwert von 14,4 GW.
Es ist zwar nicht beschriftet, aber der hellblaue Fleck mit dem Pfeil steht für Solarstrom. Der Gesamtbedarf lag mittags bei etwa 35 GW. Gas und Biomasse lieferten zusammen 1,9 GW, Kernkraft 5,1 GW und Windkraft 11,6 GW. Außerdem importierten wir 4,5 GW.
Spulen wir also ein paar Jahre vor, wenn wir die dreifache Menge an Solarenergie haben, dann werden wir mindestens 40 GW haben, plus Wind- und Kernkraft.
Da Miliband auch die Windkraft verdreifachen will, könnten wir leicht 70 GW an Wind- und Solarenergie haben, die weniger als 40 GW Nachfrage decken müssen.
Laut dem Telegraph müssten wir unter solchen Umständen möglicherweise ein großes Kraftwerk dafür bezahlen, den Betrieb einzustellen. Ja, genau die Kraftwerke, die Miliband schließen will! Aber der Telegraph verkennt den Punkt – zu dieser Tageszeit werden keine Gas- oder Biomassekraftwerke zur Stromlieferung verpflichtet sein, da bereits zu viel Kapazität prognostiziert wird.
Man kann nichts abschalten, was gar nicht erst eingeschaltet ist!
Damit bleiben wir beim Problem der Kernenergie. Einen großen Reaktor wie Hinkley kann man nicht einfach hoch- und herunterfahren, sodass der Stromüberschuss noch größer wird.
Kayte O’Neill von NESO versucht auf ziemlich hinterhältige Weise, die Aufmerksamkeit abzulenken, indem sie sagt, sie sei zuversichtlich, dass „wir über die richtigen Instrumente verfügen, um einen sicheren, zuverlässigen und effizienten Betrieb des Systems zu gewährleisten“.
Das mag diesen Sommer vielleicht zutreffen, aber ihr Werkzeugkasten wird in fünf Jahren sicherlich nicht mehr viel nützen. Leider ist NESO nicht unabhängig, befindet es sich doch in staatlichem Besitz und wird direkt vom DESNZ kontrolliert.
Ein wirklich unabhängiger Netzbetreiber würde angesichts der drohenden, uns bevorstehenden Katastrophe sicherlich schon jetzt Alarm schlagen.
Link: https://wattsupwiththat.com/2026/04/15/how-do-we-turn-the-sun-off/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Wie schalten wir die Sonne ab? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Energy Dominance 2.0: LNG Edition, Teil Zwei
WUWT, Gastbeitrag „Wenn du es baust, wird es kommen“ von David Middleton
[Der Beitrag beschreibt die in der Erde vorhandenen Ressourcen an Erdags, aus der Sicht eines Geologen. Dieses ist nicht meine Expertise, aber ich habe mir Mühe gegeben, es so gut wie möglich ins Deutsche zu übersetzen – A. Demmig]
Der überwiegende Teil (85%) der im Jahr 2025 errichteten Pipelinekapazität wird dazu dienen, Erdgas aus Haynesville zu den LNG-Exportterminals an der Golfküste zu transportieren.
- Februar 2026
Datenquelle: US Energy Information Administration, US Natural Gas Pipeline Projects Tracker
Hinweis: Die Regionen basieren auf den Erdgasspeicherregionen der EIA , wobei die Ostregion in die Regionen Nordost und Südost unterteilt ist.
Nach unserem kürzlich aktualisierten Erdgasleitungsprojekt-Tracker erhöhten die im Jahr 2025 in den USA fertiggestellten Erdgasleitungsprojekte die Kapazität um rund 6,3 Milliarden Kubikfuß pro Tag (Bcf/d). [~ 1,78,4 Mio m³/d] Ein erheblicher Teil dieser neuen Kapazität, nämlich 85 % bzw. 5,3 Bcf/d, ist für die Erdgasversorgung der südlichen Zentralregion der USA vorgesehen. Diese Region umfasst die Golfküste, wo ein Großteil des wachsenden Erdgasbedarfs des Landes, insbesondere von Flüssigerdgas (LNG), konzentriert ist. Die neuen Kapazitäten verbinden vorwiegend neue und bestehende Versorgungsquellen mit den Verbrauchern in der Region.
Etwa 65 % der gesamten im Jahr 2025 neu errichteten Pipelinekapazität entfallen auf innerstaatliche Pipelines. Damit setzt sich der jüngste Trend fort , dass der Ausbau innerstaatlicher Pipelines den Ausbau überregionaler Pipelinekapazitäten übertrifft. Diese Pipelines verlaufen hauptsächlich innerhalb der Staatsgrenzen und unterliegen daher nicht der Zuständigkeit der Federal Energy Regulatory Commission (FERC).
Die 2025 neu errichteten innerstaatlichen Kapazitäten dienen größtenteils als Sammelsysteme, die für den Transport von Erdgas von den Förderstätten in das überregionale Fernleitungsnetz unerlässlich sind. Zwei solcher Projekte, die 2025 abgeschlossen wurden, erweiterten die Pipelinekapazität um insgesamt 3,5 Milliarden Kubikfuß pro Tag (Bcf/d), um die Erdgasförderung aus der Haynesville-Formation mit dem Gillis Hub im Südosten Louisianas zu verbinden. Das Projekt „Louisiana Energy Gateway“ fügte 1,8 Bcf/d und das Gassammelsystem der neuen Generation 1,7 Bcf/d hinzu. Beide waren ab Oktober 2025 in Betrieb.
Darüber hinaus erweiterten drei Großprojekte die Erdgasleitungskapazität für die Versorgung wachsender Bedarfszentren an der Golfküste um insgesamt 1,8 Milliarden Kubikfuß pro Tag (Bcf/d). Das Evangeline-Pass-Erweiterungsprojekt fügte 1,1 Bcf/d hinzu, das East Lateral Xpress-Projekt 0,3 Bcf/d. Diese beiden Projekte liefern Erdgas direkt an Plaquemines LNG , das seine erste Ladung im Jahr 2025 verschiffte . Das Texas-Louisiana-Pathway-Projekt erhöhte die Fernleitungskapazität von Texas bis nach Ost-Louisiana um 0,4 Bcf/d.
Datenquelle: US-Energieinformationsbehörde (EIA)
Hinweis: LNG = Flüssigerdgas
Bewertung
https://www.eia.gov/todayinenergy/detail.php?id=67225
Hauptmitwirkende: Katie Dyl, Trinity Manning-Pickett, Laia Munoz-Cortijo
Haynesville wird Prognosen zufolge in den nächsten zwei Jahren das Wachstum der US-Schiefergasförderung anführen.
-
- Von Alton Wallace | The Center Square
- 19. Februar 2026
(The Center Square) – Die heimische Erdgasproduktion dürfte in den nächsten zwei Jahren um durchschnittlich 4,0 Milliarden Kubikfuß pro Tag bzw. 3,4 % auf 122,3 Milliarden Kubikfuß pro Tag steigen, wobei mehr als zwei Drittel der zusätzlichen Fördermenge in der Haynesville-Schieferregion im Nordwesten von Louisiana und im Nordosten von Texas produziert werden.
Laut der aktualisierten Prognose des US-Energieministeriums vom Februar wird die höhere Gasproduktion bis Ende 2027 vor allem durch die steigende Nachfrage nach Brennstoffen für den Betrieb von Rechenzentren in den USA und durch die Exporte von verflüssigtem Erdgas aus Terminals in Louisiana und Texas getrieben werden.
[…]
https://www.thecentersquare.com/national/article_a06157db-82b2-4eda-9b4c-f98904ee8024.html – Länderschranke
Energie Förder-Prognose https://www.eia.gov/outlooks/steo/data/browserhttps://www.eia.gov/outlooks/steo/data/browser/#/?v=15&f=A&s=0&start=2009&end=2027&ctype=linechart&maptype=0&linechart=~NGMPHA&map=&id=jjj
Das Haynesville-Gebiet wurde oft von den Permian Basin- und Appalachian-Gebieten (Marcellus & Utica) überschattet.
Der folgende Text stammt aus diesem Beitrag vom April 2022: Haynesville-Schiefer: Rekord-Erdgasproduktion
Unentdecktes Ressourcenpotenzial
Die jüngste Bewertung des USGS beziffert das ungehobene Ressourcenpotenzial des Haynesville-Schiefers (hervorgehoben) auf fast 300 Billionen Kubikfuß ( ca. 10 Jahre des gesamten US-Erdgasverbrauchs ).
Bewertung ungehobener Öl- und Gasvorkommen in der Haynesville-Formation, US-Golfküste, 2016. ( USGS )
Die Haynesville-Schiefergasvorkommen sind die schraffierten und gepunkteten Bereiche auf der untenstehenden Karte…
Bewertung ungehobener Öl- und Gasvorkommen in der Haynesville-Formation, US-Golfküste, 2016. ( USGS )
Die vielen Vorteile eines katastrophalen Meeresspiegelanstiegs
Der Haynesville-Schiefer, auch als „unterer Bossier“ bezeichnet, ist das Beckenäquivalent des Cotton-Valley-Kalks und der Riffspitzen in Osttexas, die während der Transgressionsphase des SS2 abgelagert wurden. Diese Riffspitzen bildeten sich als Reaktion auf den steigenden Meeresspiegel, als sie auf die Karbonate der Haynesville-Rampe zurückdrängten. Die Karbonate konnten mit dem steigenden Meeresspiegel Schritt halten, bis sie von der feinkörnigen, sedimentdominierten Transgression überspült wurden. Die Oberkante des Haynesville-Schiefers markiert die maximale Überflutungsfläche , was sich in der maximalen marinen Überflutung des Schelfs zeigt (z. B. Goldhammer, 1998). Die Bossier-Schiefer (sogenannter „oberer Bossier“) sind charakteristisch für den Hochstand des SS2 und spiegeln eine Umkehr des Meeresspiegels sowie einen verstärkten Einfluss siliziklastischer Sedimente wider.
Eine marine Transgression (katastrophaler Meeresspiegelanstieg) vor etwa 150 Millionen Jahren führte zur Ablagerung des Haynesville-Schiefers sowie zum Fangmechanismus für den Haynesville-Schiefer und die stratigraphisch äquivalenten Cotton Valley Lime-Pinnacle-Riff-Lagerstätten.
Stratigraphische Säule von Haynesville. Ramirez et al., 2011 ; Galloway, 2008.
Isopachenkarte (Isopache ist in den Geowissenschaften eine Linie gleicher Mächtigkeit einer geologischen Schicht in einer Kartendarstellung Quelle: Wikipedia) des Haynesville/Bossier-Schiefers. Ramirez et al., 2011
Die Kohlenwasserstoffe im Haynesville Shale und Cotton Valley Lime stammen aus den Smackover- und Haynesville-Formationen.
Tonsteine innerhalb der oberjurassischen Smackover- und Haynesville-Formationen sind Quellen für Öl und Gas in sowohl konventionellen (Montgomery, 1993a, 1993b; Mancini et al., 2006) als auch kontinuierlichen Lagerstätten (Hammes et al., 2011; Cicero und Steinhoff, 2013) in einem Großteil des Untersuchungsgebiets.
Bewertung nicht abgebauter Öl- und Gasvorkommen in der Haynesville-Formation, US-Golfküste, 2016. ( USGS )
Die Smackover-Formation ist wahrscheinlich das ergiebigste Erdölmuttergestein in der Golfküstenregion/im Golf von Mexiko. Je nach Ablagerungsmilieu ist die Smackover-Formation ebenfalls ein ergiebiges Erdöl- und Erdgasvorkommen und bildet die Deckschicht für die produktive Norphlet-Formation . Die Haynesville-Formation befindet sich im untenstehenden Diagramm zwischen der Bossier- und der Smackover-Formation.
Von links nach rechts: Generalisierter Querschnitt entlang der nördlichen Golf- von-Afrika-Region ( GOM/ GOA) (Galloway et al., 2009), die Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO₂ (Berner & Kothavala, 2001) und Temperaturanomalien (Royer et al., 2004). Klicken Sie hier für das Bild . Die Haynesville-Formation liegt zwischen der Bossier- und der Smackover-Formation östlich des Cotton Valley.
Die nächsten vier Abbildungen stammen von Cicero & Steinhoff, 2013 und zeigen die Sequenzstratigraphie und die Ablagerungsmilieus der Haynesville- und Bossier-Schiefer.
Karte der im Rahmen der Studie verwendeten Bohrungen, seismischen Untersuchungen und Querschnitte.
Querschnitt B-B‘. Westen ist links. Die Kurve rechts stellt den Meeresspiegel dar; ein steigender Meeresspiegel verläuft nach links.
Dies ist das interpretierte seismische Profil A-A‘, das von Norden (links) nach Süden (rechts) verläuft, knapp westlich der Staatsgrenze zwischen Texas und Louisiana.
Abbildung 3b. Integrierte seismische und Sequenzstratigraphie der einfallenden seismischen Linie A-A‘. Supersequenzgrenzen sind rot (SSB), Sequenzgrenzen höherer Ordnung (3. und höher) gestrichelt schwarz (SB), maximale Überflutungsflächen (mfs) grün und zu Supersequenzen gehörende Transgressionsflächen (TS) blau dargestellt. Onlap und Downlap sind durch Pfeile gekennzeichnet. Gestrichelte vertikale Linien deuten auf ungefähre Verwerfungen im Grundgebirge hin. Modifiziert nach Cicero et al. (2010).
Nachfolgend eine Karte des Ablagerungsmilieus (Paläogeographie) des Bossier-Schiefers (vor etwa 150 Millionen Jahren):
„Hast du die Geschichte schon verstanden?“
Versteht ihr die Geschichte schon? Sie ist im Grunde schon da.
In einer Sprache, die ihr noch nicht versteht, aber sie ist da.
Eine Geschichte von Umbrüchen, gewonnenen und verlorenen Schlachten.
Schauergeschichten von tiefgreifenden Veränderungen, friedlichen Zeiten und dann wieder großem Leid.
Und alles hängt mit unserem kleinen Freund zusammen.
Das sind wir, wir Geologen.
Geschichtenerzähler.
Genauer gesagt: Dolmetscher.
Genau das werdet ihr, meine Herren, einmal werden.
Und was hat das mit dem Mond zu tun? Aus 386.000 Kilometern Entfernung müsst ihr die umfassendste Beschreibung dessen liefern, was ihr seht.
Nicht nur, welche Gesteine ihr mitnehmen wollt, sondern auch ihren Kontext.
Das und zu wissen, welche ihr überhaupt aufheben solltet, unterscheidet euch vielleicht von diesen kleinen Robotern.
Ihr wisst schon, von denen manche verbitterten Seelen meinen, sie sollten euren Job machen.
Ihr müsst unsere Augen und Ohren da draußen werden.
Und dafür müsst ihr zuerst die Sprache dieses kleinen Steins hier lernen.
–David Clennon als Dr. Leon (Lee) Silver, Von der Erde zum Mond , Folge 10, Galileo hatte Recht , 1998
Die HBO- Miniserie „ From the Earth to the Moon“ aus dem Jahr 1998 war eine Art Fortsetzung des großartigen Films „Apollo 13 “ … Ein absolutes Muss für alle Raumfahrtbegeisterten. Mir gefällt diese Folge besonders gut, weil mein Interesse an der Raumfahrt in meiner Kindheit mich zu den Naturwissenschaften und schließlich zur Geologie geführt hat. Der spätere Apollo-17-Astronaut Harrison „Jack“ Schmitt rekrutierte seinen ehemaligen Professor für Feldgeologie, um das Team der Apollo-15-Mondlandefähre und deren Ersatzmannschaft zu Feldgeologen auszubilden. Das erinnert mich daran, warum ich die Geologie so liebe. Ich hatte außerdem die große Ehre, Dr. Schmitt 2011 auf der Tagung der American Association of Petroleum Geologists in Houston persönlich kennenzulernen. Jemandem die Hand zu schütteln, der nicht nur auf dem Mond war, sondern auch einen Geologenhammer weiter geworfen hat als je ein Geologe zuvor oder danach, war einfach unglaublich cool … Und die Geologie ist es auch!
Referenzen
Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.
Cicero, Andrea D. and Ingo Steinhoff, 2013, Sequence stratigraphy and depositional environments of the Haynesville and Bossier Shales, East Texas and North Louisiana, in U. Hammes and J. Gale, eds., Geology of the Haynesville Gas Shale in East Texas and West Louisiana, U.S.A.: AAPG Memoir 105, p. 25–46.
Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.
Galloway, William E., et al. “Gulf of Mexico.” GEO ExPro, 2009, www.geoexpro.com/articles/2009/03/gulf-of-mexico.
Hammes, Ursula and Ray Eastwood, Harry Rowe, Robert Reed. (2009). Addressing Conventional Parameters in Unconventional Shale-Gas Systems: Depositional Environment, Petrography, Geochemistry, and Petrophysics of the Haynesville Shale. 10.5724/gcs.09.29.0181.
Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.
Ramirez, Thaimar, James Klein, Ron Bonnie, James Howard. (2011). Comparative Study of Formation Evaluation Methods for Unconventional Shale Gas Reservoirs: Application to the Haynesville Shale (Texas). Society of Petroleum Engineers – SPE Americas Unconventional Gas Conference 2011, UGC 2011. 10.2118/144062-MS.
https://wattsupwiththat.com/2026/02/28/energy-dominance-2-0-lng-edition-part-deux/
Der Beitrag Energy Dominance 2.0: LNG Edition, Teil Zwei erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Indien hilft den USA bei der Beseitigung der „grünen“ Trümmer
Vijay Jayaraj
Zum ersten Mal seit einem halben Jahrhundert wird in den Vereinigten Staaten eine brandneue Ölraffinerie gebaut. Diese Anlage im Hafen von Brownsville verspricht, die heimischen Märkte anzukurbeln, die nationale Sicherheit zu gewährleisten und ein lokales Wirtschaftswachstum in Milliardenhöhe auszulösen.
Präsident Donald Trumps Raffinerie-Meisterstück mit Indiens Reliance Industries ist mehr als nur ein Handelsabkommen; es ist eine politische und moralische Zurechtweisung des Krieges des Klima-Industriekomplexes gegen bezahlbare Energie. Und es war möglich, weil asiatische Energieriesen sich weigerten, sich dem Klimaalarmismus zu beugen, als politische Eliten bei den Vereinten Nationen und anderswo versuchten, ihre Geschäfte zu unterbinden.
Warum eine Raffinerie jetzt?Um zu verstehen, warum Amerika einen indischen Mischkonzern braucht, um seine erste Raffinerie seit 50 Jahren zu bauen, muss man sich den desolaten Zustand der Energie-Infrastruktur im Westen vor Augen führen.
[Hervorhebung vom Übersetzer]
In den Vereinigten Staaten sind etwa 132 Raffinerien in Betrieb, die täglich 18 Millionen Barrel verarbeiten können. Das Problem liegt in ihrer Konstruktion. Ingenieure bauten diese Anlagen vor Jahrzehnten, um schweres, saures Rohöl zu verarbeiten, importiert aus Ländern wie Venezuela oder Kanada. Sie sind völlig ungeeignet für die riesigen Mengen an leichtem, süßem Rohöl, die derzeit aus amerikanischen Schieferformationen sprudeln.
Die Fracking-Revolution verschaffte den Vereinigten Staaten eine mächtige geopolitische Waffe: unerschöpfliche Vorkommen an leichtem Schieferöl. Doch Umweltklagen und Klima-Panikmache verhinderten den Bau der für dessen Verarbeitung erforderlichen Anlagen. Das Brownsville-Projekt beseitigt diesen Engpass.
Trey Griggs von America First Refining bezeichnet es als „eines der wichtigsten Energieinfrastrukturprojekte im heutigen Amerika“. Die Planer gehen davon aus, dass an diesem Standort 1,2 Milliarden Barrel Leichtöl aus Schiefergestein im Wert von 125 Milliarden Dollar verarbeitet werden. Mit einer Jahreskapazität von 60 Millionen Barrel wird die Anlage einen Tiefwasserhafen nutzen, um den weltweiten Exportvertrieb zu dominieren.
Warum gerade dieses Unternehmen?Die Wahl von Reliance Industries für diese historische Aufgabe ist die klügste Entscheidung, welche die Regierung treffen konnte. Reliance hat sich den Forderungen der Vereinten Nationen nach einem Ausstieg aus fossilen Brennstoffen nicht gebeugt. Das Unternehmen hat die Panikmache ignoriert. Stattdessen hat es sich dafür entschieden, eine fortschrittliche Energieinfrastruktur aufzubauen.
Reliance betreibt den Raffineriekomplex Jamnagar in Gujarat an der Westküste Indiens. Jamnagar ist ein Super-Standort, der an einem einzigen Standort bis zu 1,4 Millionen Barrel Rohöl pro Tag verarbeitet, und damit das größte Raffineriezentrum der Welt an einem einzigen Standort.
Der Nelson-Komplexitätsindex von Jamnagar – ein Maß für die Fähigkeit, Rohöl minderer Qualität in hochwertige Produkte umzuwandeln – stuft die Raffinerie weit höher als die meisten hochmodernen Anlagen in Nordamerika und Europa ein.
In der Praxis bedeutet dies, dass Reliance über 200 verschiedene Rohölsorten beziehen kann, darunter auch minderwertige Sorten, die viele westliche Anlagen nicht verarbeiten können, und diese in schwefelarmes Benzin, Diesel, Düsentreibstoff und petrochemische Ausgangsstoffe umwandeln kann.
Wenn Trump also sagt, die Anlage in Brownsville werde die „sauberste Raffinerie der Welt“ sein und sowohl den weltweiten Export als auch den heimischen Markt versorgen, stützt er sich dabei auf eine jahrzehntelange Erfolgsbilanz der indischen Küstenraffinerien.
Die US-Regierung importiert keine abstrakte „Kapazität“ aus Indien, sondern jahrzehntelanges Know-how, das in einer politischen Kultur entstanden ist, in der Kohlenwasserstoffe nicht verteufelt wurden.
Für ein Kohlenwasserstoff-ÖkosystemWährend ein Großteil Westeuropas fossile Brennstoffe als ein Übel der Übergangsphase betrachtet, das so schnell wie möglich eingeschränkt werden muss, geht die Partnerschaft zwischen den USA und Indien in die entgegengesetzte Richtung. Sowohl Indien als auch die derzeitige US-Regierung haben sich für eine Politik entschieden, die als energie- und bevölkerungsfreundlich bezeichnet werden kann, anstatt Interessengruppen nachzugeben, die Kohlenwasserstoffe als moralischen Makel betrachten.
Präsident Trump hat seine Agenda als „America First“-Energiedominanz formuliert und verbindet Steuer- und Genehmigungsreformen mit ausdrücklicher politischer Unterstützung für Öl, Gas und Kohle – von der Bohrung über Pipelines bis hin zu Raffinerien.
Die indische Regierung hat ihrerseits verbindliche Zeitpläne für die Netto-Null-Emissionsziele abgelehnt und räumt zuverlässigen Energiequellen, industriellem Wachstum und der Schaffung von Arbeitsplätzen weiterhin Vorrang vor symbolischen Emissionszielen ein. Premierminister Narendra Modi feierte kürzlich einen bedeutenden nationalen Meilenstein und bezeichnete die Förderung von 1 Milliarde Tonnen Kohle als einen Moment, auf den das Land zutiefst stolz sein könne. Analysten gehen davon aus, dass Indiens jährliche Kohleförderung um 6 bis 7 % steigen wird.
Dieses offene Ökosystem – in dem Öl- und Gasprojekte vorangetrieben werden können und Kohle weiterhin Teil des Energiemix‘ bleibt – hat es regionalen Marktführern wie Reliance ermöglicht, ihre Kompetenzen in den Bereichen komplexe Raffinerietechnik, Logistik und die Umsetzung groß angelegter Projekte zu verfeinern.
Da Asien sich weigert, der Klimapanikmache nachzugeben, können westliche Länder nun Partnerschaften mit asiatischen Unternehmen eingehen, um ihre Energie- und Produktionskraft wieder aufzubauen, die durch eine Politik untergraben wurde, die den tatsächlichen Gegebenheiten nicht gerecht wird.
This commentary was first published at PJ Media on 31 March 2026.
Vijay JayarajVijay Jayaraj is a Science and Research Associate at the CO2 Coalition, Fairfax, Virginia. He holds an M.S. in environmental sciences from the University of East Anglia and a postgraduate degree in energy management from Robert Gordon University, both in the U.K., and a bachelor’s in engineering from Anna University, India. He served as a research associate with the Changing Oceans Research Unit at University of British Columbia, Canada.
Link: https://clintel.org/india-helps-us-repair-green-wreckage/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Indien hilft den USA bei der Beseitigung der „grünen“ Trümmer erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Woher kommt der Strom? markante mehrtägige Niedrigpreisphase
Die aktuellen Analysewoche, die Osterwoche wartet mit der ersten markanten, mehrtägigen Strom- Niedrigpreisphase – zum Teil ganztägig – auf, die erst Ostermontag nach Sonnenuntergang endet. Das bedeutet nicht, dass es danach über die Mittagsspitzen keine Negativpreise mehr gäbe. Im Gegenteil. Preise aber um die Null-€-Linie und geringer gibt es Tag und auch zur Nacht nur an regenerativ starken und bedarfsarmen Feiertagen. Wie zum Osterwochenende. Das war eine Hochzeit des deutschen Stromexports für die europäischen Nachbarn und alle anderen Player (Stromspeicherbesitzer), die den Strom günstig bis sehr günstig mit Bonus (Negativpreise) „einkaufen“, um ihn zu geeigneten Zeitpunkten (Hochpreisphasen am Morgen, am Vorabend) zu verkaufen. Achtung: Es ist selbstverständlich niemals derselbe Strom, dieselbe elektrische Energie, wie sie eingekauft wurde.
Wie funktioniert das Prinzip des „Strom-Gelddruckens“?
Ein Land, dem Stromspeicher (zum Beispiel Pumpspeicherkraftwerke) zur Verfügung stehen, lädt diese mit dem günstig eingekauften Strom aus Deutschland auf. Wird der Strompreis verkaufsrelevant, geht der Strompreis also in die Höhe, benötigt Deutschland dringend Strom, dann wird dieser entsprechend hochpreisig an den großen Nachbarn in der Mitte Europas verkauft.
Doch auch Länder ohne – genügend – Speicherplatz, Beispiel Norwegen, können von der Preisdifferenz profitieren. Dass über Ostern in Deutschland nur geringer Bedarf, aber regenerativ starkes Wetter sein wird, wussten alle, die mit Strom handeln, vorher. Dementsprechend wurde die steuerbare Stromerzeugung (Norwegens Wasserkraftwerke) heruntergefahren und durch den geschenkten Strom aus Deutschland ersetzt. Später, aber oft noch am gleichen Tag, wird mit der eigenen Stromerzeugung der Stromexport nach Deutschland bewerkstelligt. Ergebnis unter dem Strich für alle: Sehr gute Gewinne.
Einen Überblick über die wichtigsten Aspekte der 14. Analysewoche 2026 gibt Agora Energiewende. Agora Energiewende erstellt auch Prognosen, wie die Stromerzeugung aussehen würde, wenn die Erneuerbaren einen bestimmten Ausbaugrad erreicht hätten. Wir nehmen wie bereits oben für den Montag den Ausbaugrad 86 Prozent und müssen feststellen, dass der weitere Ausbau nur zu einer massiven Stromüberzeugung über die Mittagsspitze mit negativen Preisen führen wird.
- Lesen Sie meinen aktuellen Artikel „Windparks und ihre Tücken“, der in bei der online bei der Jungen Freiheit ist.
- Beachten Sie bitte Peter Hagers Zusammenstellung der KFZ-Zulassungszahlen März 2026 nach den Tagesanalysen.
Was ist Kraftwerks-Leistung? Was ist Energie?
Gigawatt (GW) ist eine Einheit für Leistung, also für die maximale Fähigkeit eines Kraftwerks, Strom zu erzeugen. Gigawattstunden (GWh, TWh) sind eine Einheit für Energie, also für die tatsächlich produzierte Strommenge über eine bestimmte Zeit. Die Beziehung ist einfach: Energie = Leistung × Zeit. Ein Kraftwerk mit 1 GW Leistung erzeugt bei Volllast theoretisch maximal: 1 GW × 8.760 h = 8,76 TWh pro Jahr. Wie viel elektrische Energie tatsächlich entsteht, bestimmt beim Kohle-, Gas- oder Kernkraftwerk im weitesten Sinn der Mensch über die Brennstoffzufuhr und Zufuhrdauer. Die Energie für eine Stunde wird üblicher- und für den Normalbetrachter irreführenderweise mit GW bezeichnet. Die manchmal verwendete Schreibweise „GWh pro Stunde“ ist nur eine umständliche Form von GW – mathematisch kürzt sich die Stunde („h“ und „pro Stunde“) weg.
Sonderfall Wind- und Solarkraft
Bei Wind- und Solarkraft bestimmt nicht der Betreiber, sondern das Wetter die Strom-Produktion. Eine 5-MW-Windkraftanlage könnte theoretisch 43,8 GWh/Jahr erzeugen, liefert an Land aber realistisch in Deutschland nur etwa 20 Prozent davon (auf See 40 bis 50 Prozent), also rund 8,8 GWh/Jahr – im Mittel 1 MW-Dauerenergie. Bei Solarpaneelen mit ebenfalls 5 MW installierter Leistung halbieren sich die Werte nochmals wegen verschiedener Kapazitätsfaktoren: Nacht, Winter, flacher Sonnenstand, Bewölkung und Temperaturverluste.
Tageswerte
Jeder Tag beginnt mit dem Überblick, den Agora-Energiewende zur Verfügung stellt. Die smard.de-Charts und -Tabellen ermöglichen vielfältige Analysen. Erkunden Sie das Potenzial.
Die regenerative Stromerzeugung sinkt tendenziell. Die Strompreise.
Die Windstromerzeugung nimmt weiter ab. PV-Strom wächst. Weniger PV-Strom. Die Strompreise.
Komplette Windflaute. PV-Stromerzeugung weiter frühlingshaft. Die Strompreise.
Windstrom weiterhin sehr gering. Starke PV-Stromerzeugung. Die Strompreise.
Wenig Bedarf. Zum Abend starker Windstromanstieg. Viel PV-Strom. Die Strompreise.
Wenig Bedarf. Starke Winddelle zum Abend. PV-Strom weiter stark. Die Strompreise.
Erneute Winddelle über Tag, aber auf hohem Niveau während der Mittagsspitze. Die Strompreise.
PKW-Neuzulassungen März 2026: E-Autos (BEV) wachsen stark – Tesla ist mit dabei
Zusammengestellt von Peter Hager
Die 294.161 PKW-Neuzulassungen im März 2026 bedeutet ein deutliches Plus von 16 % gegenüber dem Vorjahresmonat.
Von den 345.523 PKW-Neuzulassungen im Vor-Corona-Jahr 2019 ist man immer noch ein gutes Stück entfernt. Noch deutlicher ist der Unterschied beim Vergleich des 1. Quartals 2019 (880.092) mit dem 1. Quartal 2026 (699.404).
Selbst wenn die aktuellen Werte wohlwollend betrachtet werden. Das ist kein Durchbruch der Verkehrswende, das ist ein Armutszeugnis, allein, wenn man die Unterstützung durch die Förderung und die „Hilfe“ durch die hohen Spritpreise betrachtet. Der Verbrenner dominiert noch immer. Hybridfahrzeuge sind unter dem Strich eben auch Verbrenner. Nicht mal ein Viertel reine Elektrofahrzeuge wurde neu zugelassen. Allein Benziner und Diesel bringen da schon mehr Gewicht auf die Neuzulassungswaage.
Antriebsarten
- Benzin: 66.959 (- 4,9 % ggü. 03/2025 / Zulassungsanteil: 22,8 %)
- Diesel: 37.664 (- 0,6 % ggü. 03/2025 / Zulassungsanteil: 12,8 %)
- Hybrid (ohne Plug-in): 87.850 (+ 17,4 % ggü. 03/2025 / Zulassungsanteil: 29,9 % / mit Benzinmotor: 71.363 /mit Dieselmotor: 15.968)
- Plug-in-Hybrid: 29.996 (+ 13,0 % ggü. 03/2025 / Zulassungsanteil: 10,2 % / mit Benzinmotor: 28.304 /mit Dieselmotor: 1.692)
- Elektro (BEV): 70.663 (+ 66,2 % ggü. 03/2025 / Zulassungsanteil: 24,0 %)
Die beliebtesten zehn E-Modelle in 03/2026
- Tesla Model Y (SUV): 6.841
- Skoda Elroq (SUV): 3.872
- Skoda Enyaq (SUV): 3.392
- VW ID 3 (Kompaktklasse): 3.298
- VW ID 7 (Obere Mittelklasse): 3.039
- VW ID 4/5 (SUV): 2.554
- Tesla Model 3 (Mittelklasse): 2.359
- Mercedes CLA (Mittelklasse): 2.221
- Audi A6 (Obere Mittelklasse): 2.208
- Seat Tavascan (SUV): 1.936
Zusätzlich: Mehr als 1.000 Neuzulassungen
- Audi Q6 (SUV), Audi Q4 (SUV)
- BMW X1 (SUV), BMW X3 (Geländewagen), BMW 4er (Mittelklasse), BMW 5er (obere Mittelklasse)
- Citroen C3 (Kleinwagen)
- Hyundai Inster (Kleinwagen)
- Mini (Kleinwagen)
- Seat Born (Kompaktklasse)
Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.
Ab Ausgabe 1/2026 bilden die öffentlichen Analyseseiten smard.de, Agora Energiewende und Energy-Charts die Datengrundlage dieser Kolumne. Stromdaten.info läuft aus.
Der Beitrag Woher kommt der Strom? markante mehrtägige Niedrigpreisphase erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Bixonimania: Wie KI eine Scherzdiagnose in „begutachtete“ Medizin verwandelte
Schwedische Forscher erfanden eine fiktive Augenkrankheit, um zu testen, ob KI-Chatbots diese so wiedergeben würden, als wäre sie echt. Die Ergebnisse waren alles andere als lustig.
Geposted von Leslie Eastman, Legal Insurrection
Im Folgenden geht es zwar um Medizin und Gesundheit, aber es könnte stellvertretend für das stehen, was bei den Themen Klima und Energie gemacht wird. – Hier noch einmal deutlicher das Eingangsbild. A. d. Übers.
Ende letzten Jahres habe ich vor dem erschreckenden Ausmaß an ungehemmtem wissenschaftlichem Betrug gewarnt, der über „Paper Mills“ und Scheinjournalen veröffentlicht wird.
Dieser Trend ist besonders besorgniserregend, da die Einhaltung wissenschaftlicher Theorien und strenger, reproduzierbarer Forschungsmethoden es der Menschheit ermöglicht, Fortschritte in entscheidenden Bereichen zu erzielen, die für ein zivilisiertes Leben unerlässlich sind (z. B. Medizin, Energie, öffentliche Gesundheit und nationale Sicherheit). Wenn wir den Daten nicht mehr vertrauen können, wird unsere Fähigkeit erheblich beeinträchtigt, Verbesserungen und Innovationen zu erzielen.
Das Vertrauen der Öffentlichkeit in die wissenschaftliche Forschung schwindet bereits, und falsche, als „vertrauenswürdig“ präsentierte Erkenntnisse haben die Politikgestaltung bereits auf kostspielige und schädliche Weise beeinflusst.
Nein, die rasante Verbreitung künstlicher Intelligenz fügt der zunehmenden Verzerrung der „Wissenschaft“ einen weiteren beunruhigenden Aspekt hinzu.
Bereits im Jahr 2024 erfanden Forscher eine fiktive Augenkrankheit namens „Bixonimanie“, um zu testen, ob KI-Chatbots diese so wiedergeben würden, als wäre sie real.
Sie verfassten offensichtlich gefälschte Forschungsarbeiten über diese erfundene Erkrankung und stellten sie online, wobei sie Hinweise wie einen falschen Autor und Anmerkungen einfügten, aus denen hervorging, dass es sich um eine Erfindung handelte. Innerhalb weniger Wochen begannen große Chatbots, Bixonimanie als echte Diagnose zu beschreiben und gaben den Nutzern sogar Ratschläge dazu, wenn diese nach Augensymptomen fragten.
Es handelt sich um eine Erfindung eines Teams unter der Leitung von Almira Osmanovic Thunström, einer medizinischen Forscherin an der Universität Göteborg in Schweden, die sich diese Hauterkrankung ausgedacht und Anfang 2024 zwei gefälschte Studien dazu auf einen Preprint-Server hochgeladen hat. Osmanovic Thunström führte dieses ungewöhnliche Experiment durch, um zu testen, ob große Sprachmodelle (LLMs) die Falschinformationen schlucken und sie anschließend als seriöse Gesundheitsempfehlungen wieder ausspucken würden. „Ich wollte sehen, ob ich eine Krankheit erfinden kann, die in der Datenbank nicht existiert“, sagt sie.
Das Problem war, dass das Experiment nur zu gut funktionierte. Nur wenige Wochen, nachdem sie Informationen über die Krankheit hochgeladen hatte, die sie einem fiktiven Autor zugeschrieben hatte, begannen große KI-Systeme, die erfundene Krankheit so zu wiederholen, als wäre sie real.
Noch beunruhigender ist laut anderen Forschern, dass die gefälschten Artikel anschließend in begutachteten Fachpublikationen zitiert wurden. Osmanovic Thunström sagt, dies deute darauf hin, dass sich manche Forscher auf von KI generierte Literaturangaben verlassen, ohne die zugrunde liegenden Artikel zu lesen.
Die Vorabdrucke enthielten einen Verweis auf die nicht existierende Asteria Horizon University in „Nova City, Kalifornien“. Außerdem wurde die „Starfleet Academy“ erwähnt (wobei ein zusätzlicher Verweis auf Dr. Leonard McCoy eine nette Geste gewesen wäre).
Der KI-Chatbot antwortet, dass die autoritative Beschreibung der Bixonimanie echt war.
Am 13. April 2024 erklärte Microsoft Bings Copilot, dass „Bixonimanie in der Tat eine faszinierende und relativ seltene Erkrankung ist“, und am gleichen Tag informierte Googles Gemini die Nutzer darüber, dass „Bixonimanie eine Erkrankung ist, die durch übermäßige Blaulichtbelastung verursacht wird“, und riet den Menschen, einen Augenarzt aufzusuchen.
Am 27. April 2024 gab Perplexity KI die Prävalenz an – einer von 90.000 Menschen sei betroffen – und im selben Monat teilte OpenAIs ChatGPT den Nutzern mit, ob ihre Symptome auf Bixonimanie hindeuteten. Einige dieser Antworten wurden durch Fragen nach Bixonimanie ausgelöst, andere waren Antworten auf Fragen zur Hyperpigmentierung der Augenlider durch Blaulichtbelastung.
Ein Forscher erfand eine fiktive Augenerkrankung namens Bixonimanie, lud zwei offensichtlich gefälschte Artikel darüber auf einen akademischen Server hoch und beobachtete, wie große KI-Systeme diese innerhalb weniger Wochen als echte Medizin präsentierten.
Die gefälschten Artikel bedankten sich bei der Starfleet Academy und verwiesen auf eine Finanzierung durch die…
— Hedgie (@HedgieMarkets) April 10, 2026
Thunströms Experiment macht deutlich, wie wenig Sorgfalt in die „Wissenschaft“ fließt, der wir eigentlich vertrauen sollen, denn ihre eingereichten Beiträge waren voller Warnsignale, die jedem sofort aufgefallen wären, der den Text tatsächlich gelesen hätte. Verweise auf die gefälschte Forschung fanden schließlich ihren Weg in eine „peer-reviewte“ Publikation.
• Drei Forscher des Maharishi Markandeshwar Institute of Medical Sciences and Research in Indien veröffentlichten einen Artikel in „Cureus“, einer von Springer Nature herausgegebenen Fachzeitschrift mit Peer-Review, in dem die „Bixonimania“-Preprints als seriöse Quellen zitiert worden waren.
• Dieser Artikel wurde später zurückgezogen, nachdem der Schwindel aufgedeckt worden war.
Das Problem geht weit über eine einzige erfundene Krankheit hinaus. Der „Health Technology Hazard Report 2026“ des ECRI stellte fest, dass Chatbots bei der Beantwortung medizinischer Fragen falsche Diagnosen gestellt, unnötige Tests empfohlen, minderwertige medizinische Produkte beworben und sogar nicht existierende anatomische Strukturen erfunden haben. All dies geschieht in dem selbstbewussten, autoritären Ton, der KI-Antworten so überzeugend macht.
Das Ausmaß des Risikos ist enorm. Laut einer Analyse von OpenAI nutzen täglich mehr als 40 Millionen Menschen ChatGPT, um sich über Gesundheitsthemen zu informieren. Da steigende Gesundheitskosten und die Schließung von Praxen den Zugang zur medizinischen Versorgung einschränken, werden wahrscheinlich noch mehr Patienten Chatbots als Ersatz für professionelle medizinische Beratung nutzen.
Wenn sich eine scherzhafte Diagnose in „peer-reviewte“ Forschung verwandelt, wird deutlich, dass die Krise der wissenschaftlichen Glaubwürdigkeit sich nicht mehr auf schlampige Forschung oder korrupte Fachzeitschriften beschränkt, sondern sich mittlerweile auch auf die Algorithmen ausweitet, auf die sich viele Menschen heute verlassen, um Antworten auf ernste Gesundheitsfragen zu erhalten.
Falsche Informationen und schlechte Daten können und werden von der KI zurückgespielt werden und die Grundlage für noch nutzlosere und potenziell schädliche „Wissenschaft“ bilden. Diese Situation ist alles andere als lustig.
Ich befürchte, dass es noch eine ganze Weile dauern wird, bis wir Betrugsforschung und die Nutzung gefälschter Informationen durch KI in den Griff bekommen.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Bixonimania: Wie KI eine Scherzdiagnose in „begutachtete“ Medizin verwandelte erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Spannungen in der Straße von Hormus zwingen uns dazu, die materiellen Vorteile fossiler Brennstoffe zu neu zu bewerten
Ronald Stein und Yoshihiro Muronaka
Die „Realität“ im Energiebereich zeigt uns, dass wir Raffinerien brauchen, um Rohöl in nutzbare Kraftstoffe und Produkte für den Verkehr umzuwandeln.
Die jüngsten Forderungen nach einer realistischeren Verlagerung von „Dekarbonisierung“ hin zu „kohlenstoffarm“ deuten darauf hin, dass sich in der öffentlichen Debatte endlich Unbehagen gegenüber einer ideologisch geprägten Klimapolitik bemerkbar macht. Seit Jahren werden Klimadiskussionen in vielen Ländern von abstrakten Zielen, Slogans und numerischen Verpflichtungen dominiert. Doch hinter diesen hehren Idealen verbirgt sich eine tiefgreifendere und praktischere Frage: Haben wir Energie viel zu eng gefasst? Die Spannungen in der Straße von Hormus Anfang 2026 haben diese Frage in den Vordergrund geschoben.
Heutzutage wird Energie unter dem Stichwort „Dekarbonisierung“ oft so behandelt, als sei sie gleichbedeutend mit Strom. Die öffentliche Diskussion konzentriert sich meist darauf, wie Strom ohne CO₂-Emissionen erzeugt werden kann, wie schnell Elektrofahrzeuge herkömmliche Autos ersetzen können oder inwieweit sich erneuerbarer Strom aus Windkraftanlagen und Solaranlagen ausweiten lässt. Das sind wichtige Fragen, aber sie geben nicht das ganze Bild wieder. Aus der Sicht eines Chemieingenieurs bedeutet die Reduzierung der Energiedebatte auf Strom allein, nur die Hälfte der Zivilisation zu sehen.
Fossile Brennstoffe sind nicht nur Vorleistungen für die Stromerzeugung. Sie sind auch unverzichtbare Rohstoffe für die moderne Industriewelt. Neben der Unterstützung von Verkehrssystemen verdanken mehr als 6.000 Produkte, die das tägliche Leben sichern – darunter Kleidung, medizinische Geräte, Düngemittel, Kunststoffe, synthetische Fasern, Baumaterialien, Reinigungsmittel, Verpackungen und unzählige Industriekomponenten – ihre Existenz den materiellen Vorteilen fossiler Brennstoffe. Erdöl und Erdgas werden nicht einfach verbrannt; sie werden in Rohstoffe umgewandelt, aus denen das moderne Leben aufgebaut ist.
Diese Differenzierung ist entscheidend. Wenn Politiker und Aktivisten so tun, als könne das Problem einfach dadurch gelöst werden, dass die Stromerzeugung aus fossilen Brennstoffen durch erneuerbare Energien ersetzt wird, übersehen sie die materielle Grundlage der modernen Zivilisation. Strom allein kann die petrochemischen Ketten nicht ersetzen, die Medizin, Sanitärversorgung, Erzeugung von Lebensmitteln, Logistik, Kommunikationsgeräte, Verkehr und Wohnungsbau stützen. Selbst eine Gesellschaft, der es gelingt, einen Großteil ihres Verkehrs- und Energiesystems zu elektrifizieren, stünde weiterhin vor der Frage, wie sie die immense Bandbreite an Materialien sichern kann, die derzeit aus fossilen Ressourcen gewonnen werden.
Aus diesem Grund verdient die petrochemische Industrie weitaus mehr Aufmerksamkeit als ihr in Klimadiskussionen üblicherweise zuteilwird. Aus fossilen Brennstoffen gewonnene Rohstoffe werden zu petrochemischen Grundstoffen wie Ethylen und Propylen verarbeitet, aus denen wiederum Tausende von Folgeprodukten entstehen. Dieses riesige Netzwerk von Verarbeitungsprozessen stützt nicht nur die Bereiche Bekleidung, Ernährung, Verkehr und Wohnen, sondern auch das medizinische und sanitäre System, von dem die öffentliche Gesundheit abhängt. Es ist in jeder Hinsicht ein fester Bestandteil des Gefüges der modernen Zivilisation.
Sobald wir dies verstanden haben wird klar, dass eine Unterbrechung der Versorgung mit fossilen Brennstoffen weit mehr bedeuten würde als nur höhere Benzinpreise oder vorübergehenden Druck auf die Stromerzeugung. Würden die Lieferungen ernsthaft unterbrochen, würden die Folgen fast jeden Bereich des täglichen Lebens betreffen. Die Kleidung, die wir tragen, die Medikamente, die wir einnehmen, die Smartphones, die wir nutzen, die Düngemittel, welche die Landwirtschaft am Leben erhalten, und sogar die Behälter und Verpackungen, in denen Lebensmittel und medizinische Güter transportiert werden – all dies wäre von Rohstoffengpässen betroffen. Die moderne Welt wird nicht nur von fossilen Brennstoffen angetrieben; sie ist materiell durch sie strukturiert.
Aus diesem Grund sind die jüngsten Spannungen in der Straße von Hormus von so großer Tragweite. Das Problem beschränkt sich nicht auf Geopolitik, den Tankerverkehr oder Schwankungen der Energiepreise. Die Straße von Hormus ist einer der wichtigsten Engpässe im globalen Energiesystem, und die dort herrschende Instabilität macht deutlich, wie verwundbar moderne Gesellschaften nach wie vor sind. Wenn Versorgungswege bedroht sind, steht nicht nur die Energiesicherheit im engeren Sinne auf dem Spiel, sondern auch die Aufrechterhaltung der materiellen Systeme, die das alltägliche Leben sichern.
Im Frühjahr 2026 wurde die Kluft zwischen Ideologie und Realität auf einen Schlag sichtbar. Die Spannungen in der Straße von Hormus sowie die schmerzhafte Erinnerung daran, dass einige Länder wie beispielsweise Japan auf endliche, in Tagen gemessene Vorräte an importierten fossilen Brennstoffen angewiesen sind, waren nicht bloß Statistik.
Sie waren eine Warnung vor der Fragilität des Alltags selbst. Zahlen wie diese mögen trocken und technisch anmuten, doch dahinter verbirgt sich eine einfache Wahrheit: Wenn Lieferketten lange genug unter Druck stehen, werden die Auswirkungen nicht nur auf den Kraftstoffmärkten spürbar sein, sondern auf die gesamte Bandbreite an Gütern, von denen die moderne Gesellschaft abhängt.
Was lange Zeit unter der Rhetorik der Dekarbonisierung verborgen geblieben war, wurde durch die Krise plötzlich ans Licht gebracht. Die „Dichte der Zivilisation“ wurde wieder sichtbar. Damit meine ich das dichte, vernetzte und oft unsichtbare materielle Netzwerk, das das menschliche Wohlergehen stützt: Industriechemie, Fertigung, Transport, Abwasserentsorgung, Kommunikation, Gesundheitswesen, Landwirtschaft und Bauwesen. Dies sind keine nebensächlichen oder optionalen Merkmale des modernen Lebens. Sie sind dessen Substanz. Und diese Krise hat gezeigt, dass mehr als 6.000 für das tägliche Leben unverzichtbare Produkte gleichzeitig gefährdet sein könnten.
Das bedeutet keineswegs, dass Umweltprobleme ignoriert werden sollten oder dass Gesellschaften ihre Bemühungen zur Abfallvermeidung, Effizienzsteigerung und Förderung sauberer Technologien aufgeben sollten. Es bedeutet jedoch, dass die Energiepolitik von einem ehrlicheren Verständnis der Realität ausgehen muss. Eine Zivilisation lässt sich nicht mit Schlagworten aufrechterhalten. Ebenso wenig können politische Entscheidungsträger verantwortungsvoll die Zukunft gestalten, wenn sie so tun, als seien fossile Brennstoffe nichts weiter als ein schmutziges Erbe, das man einfach entsorgen kann. Sie sind auch Teil der materiellen Infrastruktur des Lebens, wie wir es kennen.
Die eigentliche Herausforderung besteht daher nicht darin, diese Abhängigkeit zu leugnen, sondern sie klug zu bewältigen. Eine ausgereifte Energiepolitik sollte nicht auf vereinfachende moralische Reinheit abzielen, sondern auf Widerstandsfähigkeit, Umsicht und Realismus. Sie sollte der Frage nachgehen, wie Gesellschaften ihre Lebensqualität bewahren, stabile Lieferketten aufrechterhalten, unnötigen Abfall reduzieren und begrenzte Ressourcen intelligent nutzen können. Sie sollte auch anerkennen, dass der technologische Wandel Zeit braucht und dass das Erzwingen von Veränderungen ohne Rücksicht auf die materiellen Gegebenheiten zu Engpässen, Instabilität und unnötigem Schaden führen kann.
Sich der Realität zu stellen, ist kein Akt der Resignation. Im Gegenteil, es ist die aufrichtigste und zukunftsorientierteste Vorgehensweise. Es bedeutet, die Spannung zwischen Idealen und praktischer Notwendigkeit anzuerkennen und gleichzeitig weiterhin stetige und verantwortungsvolle Schritte zu unternehmen. Von diesem Ausgangspunkt aus können wir beginnen, die Energiepolitik so neu zu gestalten, dass sie sowohl nachhaltig als auch menschlich ist – eine Politik, welche die Umwelt respektiert ohne die materiellen Grundlagen der Zivilisation selbst zu vergessen.
Please share this information with teachers, students, and friends to encourage Energy Literacy conversations at the family dinner table.
Ronald Stein, P.E., is an engineer, columnist on energy literacy at America Out Loud NEWS, and advisor on energy literacy for the Heartland Institute and CFACT, and co-author of the Pulitzer Prize-nominated book “Clean Energy Exploitations.” He is also the recipient of an unsolicited Tribute to Ronald Stein from Stephen Heins.
Yoshihiro Muronaka, P.E. Jp is a chemical engineer who currently focuses on evaluating net-zero and decarbonization policies, advocating alternative energy concepts such as “carbon symbiosis,” and promoting balanced international energy cooperation.
Published April 13, 2026, in America Out Loud News
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Spannungen in der Straße von Hormus zwingen uns dazu, die materiellen Vorteile fossiler Brennstoffe zu neu zu bewerten erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Brief von Happer, Lindzen, Koonin an das Federal Judicial Center
Richard Lindzen, Ph. D.
Professor of Earth, Atmospheric, and Planetary Sciences, Emeritus Professor of Physics
Massachusetts Institute of Technology
William Happer, Ph. D.
Emeritus Professor of Physics, Princeton University
Steven Koonin, Ph. D.
Edward Teller Senior Fellow Hoover Institution, Stanford University
Datum: 1. April 2026:
The Honorable John G. Roberts
Chair, Federal Judicial Center
Chief Justice, United States Supreme Court
One First Street, NE
Washington, DC 20543
cc: Federal Judicial Center Board and Director
Re: “How Science Works” Chapter in the Reference Manual on Scientific Evidence: 4th Edition
[Betreff: Kapitel „Wie Wissenschaft funktioniert“ im Referenzhandbuch zu wissenschaftlichen Beweisen: 4. Auflage]
Sehr geehrter Chief Justice Roberts:
Das „Reference Manual on Scientific Evidence“ wird von der [US-]Bundes- und der einzelstaatlichen Justiz seit langem wegen seiner Neutralität, Klarheit und Zurückhaltung geschätzt. Es wird von mehr als 3.000 Bundesrichtern und zahlreichen einzelstaatlichen Richtern genutzt und wurde in über 1.700 Gerichtsurteilen zitiert. Sein Zweck bestand stets darin, Gerichte bei der Bewertung wissenschaftlicher Beweise zu unterstützen – und nicht darin, bestimmte wissenschaftliche, politische oder strategische Ziele voranzutreiben.
Wir schreiben Ihnen, um unsere ernsthafte Besorgnis über die vor einigen Monaten erschienene vierte Auflage des Handbuchs zum Ausdruck zu bringen. Mehrere Kapitel weichen deutlich von der langjährigen Tradition der Neutralität des Handbuchs ab.
1. Das gestrichene Kapitel zur Klimawissenschaft deckte strukturelle Probleme aufDas auffälligste Beispiel war der „Leitfaden zur Klimawissenschaft“, der zurückgezogen wurde, nachdem ein Schreiben von 28 Generalstaatsanwälten tiefgreifende Interessenkonflikte und zahlreiche unbegründete Behauptungen dokumentiert hatte, die als gesicherte Tatsachen dargestellt worden waren.
Als Berufsphysiker mit jahrzehntelanger Erfahrung in den Bereichen Atmosphärendynamik, Strahlungstransport und Modellierung komplexer Systeme wie dem Klima – und mit insgesamt mehr als 600 begutachteten Veröffentlichungen – waren wir besonders besorgt über die wissenschaftlichen und verfahrenstechnischen Mängel dieses Kapitels. (Unsere Lebensläufe sind beigefügt.)
2. Das verbleibende Kapitel „Wie Wissenschaft funktioniert“ weist ähnliche Mängel auf.Obwohl das Kapitel zum Thema Klima entfernt worden ist, bleibt das Kapitel, auf dem es beruhte – „How Science Works“ – erhalten. Dieses 65 Seiten umfassende Kapitel ersetzt die wesentlich kürzere und weithin anerkannte 18-seitige Fassung, die David Goodstein, ehemaliger Vizerektor des Caltech, für frühere Ausgaben verfasst hatte. Das neue Kapitel nimmt keinen Bezug auf die frühere Fassung und ähnelt ihr weder inhaltlich noch im Ton.
Der Hauptautor des neuen Kapitels Professor Michael Weisberg ist ein Philosoph, der auch als Klimadiplomat und Berater mehrerer nationaler Delegationen bei den Verhandlungen der Konferenz der Vertragsparteien der UN-Klimarahmenkonvention (COP) tätig ist. In seiner öffentlichen Biografie wird seine Arbeit bei der Entwicklung von Strategien zur Sicherung klimabezogener Finanztransfers für kleine Inselstaaten hervorgehoben. Diese Rollen disqualifizieren ihn an sich nicht. Sie erwecken jedoch eindeutig den Anschein eines Interessenkonflikts, wenn es darum geht, ein Kapitel zu verfassen, das Richtern als Leitfaden dienen soll, was legitime wissenschaftliche Beweise ausmacht – insbesondere in Rechtsstreitigkeiten, in denen möglicherweise Billionen von Dollar auf dem Spiel stehen.
3. Das neue Kapitel stützt sich auf einen konzeptionellen und nicht auf einen wissenschaftlichen Ansatz.Im allerersten Absatz wird behauptet, dass „PR-Kampagnen die Öffentlichkeit über den tatsächlichen Stand des wissenschaftlichen Konsenses in die Irre geführt haben“, wobei auf das Buch „Merchants of Doubt“ von Naomi Oreskes und Erik Conway verwiesen wird. Dieses Buch – und der darauf basierende Film – argumentieren ausdrücklich, dass es unter „echten Wissenschaftlern“ „keinerlei Meinungsverschiedenheiten“ hinsichtlich des katastrophalen Klimawandels gebe.
Diese Darstellung ist für einen juristischen Referenztext unangemessen. Sie präsentiert umstrittene Behauptungen als feststehende Tatsachen und impliziert, dass abweichende Wissenschaftler – darunter Tausende von anerkannten Forschern – keine „echten Wissenschaftler“ seien. Das ist keine neutrale Beschreibung wissenschaftlicher Praxis; es ist eine Position, die eine bestimmte Sichtweise vertritt.
4. Der Goldstandard der Wissenschaft ist die Vorhersage, die an der Realität gemessen wird.Als Wissenschaftler stimmen wir dem Obersten Gerichtshof in der Rechtssache Daubert voll und ganz zu, wonach wissenschaftliche Erkenntnisse nach der wissenschaftlichen Methode gewonnen werden müssen:
„Damit eine Schlussfolgerung oder Behauptung als ‚wissenschaftliche Erkenntnis‘ gelten kann, muss sie nach der wissenschaftlichen Methode gewonnen worden sein. *** ‚Die wissenschaftliche Methodik basiert heute darauf, Hypothesen aufzustellen und diese zu überprüfen … diese Methodik ist es, die die Wissenschaft von anderen Bereichen menschlichen Forschens unterscheidet.‘“ Daubert gegen Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579, 590, 593 (1993) (Zitate weggelassen).
Prof. Richard Feynman, Nobelpreisträger für Physik, erklärte die wissenschaftliche Methode prägnant wie folgt:
„Wir vergleichen das Ergebnis der Berechnung [einer Theorie] mit der Natur, … vergleichen es direkt mit Beobachtungen, um zu sehen, ob es funktioniert. Wenn es mit dem Experiment nicht übereinstimmt, ist es falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ The Character of Physical Law (1965), S. 150.
Seit Jahrhunderten beruht der wissenschaftliche Fortschritt auf der Fähigkeit, gewagte Vorhersagen zu treffen – Vorhersagen, die sich leicht als falsch erweisen könnten – und diese dann anhand von Experimenten oder Beobachtungen zu überprüfen. Dieser empirische Zyklus ist der Goldstandard wissenschaftlichen Verständnisses. Er hat es der Menschheit ermöglicht, die Gesetze der Bewegung, des Elektromagnetismus, der Thermodynamik, der Quantenmechanik, der Genetik und unzähliger anderer Säulen des modernen Wissens zu entdecken.
Historisch gesehen war die wissenschaftliche Methode eine neue Denkweise, welche die wissenschaftliche Revolution auslöste. Sie unterscheidet sich von anderen gängigen Denkweisen dadurch, dass sie Theorien anhand von Beobachtungen überprüft, wobei die Fakten maßgeblich sind:
Die wissenschaftliche Methode „ist ein vehementes und leidenschaftliches Interesse am Verhältnis allgemeiner Prinzipien zu irreduziblen und hartnäckigen Tatsachen. Überall auf der Welt und zu allen Zeiten gab es praktische Menschen, die sich mit ‚irreduziblen und hartnäckigen Tatsachen‘ beschäftigten; überall auf der Welt und zu allen Zeiten gab es Menschen mit philosophischem Temperament, die sich mit der Ausarbeitung allgemeiner Prinzipien beschäftigten. Es ist diese Verbindung aus leidenschaftlichem Interesse an den detaillierten Fakten mit gleicher Hingabe an abstrakte Verallgemeinerungen, die das Neue in unserer heutigen Gesellschaft ausmacht.“ Alfred North Whitehead, Science and the Modern World (1925) 3.
Das neue Kapitel ignoriert die oben vom Obersten Gerichtshof erläuterte wissenschaftliche Methode und behauptet fälschlicherweise, es sei ein „Mythos“, dass es eine einzige wissenschaftliche Methode gebe, und erklärt stattdessen, es handele sich um einen unverständlichen Prozess:
„Mythos: Es gibt eine einzige wissenschaftliche Methode, der alle Wissenschaftler folgen.
„Fakt: Der wissenschaftliche Prozess ist nichtlinear und dynamisch.“ Ebenda, S. 102.
Wie oben dargelegt, ist die Behauptung im neuen Kapitel „Wie Wissenschaft funktioniert“, es sei ein „Mythos“, dass es eine einzige wissenschaftliche Methode gebe, wissenschaftlich grundlegend falsch. Die wissenschaftliche Methode ist seit der wissenschaftlichen Revolution die Grundlage der modernen Wissenschaft.
Im Gegensatz zu dem neuen Kapitel erklärte Prof. David Goodstein in seinem Kapitel „How Science Works“ in früheren Ausgaben des Reference Manual, dass wissenschaftliches Wissen durch die wissenschaftliche Methode gewonnen wird:
„Kurz gesagt, das Wesen der Wissenschaft ist die wissenschaftliche Methode.“ Referenzhandbuch, 3. Auflage, S. 39.
Er erläuterte die wissenschaftliche Methode im Wesentlichen genauso wie der Oberste Gerichtshof und Prof. Feynman:
„Was von einer Theorie in der Wissenschaft verlangt wird ist, dass sie neue Vorhersagen trifft, die durch neue Experimente oder Beobachtungen überprüft und widerlegt oder bestätigt werden können.“ Ebenda, S. 51.
Er betonte, dass „Daten das A und O der Wissenschaft sind und stets mit Ehrfurcht behandelt werden müssen.“ Ebenda, S. 47.
Unter Berufung auf Galileo bemerkte er: „In wissenschaftlichen Fragen ist die Autorität von Tausenden nicht so viel wert wie die bescheidene Argumentation einer einzigen Person.“ Ebenda, S. 47. Das heißt, Konsens ist in der Wissenschaft kein Maßstab.
Er merkte auch an, dass die wissenschaftliche Methode und die juristische Methode im Grunde genommen identisch sind, was für Richter und Anwälte ohne wissenschaftliche Ausbildung hilfreich und beruhigend sein dürfte:
„Wissenschaft und Recht verfolgen auf der tiefsten Ebene die gleichen Ziele und wenden viele der gleichen Methoden an … indem sie sich auf empirische Belege stützen, um zu rationalen Schlussfolgerungen zu gelangen.“ Ebenda, S. 52.
5. Konsens ist nicht die Grundlage von Wissenschaft.Das neue Kapitel hebt wiederholt den „wissenschaftlichen Konsens“ und die „breite Akzeptanz“ als bestimmendes Merkmal wissenschaftlicher Validität hervor. In einem Abschnitt mit dem Titel „Erreichen eines wissenschaftlichen Konsens’“ wird „Abbildung 3. Indikatoren für wissenschaftlichen Konsens“ vorgestellt, ein Spektrum von „niedrig“ bis „hoch“ der „Wahrscheinlichkeit, dass ein Konsens über eine Hypothese erreicht wurde“. Ebenda, S. 97.
Anschließend wird behauptet, dass „das höchste Maß an Gewissheit, das die Wissenschaft bieten kann“, dann vorliegt, wenn eine Theorie „breite Akzeptanz erlangt hat“. Ebenda, S. 97. Ferner wird behauptet: „Breite Akzeptanz ist ein starker Indikator für die Zuverlässigkeit wissenschaftlich gewonnenen Wissens.“ Ebenda, S. 96.
Doch Konsens ist ein soziologisches Phänomen, nicht die wissenschaftliche Methode. Michael Crichton stellte in einem bekannten Vortrag fest: 1
„Es gibt keine Wissenschaft des Konsens‘. Wenn es Konsens ist, ist es keine Wissenschaft. Wenn es Wissenschaft ist, ist es kein Konsens.“
Konsens ist ein minderwertiger und von Natur aus fragiler Ersatz für den Goldstandard der Wissenschaft: überprüfbare Vorhersagen, die mit Daten überprüft werden. Er wird vor allem in Bereichen herangezogen, in denen kontrollierte Experimente schwierig oder unmöglich sind und Vorhersagen nicht eindeutig überprüft werden können. Er ist anfällig für Gruppendenken, die Abhängigkeit von Fördermitteln und die natürliche menschliche Abneigung, Fehler einzugestehen.
Wissenschaftlicher Fortschritt – von Galileo über Curie bis hin zu Einstein – erforderte oft einen Bruch mit dem Konsens, und die Geschichte bietet viele Beispiele, in denen ein vorherrschender Konsens später widerlegt wurde, darunter der Lysenkoismus in der Sowjetunion, der lange Widerstand gegen die Plattentektonik und der kurze Konsens Mitte des 20. Jahrhunderts über eine bevorstehende globale Abkühlung. Auch wenn ein Konsens durch ein einziges Experiment oder eine einzige Beobachtung widerlegt werden kann, kann er noch lange bestehen bleiben, nachdem sich gegenteilige Beweise angesammelt haben, gerade weil er eher sozial als empirisch aufrechterhalten wird.
Diese soziale Aufrechterhaltung des Konsens‘ macht es auch wichtig, die Meinungen von anerkannten Experten aus anderen Fachgebieten nicht von vornherein abzulehnen, da diese nicht durch Konsensdenken oder Belohnungen eingeschränkt sein müssen.
Das neue Kapitel führt das Ozonloch über der Antarktis als Beispiel für einen gut funktionierenden Konsens an. Doch selbst hier ist das wissenschaftliche Bild komplexer, als es das Kapitel vermuten lässt. Das Ozonloch über der Antarktis im Frühjahr tritt seit seiner Entdeckung im Jahr 1979, als die weltweite Satellitenkartierung begann, jedes Jahr auf. Trotz eines erheblichen Rückgangs der Halogenkonzentrationen in der Stratosphäre infolge des Montrealer Protokolls haben sich Größe und Tiefe des Ozonlochs kaum systematisch verändert. Es gibt nach wie vor wissenschaftlich fundierte Gründe, daran zu zweifeln, dass vom Menschen emittierte Halogene die Hauptursache für dieses Phänomen sind. Als Beispiel für „Konsenswissenschaft“ ist das Ozonloch alles andere als eindeutig.
Hätte das Kapitel ein anschauliches Beispiel dafür gesucht, wie die Wissenschaft die Politik beeinflussen sollte, wäre der kausale Zusammenhang zwischen Zigarettenrauchen und Lungenkrebs weitaus passender gewesen. Dieser Zusammenhang stützt sich auf übereinstimmende Beweislinien, starke statistische Zusammenhänge, ein Verständnis der Wirkmechanismen und Vorhersagen, die durch Beobachtungen wiederholt bestätigt worden sind. Er veranschaulicht die empirische Strenge, von der sich die gerichtliche Bewertung wissenschaftlicher Behauptungen leiten lassen sollte.
Zusammenfassend lässt sich sagen, dass die neue Aussage im Kapitel „How Science Works“, wonach „breite Akzeptanz“ und „wissenschaftlicher Konsens“ „das höchste Maß an Gewissheit darstellen, das die Wissenschaft bieten kann“, und „einen starken Indikator für die Zuverlässigkeit wissenschaftlich gewonnenen Wissens liefern“, eine eklatante Falschdarstellung dessen ist, was Wissenschaft seit der wissenschaftlichen Revolution im 17. Jahrhundert ausmacht – nämlich eine Disziplin, die auf der wissenschaftlichen Methode basiert.
Einfach ausgedrückt: Wenn es Konsens ist, ist es keine Wissenschaft.
6. In diesem Kapitel wird die Wissenschaft fälschlich als ein von der Gemeinschaft gelenktes Unterfangen dargestelltÜberschriften wie „Wissenschaft wird von einer Gemeinschaft betrieben, die ihre Mitglieder an Normen bindet“ und „Wissenschaft als menschliches und gemeinschaftliches Unterfangen“ beschreiben etwas, das eher einer politischen Partei oder einem religiösen Orden ähnelt als der wissenschaftlichen Methode. Wissenschaft ist zwar in der Tat eine menschliche Tätigkeit, doch ihre Autorität leitet sich aus reproduzierbaren Ergebnissen ab, nicht aus Gemeinschaftsnormen oder einem Mehrheitskonsens.
Das frühere Kapitel von Goodstein hat diesen Unterschied klar und prägnant herausgearbeitet. Die neue Fassung verschleiert ihn.
7. EmpfehlungenWir begrüßen, dass das Federal Judicial Center das Kapitel „Reference Guide on Climate Science“ aus dem neuen Referenzhandbuch entfernt hat, da es nicht die neutrale und sachliche Darstellung wissenschaftlicher Erkenntnisse bietet, für die das Handbuch bekannt ist. 2
Da das Kapitel „How Science Works“ größtenteils zur Untermauerung des nun zurückgezogenen Klimakapitels verfasst worden ist – und da es so drastisch von der Tradition der Neutralität des Handbuchs abweicht –, empfehlen wir respektvoll, dass auch dieses Kapitel zurückgezogen wird, bevor Bundes- und Landesrichter fälschlich dazu verleitet werden, es zur Zulassung oder zum Ausschluss wissenschaftlicher Beweise heranzuziehen, und seine pseudowissenschaftlichen Inhalte mehr als 1.000 klimabezogene Fälle vor Landes- und Bundesgerichten verfälschen.
Wir empfehlen außerdem respektvoll, es durch die frühere Goodstein-Version zu ersetzen, die nach wie vor eine prägnante, genaue und ideologiefreie Erklärung wissenschaftlicher Argumentation darstellt, die für die Verwendung in der Rechtsprechung geeignet ist.
Darüber hinaus teilte der Direktor des Zentrums Richter Rosenberg dem Generalstaatsanwalt von West Virginia John McCuskey in einem Schreiben vom 24. Februar mit, dass die Nationale Akademie der Wissenschaften (NAS) das Kapitel „Reference Guide on Climate Science“ nicht aus ihrer Ausgabe des Referenzhandbuchs entfernen werde: „Die Akademien werden in ihren Online- und Druckausgaben des RMSE einen mit einem Sternchen gekennzeichneten Hinweis einfügen, der darauf hinweist, dass das FJC das Kapitel aus seiner Ausgabe des Handbuchs gestrichen hat.“ Wir empfehlen dem Center höflich, die NAS anzuweisen, sowohl das Kapitel „How Science Works“ als auch das Kapitel „Reference Guide on Climate Science“ aus ihrer Version des Reference Manual on Scientific Evidence: 4th Edition des Federal Judicial Center zu entfernen.
Bitte teilen Sie uns abschließend mit, ob das Center plant, diese Schritte umgehend zu unternehmen.
Wir schätzen das langjährige Engagement des Federal Judicial Center, Richtern zuverlässige und unvoreingenommene Leitlinien zur Verfügung zu stellen. Die Gewährleistung, dass das Handbuch frei von Interessenvertretung und Interessenkonflikten bleibt, ist für die Aufrechterhaltung dieses Vertrauens von entscheidender Bedeutung.
Mit freundlichen Grüßen,
Richard LindzenI am an Alfred P. Sloan Professor of Atmospheric Science Emeritus at MIT. After completing my doctorate at Harvard in 1964 (with a thesis on the interaction of photochemistry, radiation and dynamics in the stratosphere), I did postdoctoral work at the University of Washington and at the University of Oslo before joining the National Center for Atmospheric Research as a staff scientist. At the end of 1967, I moved to the University of Chicago as a tenured associate professor, and in 1971 I returned to Harvard to assume the Gordon McKay Professorship (and later the Burden Professorship) in Dynamic Meteorology. In 1981 I moved to MIT to assume the Alfred P. Sloan Professorship in Atmospheric Sciences. I have also held visiting professorships at UCLA, Tel Aviv University, and the National Physical Laboratory in Ahmedabad, India, and the Hebrew University in Jerusalem, the Jet Propulsion Laboratory in Pasadena, and the Laboratory for Dynamic Meteorology at the University of Paris.
I developed our current understanding of the quasi-biennial oscillation of the tropical stratosphere, the current explanation for dominance of the solar semidiurnal and diurnal tides at various levels of the atmosphere, the role of breaking gravity waves as a major source of friction in the atmosphere, and the role of this friction in reversing the meridional temperature gradient at the tropopause (where the equator is the coldest latitude) and the mesopause (where temperature is a minimum at the summer pole and a maximum at the winter pole). I have also developed the basic description of how surface temperature in the tropics controls the distribution of cumulus convection and led the group that discovered the iris effect where upper-level cirrus contract in response to warmer surface temperatures. I have published approximately 250 papers and books. I am an award recipient of the American Meteorological Society and the American Geophysical Union. I am a fellow of the American Meteorological Society, the American Geophysical Union and the American Association for the Advancement of Science, and a member of the National Academy of Sciences and the American Academy of Arts and Sciences.
I have served as the director of the Center for Earth and Planetary Sciences at Harvard and on numerous panels of the National Research Council. I was also a lead author on the Third Assessment Report of the UN’s Intergovernmental Panel on Climate Change – the report for which the IPCC shared the Nobel Peace Prize with Al Gore.
William HapperI am a Professor Emeritus in the Department of Physics at Princeton University.
I began my professional career in the Physics Department of Columbia University in 1964, where I served as Director of the Columbia Radiation Laboratory from 1976 to 1979. I joined the Physics Department of Princeton University in 1980.
I invented the sodium guidestar that is used in astronomical adaptive optics systems to correct the degrading effects of atmospheric turbulence on imaging resolution. I have published over 200 peer-reviewed scientific papers, am a Fellow of the American Physical Society, the American Association for the Advancement of Science, and a member of the American Academy of Arts and Sciences, the National Academy of Sciences and the American Philosophical Society.
I served as Director of Energy Research in the U.S. Department of Energy from 1991 to 1993. I was a co-founder in 1994 of Magnetic Imaging Technologies Incorporated (MITI), a small company specializing in the use of laser-polarized noble gases for magnetic resonance imaging. I served as Chairman of the Steering Committee of JASON from 1987 to 1990.
I served as Deputy Assistant to the President and Senior Director for Emerging
Technologies at The National Security Council in the White House from 2018 to 2019.
I am the Chair of the Board of Directors of the CO2 Coalition, a nonprofit 501(c)(3) organization established in 2015 to educate thought leaders, policy makers and the public about the vital contribution made by carbon dioxide to our lives and our economy.
Steven E. KooninI am the Edward Teller Senior Fellow at Stanford University’s Hoover Institution, which I joined in September 2024.
Prior to that, I was a University Professor at New York University, where I held appointments as a Professor of Information, Operations, and Management Sciences in the Stern School of Business and a Professor of Civil and Urban Engineering in the Tandon School of Engineering while serving as the Founding Director of the Center for Urban Science and Progress (CUSP).
I served as Undersecretary for Science at the U.S. Department of Energy from May 2009, following my confirmation by the U.S. Senate, until November 2011.
Prior to joining the government, I spent five years, from March 2004 to May 2009, as Chief Scientist for BP, p.l.c.
From September 1975 to July 2006, I was a professor of theoretical physics at Caltech and was the Institute’s Provost from February 1995 to January 2004.
I was a director of CERES, Inc., a publicly traded company pursuing genetically enhanced bioenergy crops, from 2012 to 2015 and have been an Independent Director of GP Strategies (now GP Government Solutions) since 2016.
My memberships include the U.S. National Academy of Sciences, the American Academy of Arts and Sciences, the Council on Foreign Relations. I am a former member of the Trilateral Commission. I am a member of the JASON advisory group from July 1988 to May 2009, and from November 2011 to present, and served as the group’s chair from 1998 to 2004.
I have served as an independent governor of the Los Alamos, of Lawrence Livermore National Security LLC since July 2012, and of the Sandia Corporation from 2016 to 2017 and was a member of the Secretary of Energy’s Advisory Board from 2013 to 2016. I have also served as a Trustee of the Institute for Defense Analyses from 2014 to 2025.
I hold a B.S. in Physics from Caltech (1972) and a Ph.D. in Theoretical Physics from MIT (1975).
cc:
Judge Kathleen Cardone, U.S. District Court for the Western District of Texas
Judge Sara L. Ellis, U.S. District Court for the Northern District of Illinois
Judge Ralph R. Erickson, U.S. Court of Appeals for the Eighth Circuit
Judge Michelle M. Harner, U.S. Bankruptcy Court for the District of Maryland
Judge Suzanne Mitchell, U.S. District Court for the Western District of Oklahoma
Judge Kevin C. Newsom, U.S. Court of Appeals for the Eleventh Circuit
Judge B. Lynn Winmill, U.S. District Court for the District of Idaho
Judge Robert J. Conrad, Jr., Director of the Administrative Office of the U.S. Courts
Judge Robin L. Rosenberg, Director of the Federal Judicial Center
1 Michael Crichton, Aliens Cause Global Warming, Caltech Michelin Lecture (Jan. 17, 2003).
2 Its fundamental scientific flaws are detailed in Profs. Lindzen’s and Happer’s paper Physics Demonstrates That Increasing Greenhouse Gases Cannot Cause Dangerous Warming, Extreme Weather or Any Harm and in Prof. Koonin’s book Unsettled (2d. ed. 2024).
Link: https://wattsupwiththat.com/2026/04/12/happer-lindzen-koonin-letter-to-the-federal-judicial-center/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Brief von Happer, Lindzen, Koonin an das Federal Judicial Center erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Matt Ridley glaubt, dass das Klima-Geplapper fast am Ende ist
Peter Baeten, Clintel
In seinem jüngsten ICSF/Clintel-Vortrag argumentierte Matt Ridley, dass die öffentliche und politische Dynamik hinter dem Narrativ der „Klimakrise“ nachlässt, und er untersuchte die Gründe für diesen Wandel sowie dessen Auswirkungen.
In einem Leitartikel im Magazin „The Spectator“ erklärte der britische Wissenschaftsautor, Journalist und Geschäftsmann Matt Ridley kürzlich: „Endlich, Gott sei Dank, ebt der Hype um die globale Erwärmung ab. Um Monty Python zu paraphrasieren: Der Klimapapagei mag zwar noch immer an seiner Stange auf dem COP-Gipfel in Belém, Brasilien – oder in Harvard und auf CNN [und in D; A. d. Übers.]– festgenagelt sein, aber anderswo ist er tot.“ Er sagte auch, dass Bill Gates’ Entschuldigung, in der er einräumte, dass die globale Erwärmung „nicht zum Untergang der Menschheit führen wird“, nachdem er das Büro für Politik und Interessenvertretung seiner klimapolitischen Wohltätigkeitsgruppe geschlossen hatte, ein weiterer Nagel im Sarg der Klimapanik sei. Der Rückgang des Klimaalarmismus‘ war das zentrale Thema in Ridleys ICSF/Clintel-Vortrag: „The Great Climate Climbdown“ (1. April).
NachlassenIn seinem Vortrag erläuterte Ridley, warum seiner Ansicht nach der „Klima-Alarm“ nachlässt. Ein wesentlicher Faktor ist das schwindende Vertrauen der Öffentlichkeit in wissenschaftliche und institutionelle Autoritäten, insbesondere nach der COVID-19-Pandemie. Laut Ridley „hat die COVID-Pandemie dazu geführt, dass die Menschen der Wissenschaft und den Experten misstrauen“, und diese Skepsis habe sich auf die Klimadebatten ausgeweitet. Er argumentierte zudem, dass übertriebene Vorhersagen und viel beachtete Fehler die Glaubwürdigkeit untergraben hätten.
Als entscheidenden Faktor nannte Ridley jedoch die wirtschaftlichen Realitäten. Er betonte, dass die versprochene Erschwinglichkeit der Dekarbonisierung nicht eingetreten sei: „Sie erweist sich als kostspielig, unbequem und regressiv.“ Seiner Ansicht nach belasten steigende Energiepreise einkommensschwache Haushalte unverhältnismäßig stark, was Klimapolitik politisch und gesellschaftlich umstritten macht. Dieser wirtschaftliche Druck hat die Aufmerksamkeit auf Energiesicherheit und Erschwinglichkeit gelenkt, insbesondere in Regionen wie den Vereinigten Staaten und Teilen Asiens.
Ein zentrales Thema in Ridleys Argumentation ist das Versagen erneuerbarer Energien – insbesondere Wind- und Solarenergie –, zuverlässige und skalierbare Lösungen zu liefern. Er beschrieb diese Quellen als von Natur aus unbeständig und argumentierte, dass „der Übergang zu ihnen einfach nicht zustande kommt“. Ohne erneuerbare Energien gänzlich abzulehnen, stellte er die Frage, warum die Sorge um den Klimawandel oft mit einer starken Unterstützung für genau diese Technologien gleichgesetzt wird.
[Hervorhebung vom Übersetzer]
Schiefer-RevolutionIm Gegensatz dazu hob Ridley die tiefgreifenden Auswirkungen der Schieferrevolution hervor, insbesondere in den Vereinigten Staaten. Fortschritte bei der Förderung von Öl und Gas aus Schieferformationen haben das Angebot drastisch erhöht und die Bedenken hinsichtlich einer Ressourcenverknappung gemindert. Er argumentierte, dass diese Entwicklung die globalen Energiemärkte neu gestaltet und frühere Annahmen über die Unvermeidbarkeit eines raschen Ausstiegs aus fossilen Brennstoffen untergraben habe.
Technologische Trends, insbesondere der Aufstieg der künstlichen Intelligenz, verstärken die Nachfrage nach zuverlässiger Energie zusätzlich. Ridley merkte an, dass Rechenzentren und KI-Infrastruktur eine kontinuierliche, verlässliche Stromversorgung benötigen, was derzeit fossile Brennstoffe und Kernenergie gegenüber intermittierenden erneuerbaren Energien begünstigt. Dies hat dazu geführt, dass Teile des Technologiesektors eine pragmatischere Haltung in der Energiepolitik einnehmen.
Die WissenschaftIn wissenschaftlicher Hinsicht räumte Ridley ein, dass die globalen Temperaturen steigen, stellte jedoch das Ausmaß der prognostizierten Auswirkungen in Frage. Er erklärte: „Ich gehöre zu denen, die glauben, dass es wärmer wird … aber ich glaube nicht, dass es schlimmer wird.“ Er argumentierte, dass viele der vorhergesagten negativen Folgen – wie beispielsweise die Zunahme extremer Wetterereignisse – nicht in dem erwarteten Ausmaß eingetreten seien. Seiner Ansicht nach „leben wir in dieser Zukunft und sie ist gar nicht so schlimm“, wobei er feststellte, dass die gelebte Erfahrung nicht mit früheren düsteren Prognosen übereinstimme.
Ridley kritisierte zudem Klimamodelle. „Die Modelle laufen immer noch zu heiß“, was bedeutet, dass sie die Erwärmung im Vergleich zu den beobachteten Daten überschätzen. Er führte dies auf zu hohe Annahmen bezüglich der Klimasensitivität zurück. Darüber hinaus hob er die historische Klimavariabilität hervor und argumentierte, dass die aktuellen Temperaturen nicht beispiellos seien, wenn man sie über längere Zeiträume wie das Holozän betrachtet (siehe auch hier).
Der vielleicht wichtigste Punkt in Ridleys Vortrag ist der positive Einfluss von Kohlendioxid auf das Pflanzenwachstum. Er verwies auf Belege für eine weltweite „Begrünung“ und erklärte, dass der Anstieg des CO₂-Gehalts zu einer messbaren Ausbreitung der Vegetation weltweit beigetragen habe. Dieser Effekt hat erhebliche Vorteile für die Landwirtschaft und die Ökosysteme und wurde in politischen Diskussionen unterschätzt.
Auch die ökonomische Analyse spielt in Ridleys Kritik eine zentrale Rolle. Er stellte die Rechtfertigung für groß angelegte Ausgaben zur Dekarbonisierung in Frage, indem er Kosten und Nutzen verglich. Unter Bezugnahme auf Schätzungen der gesellschaftlichen Kosten von Kohlenstoff argumentierte er, dass Klimaschutzmaßnahmen unverhältnismäßig teuer sein könnten: „Es macht einfach keinen Sinn, ein Vermögen für etwas zu bezahlen, das nur einen Cent einspart.“
Ridley veranschaulichte diesen Punkt anhand langfristiger Wirtschaftsszenarien und argumentierte, dass künftige Generationen trotz einer erheblichen Erwärmung aufgrund des anhaltenden Wirtschaftswachstums wahrscheinlich viel wohlhabender sein werden. Er stellte in Frage, ob relativ geringe Einbußen beim prognostizierten Wohlstand – verursacht durch Klimafolgen – eine existenzielle Bedrohung darstellen.
Politische DynamikIn dem Vortrag ging es auch um politische Dynamik. Ridley kritisierte den seiner Meinung nach früher bestehenden Konsens unter den großen politischen Parteien zugunsten einer strengen Klimapolitik und argumentierte, dass dies eine offene Debatte eingeschränkt habe. Er wies darauf hin, dass dieser Konsens allmählich zu bröckeln beginne, insbesondere da die wirtschaftlichen Kosten immer deutlicher zutage träten.
Wirtschaftliche Realitäten, technologische Entwicklungen und sich wandelnde Einstellungen in der Öffentlichkeit schwächen die Dominanz der Narrative vom Klimanotstand. Ridley warnte jedoch vor extremen Positionen. Er riet Kritikern der Mainstream-Klimapolitik davon ab, den Klimawandel gänzlich abzulehnen, und wies darauf hin, dass eine solche Rhetorik die Glaubwürdigkeit untergraben könne*. Stattdessen forderte er eine stärkere Beteiligung an technischen und politischen Diskussionen und betonte die Bedeutung einer detaillierten, evidenzbasierten Argumentation. „Diejenigen, die den vorherrschenden Ansätzen skeptisch gegenüberstehen, müssen sich intensiver und konsequenter in die Debatte einbringen, wenn sie hoffen, deren zukünftige Richtung zu beeinflussen.“
[*Das ist unverständlich: meines Wissens lehnt niemand den Klimawandel gänzlich ab! A. d. Übers.]
Hier der Vortrag von Matt Ridley:
Es folgt hier das vollständige Transskript des Vortrags. Auf die Übersetzung desselben wird hier verzichtet, zumal man sich Untertitel einblenden lassen kann. Und das Wesentliche seines Vortrags hat Autor Peter Baeten oben ja schon hervorgehoben. – A. d. Übers.]
Link: https://wattsupwiththat.com/2026/04/10/matt-ridley-thinks-the-climate-parrot-is-almost-dead/
Übersetzt von Christian Freuer für das EIKE
——————————
Here is an AI formatted transcript:
I’m going to try and give you my perspective on which arguments have made the difference in terms of changing people’s minds on climate, and therefore what kinds of evidence and arguments we should be pushing in order to try to win this battle.
The genesis for this was an article I wrote in The Spectator saying that I really do think the climate emergency talk has peaked and we are seeing a significant change. If you live in the British Isles, that’s not immediately apparent. It’s still a huge issue in Britain and Ireland and most of Europe. But if you spend any time in America now, or even in Asia, you are seeing a very different debate where the affordability of energy is much more important than decarbonization, where the demands of AI have trumped the requirement to cut carbon dioxide emissions. I think Britain and Ireland are getting left behind here. We need to get with the conversation that’s happening elsewhere.
The images are covering the end of that graph, so you can’t see it, but there has been a decline in newspaper coverage. There are all sorts of straws in the wind, like Bill Gates closing down the advocacy office. The banking alliance for climate change has closed down. A lot of companies are tiptoeing away from this issue. It therefore is a moment when it might turn — it might die out. More likely it will go quiet for a while and then more air will be pumped into the balloon at some point in some form or other. There is such a gigantic vested interest these days in climate alarm that one can never write it off completely.
Here are ten reasons I think why it’s fading. I’ll run through them in more detail, but I’ll just quickly list them here. I think it’s important not to underestimate the degree to which the COVID pandemic has left people mistrustful of science and of experts. That has significantly damaged trust in science, and it is infecting the climate debate. Overclaiming and some degree of fraud have been a problem in the climate science arena for even longer, but I think you are getting traction now because of COVID.
Most important, of course, is that we were told that the decarbonization of the world’s energy system would pay for itself — that it would be profitable. That is clearly not the case. It is proving costly, inconvenient, and regressive in that poor people are paying more than rich people for this transition. I think that is why a lot of ordinary people are beginning to see through the alarm. The transition to wind and solar — which I call “unreliables,” because there are lots of renewable energies but the distinguishing feature of wind and solar is that you can’t rely on them — is simply failing to materialize. I don’t fully understand why, if you’re worried about what’s happening to climate change, you are automatically and passionately in favor of wind and solar power. It just doesn’t necessarily follow, in my view.
I think it’s important not to underestimate how much the shale revolution has changed everything. Until fifteen years ago, it was still easily possible to talk about oil and gas running out and therefore getting more expensive, which would necessitate a switch from hydrocarbons. That changed with the discovery of how to get gas and oil out of shale, and the effect on America’s position as a gas and oil producer and as an energy consumer is extraordinary. Many people outside America just don’t realize this, because we are so indoctrinated with the idea that the big energy transition of our time is windmills and solar panels that we don’t notice that the big energy transition of our time is actually shale.
The fact that the AI industry needs reliable, affordable power has led much of the tech sector to become much more realistic and pragmatic about energy. Getting it from shale gas power stations is now the top priority for most of the companies rushing into AI and data centers.
On the science: I’m somebody who thinks it is getting warmer. Springs are getting nicer, winters are getting milder, summers not much different. But I don’t think it’s getting worse. I think that is what most people are now beginning to realize after fifty years of being told that the future is going to be horrible. We’re living in that future and it isn’t too bad. One of the reasons for that is that the models are still running too hot, and have been consistently, because they are assuming higher climate sensitivity than the science now supports. There is now so much evidence that the recent past — by which I mean the current interglacial, the Holocene period starting about 9,000 years ago — has been much warmer in its first half than it is today. That evidence is getting harder and harder to hide, deny, or ignore. We are therefore a long way from living in unprecedented temperatures. The fact that we are at unprecedented temperatures compared with the 19th century is not really the relevant comparison for me.
One of the big stories is that the effect of carbon dioxide on green vegetation is much greater than scientists expected or predicted. They did not think it was a limiting factor in most ecosystems, and yet it is turning out to be an enormous effect — much more measurable, actually, than the effect of carbon dioxide on warming. If carbon dioxide is a problem, we ought to be able to measure its cost and then determine how much this generation should pay for a cost that’s going to fall on a future generation — how much we discount the future. That calculation, if done honestly, is more and more playing against alarm.
On the first point about overclaiming and fraud damaging trust in science: the record of predictions about what’s going to happen with the climate, and the chickens that are coming home to roost on this, are more and more helpful to the argument. Al Gore is now known more for predicting that the Arctic would be ice-free within five years — said in 2009 — than for some of the other things he said, and it has damaged the reputation of people like him. I enjoyed this quote from Ted Turner: that within thirty to forty years no crops will grow, most people will have died, and the rest of us will be cannibals. It’s quite extraordinary what people have been getting away with saying in order to get noticed in this debate. The UN Secretary-General standing up to his knees on a beach in Tuvalu makes great cover for Time magazine, but I think this kind of thing no longer cuts through to people, partly because people now realize that islands like Tuvalu are not sinking — they are actually gaining land area because of wave action. I’ve included Andrew Montford’s Hockey Stick Delusion here because I do think the hockey stick story is one of significant scientific malpractice, and that ought to be better known.
This picture sums up a lot of what went wrong in recent years, and I don’t think you’re going to see this kind of uni-party consensus again. Here is the environment shadow secretaries of the British government — the Tory party, the Liberal Democrat party, and the Labour Party — all standing up and giving a round of applause to Greta Thunberg. Greta Thunberg was saying — fortunately I can’t quite read what she’s saying because it’s hidden — that we are setting off an irreversible trend that will end civilization by 2030. That is what she actually said in Parliament at Westminster that day. And Michael Gove, the Tory, said: “Your voice, still calm, is the voice of our conscience. We feel great admiration.” And Ed Miliband said: “You’ve woken us up.” This kind of political consensus has been a huge problem — the fact that no party has been prepared to rock the boat. That is changing even in Britain. We now have the Reform Party and the Conservative Party both being much more skeptical on climate and energy issues.
The degree to which electricity and gas prices have exceeded those in America — now in Europe and in the UK in particular, and in Ireland — is more and more striking. Paying four times as much for your energy, whether it’s gas or electricity, is not compatible with remaining competitive. We are seeing Britain losing its fertilizer, chemical, pharmaceutical, motor, and steel industries, among many others, at a terrifying rate. Not only that, we are cutting ourselves off from being able to participate in a significant way in the AI industry, and some of the other industries of the future — robotics and so on. It really will hurt ordinary people to have been so far ahead of everyone else in trying to decarbonize our economy.
The electric car revolution has been forced on consumers and is relatively unpopular for a number of reasons: reliability, cost, charging times. If you do the analysis on a Chinese electric grid, it’s hard to see how electric cars save any emissions at all, because it’s basically a coal car when you’re running an electric car in China. Less so in Europe, where most of the electricity comes from gas, but even there it takes many tens of thousands of miles before you’ve really saved any significant quantity of emissions — and at that point the battery is probably nearly dead anyway, so you’re about to replace it. To replace a functioning and quite successful industry — the UK motor industry — with one that is really struggling is a bad thing in itself, and to do so at significant cost and inconvenience to the consumer is really an own goal. I’d say the same kind of thing about heat pumps replacing gas-fired boilers. Fine for a new build house; much harder if you’re adapting an existing house and have to change the insulation and everything. Even if it works for the same price, you’re removing a system before the end of its useful life and replacing it with one that’s no better. Therefore there is no growth in economic terms. You are effectively stranding assets in doing that. And refusing to build a third runway, trying to limit how much people fly, and telling people they shouldn’t eat meat is not only counterproductive in political terms — it is backfiring quite significantly, even in Europe, and much more so in Asia and America.
The big issue as far as the electricity system is concerned is, of course, the dash for renewables — for unreliables in particular, solar and wind — where it’s not just the unreliability and intermittency, but the extreme cost of a system based on them. Britain has the capacity to produce 21% more electricity now than fifteen years ago, but it consumes 24% less electricity than fifteen years ago. Doing less with more is the very definition of degrowth, or impoverishment. That is a real problem we are creating for ourselves in this country.
You can’t see the end of this chart, but global direct primary energy consumption is still vastly dominated by hydrocarbons around the world. That has not changed. All three fossil fuels are still breaking records. If you zoom into the top corner of that graph, you can just about see the contribution that solar and wind are making to the world economy — it is infinitesimal. It’s around 6% if you add them both together. And yet coverage of the energy industry is dominated by these two rather medieval technologies.
Speaking of medieval: this is a book about the crop yields of the manors belonging to the Bishop of Winchester in the 1300s. You may wonder why I’ve brought it up, but if you zoom in, you’ll see that most of these manors were producing between one and four grains of wheat per grain sown in the ground — an energy return on energy invested of between one and four. You have to keep one grain back to sow the next year’s crop, so in a year when you only produce one grain, you have almost nothing to feed people with. That is the motor for most of the work done in society by people. In terms of oats, the same applies for horses. On my farm in Northumberland today, I would expect to get about one hundred grains of wheat for each grain sown in the ground.
This energy return on energy invested calculation is absolutely critical, and it is one that the unreliable energy industry is really struggling with. If you buffer it by reliability — by the fact that you have to back up wind and solar — it’s hard to see how these reach the economic threshold. If you’re producing four units for every unit of energy that goes in, you are effectively recreating the medieval economy. The problem with the medieval economy was that it could only make bishops rich and nobody else could get rich at all. When you get down to a ratio of three or four for energy return on energy invested, a significant proportion of your industry has to be spent making energy, and you don’t have much left over to do other things with. That is the measure that really needs to be hammered home. On solar specifically, it is worth pointing out that according to the World Bank, Britain is the second worst country in the world to build solar because of its cloud cover and the cost of land. The only worse country, I’m sorry to say, is Ireland.
The point of this graph — which unfortunately can’t be seen clearly — is to show that America was a static or declining producer of gas until the early 2000s. It is now by far the biggest gas producer in the world, equal to Russia and Qatar combined. That’s an extraordinary transformation. The same is true for oil. It was conventional wisdom, it was groupthink, that America was a played-out, declining oil basin that would decline steadily from the 1970s onwards. Then along came the shale pioneers and turned that around. America now produces more oil than Saudi Arabia and Iraq combined. No one now talks about peak oil, about oil and gas running out, or about expensive oil as a result. Yes, geopolitics can affect oil and gas prices, but usually only temporarily.
The AI revolution is largely fueled by gas and coal, with some nuclear — solar and wind are not the go-to sources for this power, as I mentioned. What about the climate itself? Well, it is getting warmer. These are Ole Humlum’s analyses of five different ways of measuring global average temperature, going up at a rate of — well, going up pretty slowly — heading for about a degree of warming after about fifty years.
But do we believe the numbers? I think we need to keep talking about the adjustments that are made to temperature records. Here is a graph that Humlum produces in which he points out that the GISS estimate of what the temperature was in January 2000 has been adjusted upwards, particularly in September 2013. Maybe that’s fair enough — maybe they had a reason for doing that. But in the same month they adjusted the temperature for January 1910 significantly downwards. How can they possibly have had a good reason for doing that? I think one is quite right to be suspicious of this. Cooling the past in order to increase the apparent rate of warming is just too tempting for the people who are in charge of these statistics. I haven’t touched on the urban heat island effect and the unreliable thermometer stations, but there are plenty of those issues too.
The real point, as far as the man in the street is concerned, is this: is the weather getting worse? Yes, it’s getting warmer, but is it getting worse? And no, it’s not. Global tropical cyclones are not getting more frequent or more lethal. Drought is showing no trend upwards or downwards really. As Roger Pielke has summarized, for most significant weather effects — except heat waves and perhaps heavy precipitation — there is no detection or attribution, as stated by the Intergovernmental Panel on Climate Change reports in their latest AR6 assessment.
And of course, the point that Björn Lomborg has made, among others: cold kills far more people than heat. If we have higher temperatures, we will have slightly more people killed by heat, but a lot fewer people killed by cold. So we are genuinely saving lives through global warming. Generally, deaths from climate-related events are down significantly, whereas deaths from earthquakes, tsunamis, and volcanoes are not. That’s a remarkable statistic — it’s not because weather is getting safer, but because we’re getting better at forecasting, predicting, and sheltering people from bad weather.
People get very worked up about sea ice decline, but it’s slow. The Arctic hasn’t broken a sea ice low record since 2012. Antarctica has seen a recent slight downward trend, but there is no evidence that we are anything like approaching an ice-free period in the Arctic summer, which was quite routine eight or nine thousand years ago. Sea level rise is significant, but there is no sign of acceleration. The linear trend since 2010 is higher than the linear trend since 2005, but the linear trend since 2015 is lower again. So it’s going up and down, but it’s around a foot and a half per century, which is easily something we can cope with.
I won’t go into the details, but I think Nick Lewis in particular, and Judith Curry, have done a very good job of showing in the peer-reviewed literature that the estimates of climate sensitivity going into the models have broadly been too high and need to come steadily downwards. That would explain why the models have been running too hot compared with the observed global temperature.
I think the Holocene Thermal Maximum is a very important point that we need to keep stressing. The temperature of Greenland and the Mackenzie Strait — two different data sets — was significantly higher around 6,000 BC, some eight thousand years ago, than it is today. This data is coming in now from many different types of paleoclimate temperature records, showing that the Holocene Climate Optimum was a warmer period. I was looking, for example, at evidence that in the Indian Ocean, sea levels were considerably higher than they are today. It used to be the consensus that they had been going up steadily since the ice age — rapidly at first, then steadily. Now it is reckoned that they may have been up to two meters higher during the period when the first pharaohs were already appearing in Egypt — so not that long ago. The Holocene Optimum was also a period of considerable wetness in the Sahara, with lakes and hippos in the Saharan region. This was a period within early human history when we were experiencing much warmer and damper temperatures.
But I think global greening is the big one. We have considerable evidence from a number of different directions that there is 15% more green vegetation on the planet after thirty years, because of carbon dioxide fertilization. This is in all ecosystems — particularly arid ones, but in tropical and arctic ones as well, and in marine as well as terrestrial ecosystems. That is a really significant effect. If you add the effect it’s had on agricultural yields alone, it comes to trillions of dollars of benefit for mankind. Then add in the benefit for grasshoppers, gazelles, and all the other creatures that eat green vegetation.
I published an article about this in 2013 when I first got wind that the satellite data had been analyzed and was showing this global greening. Before then, there were other measures for picking it up, but it hadn’t been analyzed from satellite data. This annoyed the professor whose work I was reporting very much indeed — so much so that when he published his work, the press release from Boston University named me personally, along with Rupert Murdoch, as being the kind of person who mustn’t be allowed to misinterpret the result. I call that a win, actually, if I’m getting name-checked in the press release.
On the social cost of carbon: Britain doesn’t use the social cost of carbon because they can’t make it add up. They simply can’t get an estimate high enough to justify the money we’re spending on decarbonization. America did use a high one during the Biden administration, but Ross McKitrick has basically demolished the argument behind it. It largely left out the carbon dioxide fertilization effect, and his own estimates of the social cost of carbon are that it’s pretty small — of the order of five to ten dollars per ton of carbon. That is the total future harm done by each ton of carbon dioxide we produce today. The cost of decarbonization is way higher than that. It just doesn’t make sense to pay a fortune for something that will save a penny.
Worse than that, we are asking poor people today to make sacrifices to help wealthy future people. Poor people within countries, where energy policies tend to be regressive; between countries, where we are on the whole denying cheap energy to many poor countries; and between generations as well.
These are the five economic scenarios that the IIASA did for the IPCC, showing what might happen to global GDP per capita. It’s worth looking at the one they call “taking the highway” — fossil fuel development. This is the scenario in which we really let rip and continue to use hydrocarbons on a significant basis, ending up with quite a lot of warming as a result. It is a scenario in which per capita income is roughly ten times what it is today — ten times globally, everybody on planet earth earning ten times as much. Imagine what they could do with that. In which the Gini coefficient is down significantly, in which population falls faster than expected, in which there is rapid technological progress, strong investment in health and education, and effective management of ecological systems. This is not a terrible world. It sounds rather a good world. And if yes, there’s a lot of warming, then we’re ten times as rich to deal with it.
But surely the warming will have done economic harm? Yes, it will. How much harm? It will have reduced the wealth of your grandchildren so that instead of being 10.4 times as rich, they will be 9.8 times as rich. Is that really an existential catastrophe? There is a reason why we use a discount rate, and Lord Stern persuaded us in the mid-2000s that we should not, because we should care about our grandchildren just as much as ourselves. But if they are going to be ten times as rich, then it doesn’t make sense to hurt poor people today to make them not quite ten times as rich.
So, just to end: what are we still up against? Massive subsidies and funding for climate alarm — you can’t underestimate the power of money. Widespread bias and censorship still in the media. Some doubling down: the point that, you know, solar power doesn’t come through the Strait of Hormuz — doesn’t this crisis prove that we should wean ourselves off fossil fuels? Climate change is also a very good excuse for politicians. Again and again you’ve seen people like the Governor of California saying, yes, the Palisades fire burned a lot of people’s homes, but there’s nothing I can do about it because it was caused by climate change. There was something you could do about it — you could have done prescribed burning. But climate change gets you off the hook as a politician.
I do believe that it’s a mistake to go too far in skepticism and call it things like a hoax. That tends to put people off. The problem with our side of the argument is that we can’t be bothered to sit on these committees, get stuck into the detail, do all the really boring legwork, and go to these awful conferences. That’s what we ought to be better at. And that’s about the only criticism I can make of the skeptical side of the debate. Thank you very much. I’m happy to take questions.
Der Beitrag Matt Ridley glaubt, dass das Klima-Geplapper fast am Ende ist erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
