«Der Staat ist eine Institution, die von Banden geführt wird, die aus Mördern, Plünderern und Dieben besteht, umgeben von willfährigen Handlangern, Propagandisten, Speichelleckern, Gaunern, Lügnern, Clowns, Scharlatanen, Blendern und nützlichen Idioten - eine Institution, die alles verdreckt und verdunkelt, was sie berührt.» (– Prof. Hans-Hermann Hoppe).
EIKE - Europäisches Institut für Klima und Energie e.V.
Die Klimapolitik ist ein Intelligenztest. Wer zweifelt, spendet.
Der Beitrag Die Klimapolitik ist ein Intelligenztest. Wer zweifelt, spendet. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Das Scheitern der Energiewende ist ein Angriff auf die Steuerzahler!
Erdgas und Rohöl sind häufig benötigte fossile Brennstoffe für die Herstellung von Isoliermaterialien, Kabeln und Computern, die bei allen Verfahren zur Stromerzeugung zum Einsatz kommen. Das liegt daran, dass Bestandteile von Erdgas und Öl wichtige Rohstoffe für die Herstellung von Kunststoffen sind, die für Isoliermaterialien und viele Computerteile verwendet werden.
Fossile Brennstoffe werden auch für den enormen Energiebedarf während des gesamten Herstellungsprozesses benötigt.
IsolierungViele der für die Isolierung verwendeten Polymerkunststoffe, wie Polyethylen (PE), vernetztes Polyethylen (XLPE) und Polyvinylchlorid (PVC), werden aus Rohstoffen hergestellt, die aus fossilen Brennstoffen gewonnen werden. Erdgasflüssigkeiten, vor allem Ethan, werden in Crackeranlagen erhitzt, um Ethylen herzustellen, das dann zur Herstellung von Polyethylen für elektrische Drähte und Kabel verwendet wird. Rohölfraktionen, insbesondere Naphtha, werden ebenfalls zur Herstellung von Ethylen und anderen petrochemischen Rohstoffen für verschiedene Arten von Kunststoffen verwendet.
Windkraftanlagen und Solarzellen erzeugen nur Strom, wo bleibt hier also die Abkehr von fossilen Brennstoffen?
DrähteObwohl Drähte selbst aus Kupfer bestehen, einem Material mit hoher elektrischer Leitfähigkeit, ist die fossile Brennstoffindustrie eng mit ihrem Herstellungsprozess verbunden. Isolierung: Die Herstellung der isolierenden Kunststoffe für Drähte und Kabel hängt von Rohstoffen aus Erdgas und Erdöl ab. Energie: Der Abbau, die Raffination und die Herstellung von Kupferdrähten ist ein energieintensiver Prozess, der in hohem Maße auf fossile Brennstoffe angewiesen ist.
Auch hier gilt: Windkraftanlagen und Solarzellen erzeugen lediglich Strom. Wo bleibt also die Abkehr von fossilen Brennstoffen?
ComputerDie Herstellung von Computern und der darin enthaltenen Elektronik ist einer der Fossilbrennstoff-intensivsten Fertigungsprozesse pro Gewichtseinheit. Komponenten: Kunststoffe aus fossilen Treibstoffen werden in vielen Teilen eines Computers verwendet, darunter im Gehäuse, in Leiterplatten und Steckverbindern. Energieverbrauch: Die Energie, die für den Abbau, die Raffination und die Herstellung aller verschiedenen Komponenten eines Computers benötigt wird, stammt größtenteils aus fossilen Treibstoffen. Eine Studie aus dem Jahr 2004 ergab, dass die Herstellung eines einzigen Desktop-Computers das Zehnfache seines Gewichts an fossilem Treibstoff erforderte.
Windkraftanlagen und Solarzellen erzeugen ja nur Strom. Wo bleibt da die Abkehr von fossilen Brennstoffen?
DüngemittelHerkömmliche Stickstoffdünger werden unter Verwendung fossiler Treibstoffe, vor allem Erdgas, in einem Verfahren hergestellt, bei dem Stickstoff aus der Luft und aus fossilen Treibstoffen gewonnener Wasserstoff zu Ammoniak umgewandelt werden. Dieses energieintensive Verfahren, das als Haber-Bosch-Verfahren bezeichnet wird, trägt erheblich zu den globalen Treibhausgasemissionen bei. Während Phosphor- und Kaliumdünger aus abgebauten Mineralien hergestellt werden, ist die landwirtschaftliche Produktion größtenteils auf synthetische Düngemittel aus fossilen Treibstoffen angewiesen.
Mehrere Quellen schätzen, dass etwa die Hälfte der weltweiten Nahrungsmittelproduktion von synthetischen Düngemitteln abhängig ist.
• Ohne den Einsatz von Düngemitteln würden die weltweiten Ernteerträge um schätzungsweise 30 bis 50 % zurückgehen.
Wichtige Statistiken zur weltweiten Abhängigkeit von Düngemitteln:
• Versorgt Milliarden: Allein synthetische Stickstoffdünger versorgen schätzungsweise etwa die Hälfte der Weltbevölkerung mit Nahrung. Das Haber-Bosch-Verfahren, mit dem diese Düngemittel hergestellt werden, hat vermutlich das Leben von mindestens 3 bis 3,5 Milliarden Menschen ermöglicht.
• Ertragssteigerungen: Studien zur Pflanzenproduktion führen zwischen 30 % und über 60 % der Ertragssteigerungen auf den Einsatz synthetischer Düngemittel zurück, wobei einige Analysen sogar eine noch höhere Abhängigkeit in tropischen Klimazonen vermuten lassen.
• Bestimmte Kulturen: Die Abhängigkeit variiert je nach Kultur und Region. In einigen Ländern wird eine unverhältnismäßig große Menge an Düngemitteln für eine einzige Kultur verwendet, wie beispielsweise Mais in den Vereinigten Staaten, Sojabohnen in Brasilien oder Palmöl in Malaysia.
• Verschiedene Nährstoffe: Während Stickstoff (N) der am häufigsten diskutierte Nährstoff für die Nahrungsmittelproduktion ist, sind auch Phosphor (P) und Kalium (K) enthaltende Düngemittel von entscheidender Bedeutung. Über die Hälfte des verwendeten Phosphordüngers stammt aus nicht erneuerbaren Quellen.
Warum ist die Abhängigkeit von Düngemitteln so groß?
• Bevölkerungswachstum: Die Weltbevölkerung ist von 1,65 Milliarden im Jahr 1900 auf heute über 8 Milliarden gestiegen. Dieses Wachstum wurde durch den dramatischen Anstieg der Nahrungsmittelproduktion unterstützt, ermöglicht durch synthetische Düngemittel.
• Höhere Erträge: Düngemittel liefern die essenziellen Makro-Nährstoffe, die Pflanzen zum Wachsen benötigen. Ohne sie wäre es unmöglich, die notwendigen hohen Erträge zu erzielen, um die Weltbevölkerung mit der vorhandenen Anbaufläche zu ernähren.
• Bodenschutz: Durch die Intensivierung der Landwirtschaft auf bestehenden Ackerflächen verringern Düngemittel die Notwendigkeit, weitere natürliche Ökosysteme in Ackerflächen umzuwandeln.
Netto-Null-Ideologien ignorieren die grundlegende Tatsache, dass Windkraftanlagen und Solarzellen lediglich Strom erzeugen und nicht die Lieferkette der von der Menschheit nachgefragten Produkte unterstützen können. Damit riskieren sie, künftigen Generationen Knappheit und Instabilität zu hinterlassen.
Link: https://www.cfact.org/2025/09/02/failures-of-the-renewables-transition-are-insults-to-taxpayers/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Das Scheitern der Energiewende ist ein Angriff auf die Steuerzahler! erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Klimawandel hat Anstieg des Meeresspiegels nicht beschleunigt – sagt aktuelle Studie
Michael Shellenberger publizierte gerade auf seiner Seite einen Hinweis zu einer Studie namens Eine globale Perspektive auf lokale Veränderungen des Meeresspiegels von Hessel G. Voortman und Rob De Vos, zwei unabhängigen Forschern aus den Niederlanden.
Zusammenfassung der Autoren:„Im Jahr 2021 veröffentlichte der IPCC neue Prognosen zum Meeresspiegelanstieg. Zum ersten Mal gaben die Prognosen
Einblick in den erwarteten relativen Meeresspiegelanstieg auf lokaler Ebene. Ein umsichtiger Planer von Küsteninfrastrukturen wird wissen wollen, wie die lokalen Prognosen im Vergleich zu den lokalen Beobachtungen ausfallen. Dieser Vergleich wurde bisher noch nicht vorgenommen. Wir haben lokale Prognosen und Beobachtungen
bezüglich der Anstiegsrate im Jahr 2020 verglichen.
Wir haben zwei Datensätze mit lokalen Meeresspiegelinformationen aus aller Welt verwendet. In beiden Datensätzen fanden wir etwa 15 % der verfügbaren Datensätze geeignet, um die Anstiegsrate im Jahr 2020 zu ermitteln. Die geografische Abdeckung der geeigneten Standorte ist schlecht, wobei sich die meisten geeigneten Standorte auf der Nordhalbkugel befinden. Lateinamerika und Afrika sind stark unterrepräsentiert.
An allen ausgewählten Datensätzen wurden statistische Tests durchgeführt, wobei die Beschleunigung des Meeresspiegelanstiegs als Hypothese zugrunde gelegt wurde. In beiden Datensätzen zeigen etwa 95 % der geeigneten Standorte keine statistisch signifikante Beschleunigung der Geschwindigkeit des Meeresspiegelanstiegs. Die Untersuchung legt nahe, daß lokale, nicht klimatische Phänomene eine plausible Ursache für den beschleunigten Anstieg des Meeresspiegels sind, der an den verbleibenden 5 % der geeigneten Standorte beobachtet wurde. Im Durchschnitt ist die vom IPCC prognostizierte Anstiegsrate im Vergleich zur beobachteten Rate um etwa 2 mm pro Jahr nach oben verzerrt.“
Der Beitrag Klimawandel hat Anstieg des Meeresspiegels nicht beschleunigt – sagt aktuelle Studie erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Klimawandel für Laien
Vorbemerkung der EIKE-Redaktion: Hier beschreibt jemand, der sich selbst als „kein Naturwissenschaftler, also kein Experte und keine Autorität in Sachen Klima“ bezeichnet, aber über viel gesunden Menschenverstand verfügt, die zunehmende Diskrepanz bzgl. Klima und Energie zwischen der allgemeinen Propaganda und der Realität. Diese Diskrepanz wird immer größer, und weil wir von EIKE hoffen, dass baldmöglichst noch mehr Menschen darauf aufmerksam werden, ehe der durch diese Propaganda bereits angerichtete Schaden noch schlimmer wird als ohnehin schon, wird dieser Beitrag hier veröffentlicht.
Hans Rudolph Tscheulin 1. Die Frage oder das ProblemMüssen und können wir Menschen das Klima der Erde überhaupt retten?
Dazu müssten wir wissen, in welchem, womöglich schlimmen Zustand es sich befindet oder auf welche Katastrophen es sich zubewegt, aber auch, wie man das bewerkstelligen könnte. Als Laie kann man allerdings nur beobachten, aber nicht beurteilen. Zum Beispiel kann auch ein Nicht-Fachmann feststellen, dass ein Zug entgleist oder ein Flugzeug abgestürzt ist. Aber nur ein Fachmann kann feststellen, triviale Gründe einmal ausgenommen, weshalb der Zug entgleist oder das Flugzeug abgestürzt ist.
Auch für die Beurteilung eines möglichen, vielleicht sogar katastrophalen Wandels des Klimas und der korrigierenden Massnahmen sind Fachleute zuständig. Es gibt sie; also muss man sich ihre Meinungen anschauen.
Beim Thema „Klimakatastrophe“ bieten sich einem Laien allerdings gleich drei Probleme.
– Er kann keine Klimakatastrophe beobachten.[20]
– Er ist daher auch nicht in der Lage zu beurteilen, wie man ihr begegnen könnte.
– Er kann den angeblichen Einfluss des Kohlenstoffdioxids auf das Klima nicht beurteilen.
Kurz: Wie kann man den Einfluss des CO2 auf das Klima beschreiben und bewerten statt von subjektiven Eindrücken auszugehen?
2. Autoritäten und ExpertenNaturwissenschaftler und Universitäten geniessen Autorität. Zu Recht, sie haben sich diese errungen. Sie sind imstande zu beschreiben, vielleicht nicht gerade das, „was die Welt im Innersten“, aber sonst zusammenhält, wie sie funktioniert und wie der Mensch die Kräfte der Natur benutzen kann. Sie müssen nicht einmal beweisen, dass sie recht haben, denn die Wirklichkeit bestätigt es, falls es stimmt, was sie annehmen und behaupten.
Regierungen und Parlamente verfügen auch darüber; man hat sie ihnen verliehen, und sie benötigen sie auch, damit sie die Aufgaben, die man ihnen übertragen hat, erfüllen können. Auch hier stellt sich immer die Frage, ob das, was sie tun, richtig und nötig ist. Die Antwort darauf ist manchmal ziemlich schwierig, etwa deshalb, weil hier die Politik hinein spielt. Politik ist, wie man weiss, manchmal auch der Versuch, aus Behauptungen und Vorstellungen eine Wirklichkeit zu machen.
3. LaienLaien sind keine Fachleute und haben deshalb keine Autorität. Sie können nur entgegen nehmen, was ihnen die Experten vortragen, nicht selbst beurteilen, ob es stimmt und nur versuchen zu verstehen, worum es sich handelt und ob sich die Fachleute einigermassen einig sind in dem, was sie behaupten.
Falls man als Laie bei den Experten Widersprüche findet, kann man sich entweder einer Gruppe anschliessen und glauben, was diese behauptet, oder man kann auf diese Widersprüche aufmerksam machen und zeigen, dass ein Thema nicht abschliessend erledigt ist, wenn es sie gibt.
Ich bin kein Naturwissenschaftler, also kein Experte und keine Autorität in Sachen Klima. Mir sind aber solche Widersprüche oder Sonderbarkeiten aufgefallen. Statt mich einer Gruppe anzuschliessen, etwa jener, die von einer Klimasensitivität (ich komme gleich darauf zurück) von 0.6°C ausgeht, und das zu glauben, ziehe ich es vor, auf all das hin zu weisen, was mir nicht recht zusammen zu passen scheint.
4. Der WeltklimaratDie meisten Menschen, also auch die sich für zuständig haltenden Politiker, sind Laien in Sachen Klima. Sie benötigen Informationen von Seiten der Experten, also der Naturwissenschaft. Diese sind sich, wie man noch sehen wird, allerdings nicht einig, so dass eine Einrichtung auf die Beine gestellt wurde, die das, was die Autoritäten herausfinden, zusammenfasst und begutachtet. Sie nennt sich „IPCC“, „Intergovernmental Panel on Climate Change“, auf Deutsch auch „Weltklimarat“ genannt. Sie sammelt in dicken Berichten das, was die Fachleute anbieten und fasst es auf ein paar wenigen Seiten für die politischen Entscheidungsträger zusammen. Seine Informationen bilden die Grundlagen, auf denen in den so genannten Klimakonferenzen, die das UNFCCC[26] durchführt, diskutiert wird.
5. Die KlimakatastropheNaturwissenschaftler, Politiker und andere massgebende Leute behaupten, das Klima der Erde sei im Begriffe, katastrophale Formen anzunehmen. Es müsse quasi gerettet und die dafür notwendigen Massnahmen ergriffen werden. Dafür gebe es wissenschaftlich erhärtete, unwiderlegbare Beweise. Oft wird auch von einem Konsens gesprochen, also davon, dass sich fast alle Wissenschaftler auf der Erde darüber einig seien, dass es eine Klimakatastrophe gebe oder geben könnte und man sie vermeiden müsse.
6. Der angebliche KonsensDieser Konsens existiert allerdings nicht. Das behaupte nicht ich, sondern zum Beispiel Prof. Mike Hulme vom Tyndall Centre for Climate Change Research an der University of East Anglia in Norwich, UK. Er schrieb:
„Das UN-Intergovernmental Panel on Climate Change führt die Presse und Öffentlichkeit mit der Behauptung in die Irre, dass Tausende von Wissenschaftlern seine Ansprüche auf die vom Menschen verursachte globale Erwärmung unterstützten. Die tatsächliche Zahl der Wissenschaftler, die diese Behauptung unterstützen, sind nur ein paar Dutzend Experten. Behauptungen wie ‚2500 der weltweit führenden Wissenschaftler seien im Konsens darüber, dass menschliche Aktivitäten einen signifikanten Einfluss auf das Klima haben‘, sind unaufrichtig. Das macht das IPCC anfällig für Kritik von aussen.“ [1]
Diese „unaufrichtige Behauptung“ hört man aber nicht nur aus dem Munde des IPCC. Vor allem die Medien, oder doch ein beträchtlicher Teil von ihnen, behaupten ständig, fast 100% der Wissenschaftler hielten den Klimawandel für vom Menschen verursacht.
7. Der KlimawandelSeit gut 150 Jahren ist es auf der Erde wärmer geworden. Das IPCC geht von etwa 0.85°C aus [3]. Das Observatorium Hohenpeissenberg hat einmal zirka 1.5°C ausgewiesen. Andere Stationen melden andere Anstiege. Die genauen Werte, wenn es sie überhaupt gibt, sind nur wichtig bei der Bestimmung der sogenannten Klimasensitivität des CO2. Uns Laien interessieren sie nicht oder nur insofern, als es eben spürbar wärmer geworden und die Kleine Eiszeit vorüber ist.
Der Ausdruck „Klimawandel“ scheint mir diesen Anstieg der Temperatur allerdings zu übertreiben. Für einen richtigen Wandel sind um die 10°C nötig. Das kann man an den Klimazonen der Erde feststellen. [2] Vielleicht hat man ihn deshalb gewählt, um das bisschen Erwärmung zu einer Art Katastrophe machen zu können.
Mir würde eine „Klimaschwankung“ genügen und dem Geschehen angemessen sein.
8. Eine KatastropheIch habe das Wort „Katastrophe“ in keinem Texte des IPCC gefunden, allerdings auch nicht gründlich danach gesucht, wahrscheinlich deshalb, weil es sich dabei um ein plötzlich auftretendes, schlimmes Ereignis handelt, dem man zuschauen kann. Ein Klima dagegen benötigt mindestens 30 Jahre Wettergeschehen oder ist das, was sich in 30 Jahren aus dem Wettergeschehen ergibt.
Es müsste sich also um eine schleichend daher kommende Katastrophe handeln. Vielleicht gibt es so etwas.
Diese angebliche Katastrophe soll als schlimme Erwärmung auftreten und alles Mögliche verursachen, etwa einen gefährlichen Anstieg des Meeresspiegels, Dürren oder Überschwemmungen oder was man sich sonst noch einfallen lassen kann.
9. Der angebliche Grund für diese ErwärmungRegierungen, Parlamente, Industrie-Unternehmen und eine Menge anderer Leute nehmen an, daran sei das CO2 schuld, das die Menschheit seit diesen etwa 150 Jahren in die Atmosphäre brachte, indem sie Erdöl, Erdgas und Kohle verbrennt. Selbst das IPCC geht davon aus und schreibt etwa, es sei „extrem wahrscheinlich, dass diese menschlichen Aktivitäten mehr als die Hälfte des beobachteten Anstiegs der Temperaturen zwischen 1951 und 2010 bewirkten“ [3]. Andere gehen von 100% aus.
Die Annahme ist nicht aus der Luft gegriffen. Das CO2 in der Atmosphäre kann vom Erdboden abgestrahltes langwelliges Infrarot absorbieren und erwärmt sich dabei. Ich habe mich allerdings gefragt, ob, laienhaft formuliert, die Wärme dort sitzen bleiben muss und nicht wieder verschwindet. Mehr dazu unter „OLR“.
10. Der TreibhauseffektDieser soll hinter der festgestellten Erwärmung stecken. Das IPCC schreibt dazu:
„The Greenhouse Effect – Some of the infrared radiation passes through the atmosphere but most is absorbed and re-emitted in all directions by greenhouse gas molecules and clouds. The effect of this is to warm the Earth’s surface and the lower atmosphere.” [7] Allerdings scheint der Einfluss dieser „clouds“ noch zu wenig genau bekannt zu sein. [14]
11. Die mittlere ErdtemperaturDadurch steigt natürlich (oder angeblich) die mittlere Erdtemperatur ständig. Wie hoch ist sie oder war sie überhaupt?
Dazu findet man eine Menge Informationen. Man hat sie mithilfe eines „idealisierten Modells der Erde“ berechnet und kommt auf einen Wert von -18°C ohne diesen Treibhauseffekt. In den Berichten des IPCC fand ich allerdings nur noch Angaben zu Abweichungen von einer solchen Temperatur, aber nichts zu ihrem effektiven Werte. [24] Dem Weltklimarat scheinen auch die -18°C nicht zu gefallen. Er schrieb: „Without the natural greenhouse effect, the average temperature at Earth’s surface would be below the freezing point of water.” [7]
Zum absoluten Werte schwirren eine Menge Angaben herum. Ich habe von 14°C bis 17°C mehrere gefunden. [9]
12. Das wärmste Jahr seit Beginn der AufzeichnungenIn letzter Zeit kann man in den Medien immer wieder lesen, das gerade abgelaufene oder sich zu Ende neigende Jahr sei das wärmste seit Beginn der Aufzeichnungen gewesen. Ich werde darüber noch nachdenken müssen…
13. Das Klima-Abkommen von Paris 2015Die angeblich katastrophale Erwärmung der Erde soll nun gestoppt werden. „Das Übereinkommen wurde am 12. Dezember 2015 auf der UN-Klimakonferenz in Paris (COP 21) von allen Vertragsparteien der UNFCCC, seinerzeit 195 Staaten und die Europäische Union, verabschiedet und sieht die Begrenzung der menschengemachten globalen Erwärmung auf deutlich unter 2 °C gegenüber vorindustriellen Werten vor.“ [10]
Das Mittel, mit dem dieses Ziel erreicht werden soll, ist, diesen Ausstoss von CO2 durch den Menschen auf null zu senken. Mit anderen Worten: Die Menschheit soll auf Erdöl, Erdgas und Kohle verzichten, denn es wird angenommen, dass das Kohlenstoffdioxid für die Erwärmung verantwortlich sei.
Diese Forderung hat einen sehr grossen Einfluss auf unsere Energie-Wirtschaft, denn auch unser Parlament hat das Abkommen ratifiziert. Das Stimmvolk wurde allerdings nicht gefragt. Es hätte wahrscheinlich zugestimmt, denn es ist der Meinung: Wenn etwas getan werden muss, dann muss man es tun und nicht nur schwatzen. (Auf der anderen Seite gehört es auch zu unseren Eigenschaften, etwas, was unnötig ist, aufzugeben.)
Ist es überhaupt nötig zu versuchen, die Erwärmung der Erde aufzuhalten, abgesehen davon, ob es auch möglich ist?
Dazu gibt es eine bemerkenswerte Aussage von Jim Skea, dem Chef des renommierten Weltklimarats IPCC. Er verkündete: „Die Welt wird nicht untergehen, wenn es um mehr als 1,5 Grad wärmer wird.“ Die Menschheit werde „auch bei 1,5 Grad Erwärmung nicht aussterben“.[22] Allerdings ist er der Ansicht, jede Maßnahme, die wir ergreifen, um den Klimawandel abzuschwächen, helfe – wogegen, sagte er allerdings nicht.
14. Netto NullDieser Begriff ist zu einem Schlagwort geworden. Die Klimaschützer wollen damit ein Ziel erreichen. Was bedeutet es?
„Netto-Null bedeutet, dass alle durch Menschen verursachten Treibhausgas-Emissionen durch Reduktions-Massnahmen wieder aus der Atmosphäre entfernt werden müssen und somit die Klimabilanz der Erde netto, also nach den Abzügen durch natürliche und künstliche Senken … Null beträgt. Damit wäre die Menschheit klimaneutral und die globale Temperatur würde sich stabilisieren.“ [16]
Also:
1. Der Mensch darf kein CO2 mehr in die Atmosphäre bringen, also aufhören, Kohle, Erdgas und Erdöl zu verbrennen.
2. Der Mensch muss das CO2, das er bisher in die Atmosphäre gebracht hat, wieder daraus entfernen.
3. Die durch den Menschen produzierte Erwärmung soll deutlich unter 2°C gehalten werden.
Zu Punkt 1: Emissionen von Treibhausgasen stoppen
Das ist in der aktuellen Wirtschaft sehr schwierig. Es gibt aber einen hilfreichen Mechanismus: Die Klimazertifikate.
„Das Prinzip von Klimazertifikaten und der sogenannten Kompensation ist es, den Ausstoß einer bestimmten Menge an Treibhausgasemissionen, der hierzulande nicht vermieden wird, an einem anderen Ort der Welt zu verhindern.“ [17]
Das Prinzip ist einfach. Jeder darf eine gewisse Menge CO2 in die Atmosphäre bringen. Wenn er weniger ausstösst, als er darf, bekommt er quasi einen Gutschein und darf ihn einem verkaufen, der mehr ausstösst, als er darf.
Fazit: Der Ausstoss des CO2 wird nicht gestoppt, sondern nur verlagert. Seine Konzentration ist seit der Einführung des Handels mit Zertifikaten auch weiter gestiegen. [18] Man kann es auch so formulieren: Wer sein Klimaziel angeblich erreicht hat, hat nicht weniger CO2 ausgestossen, sondern nur von seinem Rechte, es zu tun, Gebrauch gemacht.
Zu Punkt 2: Erwärmung deutlich unter 2°C halten
Mit diesem sinnreichen Mechanismus aus gleitbarer Erd-Mitteltemperatur, gleitbarem Einfluss des CO2 (ECS) und den Klima-Zertifikaten kann die Politik wahrscheinlich immer beweisen, dass ihre Massnahmen Früchte tragen, auch wenn das Kohlenstoffdioxid in der Luft zunimmt.
Was haben diese Massnahmen gebracht? In der Grafik kann man bemerken: Trotz der angeblich grossen Anstrengungen der Länder steigt die CO2-Konzentration, in den vergangenen 30 Jahren sogar noch stärker als vorher.
15. Könnten wir den Klimawandel überhaupt stoppen?Unter dem Titel „Vermeidung von Emissionen“ schreibt das IPCC:
„E.8 Klimastabilisierung, unabwendbarer Klimawandel und Irreversibilität
Die kumulativen CO2-Emissionen bestimmen weitgehend die mittlere globale Erwärmung der Erdoberfläche bis ins späte 21. Jahrhundert und darüber hinaus (siehe Abbildung SPM.10). Die meisten Aspekte des Klimawandels werden für viele Jahrhunderte bestehen bleiben, auch wenn die Emissionen von Treibhausgasen gestoppt werden. Dies bedeutet einen unabwendbaren Klimawandel von beträchtlichem Ausmaß über mehrere Jahrhunderte hinweg, der durch vergangene, gegenwärtige und zukünftige Emissionen von CO2 verursacht wird.“ [4]
Also: Der Klimawandel ist anscheinend nicht mehr aufzuhalten, so dass man sich fragen kann, weshalb wir das tun oder zu tun versuchen sollten.
16. Das IPCC und die Klimasensitivität von CO2Wenn man ein solches Projekt, das unsere Wirtschaft und Lebensweise radikal umkrempeln wird, realisieren will, muss man sich natürlich betrachten, wie gross der Einfluss der CO2-Konzentration in der Atmosphäre auf das Klima, speziell auf die Temperatur ist oder sein soll. Das IPCC bietet zu diesem Zwecke die sogenannte Klimasensitivität des CO2 an. „Die Gleichgewichts-Klimasensitivität quantifiziert die Reaktion des Klimasystems auf einen konstanten Strahlungs-Antrieb auf der Zeitskala von mehreren Jahrhunderten. Sie wird definiert als die Veränderung der globalen mittleren Erdoberflächentemperatur im Gleichgewicht, das durch eine Verdoppelung der atmosphärischen CO2-Konzentration bewirkt wird.“ [4]
Kurz: Um wieviel Grad wird es auf der Erde wärmer, wenn das CO2 in der Atmosphäre von jetzt etwa 413 ppm, das sind 0,0413%, auf etwa 826 ppm, also 0.0826% ansteigt?
17. Endlich ein sauberes KriteriumZuerst einmal finde ich es gut, dass wir nun ein Kriterium haben, mit dem wir das Problem „Klimakatastrophe“ beurteilen können. Bisher waren wir auf Angaben zu Ereignissen angewiesen, zu denen man subjektive Ansichten haben kann: Anstieg des Meeresspiegels, Schwinden des Eises, Aussterben von Tier- oder Pflanzenarten und dergleichen mehr. Ich weiss allerdings nicht, ob es diese Klimasensitivität als naturwissenschaftliche Tatsache überhaupt gibt, denn ich bin kein Fachmann. Ich nehme einmal an, sie existiere wirklich, muss mich dann aber fragen, ob das für jede Verdoppelung zutrifft. Diese Frage mag sonderbar klingen, doch sie ist berechtigt, denn es gibt Hinweise darauf, dass der Einfluss des CO2 auf das Klima, wenn es ihn denn tatsächlich gibt, nicht linear verläuft. Lindzen und Choi zeigten in einer Grafik, dass er mit zunehmender Konzentration dieses Gases in der Atmosphäre immer schwächer wird. [23]
Im zugehörigen Texte steht: „Here’s why it’s possible that doubling CO2 won’t make much difference. The carbon that’s already up in the atmosphere absorbs most of the light it can. CO2 only “soaks up” its favorite wavelengths of light, and it’s close to saturation point. It manages to grab a bit more light from wavelengths that are close to its favorite bands, but it can’t do much more, because there are not many left-over photons at the right wavelengths.“
Auf Deutsch heisst das ungefähr: „Deshalb ist es möglich, dass eine Verdoppelung des CO2-Ausstoßes keinen großen Unterschied machen wird. Der Kohlenstoff, der bereits in der Atmosphäre vorhanden ist, absorbiert den größten Teil des Lichts, das er kann. CO2 „saugt“ nur seine bevorzugten Lichtwellenlängen auf und befindet sich nahe am Sättigungspunkt. Es gelingt ihm, etwas mehr Licht aus Wellenlängen einzufangen, die nahe an seinen Lieblingsbändern liegen, aber viel mehr kann es nicht, weil bei den richtigen Wellenlängen nicht mehr viele Photonen übrig bleiben.“
18. Präzise DatenWir möchten eigentlich auch in diesem Falle, wie in anderen Belangen des Lebens, so genau wie möglich wissen, was auf uns zukommen könnte. Wir sind gewohnt an möglichst präzise Angaben zu Preisen, zu Strecken, zu Inhalten und zu Temperaturen. Beim Thema Klima möchten wir das auch, also wissen, wie dieser angebliche Einfluss des CO2 auf Wetter und Klima beschrieben und bemessen wird und wie gross und gegebenenfalls katastrophal er sein könnte.
Manchmal ist diese Angabe ziemlich einfach oder leichter durchzuführen. Man nimmt einen Massstab und misst oder eine Waage und wiegt.
Beim Klima ist es womöglich ein bisschen komplizierter. Trotzdem staune ich, wenn uns das IPCC Klimasensitivitäten zwischen 0.6°C und 9°C anbietet. [3] Das heisst: Aus dem gleichen Geschehen, nämlich der Erwärmung der Erde seit etwa 150 Jahren, kommen verschiedene Forschergruppen zu solch weit auseinander liegenden Ergebnissen. Ein paar glauben, sein Einfluss sei gering, andere meinen, er sei gewaltig.
Das IPCC hat versucht, das zu erklären. „ECS is likely in the range 1.5°C to 4.5°C with high confidence.“ Auf Deutsch heisst das etwa so: “ECS liegt mit hoher Wahrscheinlichkeit im Bereich von 1,5°C bis 4,5°C.“ In der Zusammenfassung für die politischen Entscheidungsträger tönt es ein bisschen resignierter: „Aufgrund fehlender Übereinstimmung der Werte aus den beurteilten Anhaltspunkten und Studien kann kein bester Schätzwert für die Gleichgewichts-Klimasensitivität angegeben werden.“ [4]
Man kann die ECS also nur schätzen, und das nicht einmal gut.
Im neusten Bericht des IPCC steht nun: „Die Gleichgewichtsklimasensitivität ist eine wichtige Größe, um abzuschätzen, wie das Klima auf Strahlungsantrieb reagiert. Auf der Grundlage von Belegen aus mehreren unterschiedlichen Untersuchungsansätzen … liegt die sehr wahrscheinliche Bandbreite der Gleichgewichtsklimasensitivität zwischen 2 °C (hohes Vertrauen) und 5 °C (mittleres Vertrauen). Der im AR6 ermittelte beste Schätzwert beträgt 3 °C mit einer wahrscheinlichen Bandbreite von 2,5 °C bis 4 °C (hohes Vertrauen) gegenüber 1,5 °C bis 4,5 °C im AR5, der keinen besten Schätzwert angegeben hat.“ [5]
19. 0°C fehlt
Das IPCC bietet uns Klimasensitivitäten zwischen 0.6°C und 9°C an. Das ist ein weiter Bereich und bedeutet, dass sie 0.6°C, aber auch 9°C sein kann. Oder 0°C. Es gibt nämlich Fachleute, die das behaupten [11], also davon ausgehen, dass das CO2 in der Atmosphäre keinen nennenswerten Einfluss auf die Temperatur hat. Das IPCC darf diese Fachleute allerdings nicht zitieren, denn es hat die Aufgabe, den Einfluss der „greenhouse gas emissions“ [6] zu belegen.
Ich finde, der viel gerühmte Konsens sei auch hier nicht erwiesen.
20. CO2 und ErderwärmungDas IPCC stellt eine Erhöhung der Temperatur seit 1850-1900 bis heute von rund 1,1°C fest. [25] Welcher ECS (Klimasensitivität) würde das entsprechen?
1850-1900 2020 Anstieg Faktor
– CO2-Konzentration: 285[ppm] 425[ppm] 140[ppm] 0,5 entspricht nur einer halben Verdoppelung
– Temperaturanstieg: – 1,1°C
Anscheinend geht das IPCC von einer ECS von etwa 2,2°C aus. Das ist eine willkürliche Auswahl!
Man kann sich auch fragen, um wieviel Grad es hätte wärmer werden müssen, wenn man von den Extremwerten ausgeht. Bei einer ECS von 0,6°C könnten es 0.3°C, bei einer von 9°C 4,5°C sein. Die 2,2°C sind also bloss eine der vielen Möglichkeiten und nur deshalb wahrscheinlich, weil sie zufälligerweise zur angenommenen Erwärmung der Erde passen.
Man kann es auch anders formulieren: Die angenommene Erwärmung bestimmt die Klimasensitivität; uns gegenüber wird aber das Gegenteil behauptet.
21. Die KlimamodelleDie gewünschten oder angekündigten Katastrophen sind in diesen vergangenen 150 Jahren jedoch nicht aufgetreten. Die zurück gewichenen Gletscher waren schon früher mindestens einmal so klein oder noch kleiner. Das belegen die Funde von Baumstämmen dort, wo vor wenigen Jahrzehnten noch Eis war und heute nur noch Schutt liegt. Die angeblich neuartigen katastrophalen Wetterereignisse findet man vor allem in den Medien und nicht draussen in der Natur. Soviel ich weiss, ist keine Insel wegen des Anstiegs des Meeresspiegels verschwunden.
Das sind natürlich nur meine Eindrücke.
Aber die Zukunft soll katastrophal werden, wenn wir das Klima nicht retten, oder, genauer, sie ist es ohnehin, wenn stimmt, was das IPCC unter „E.8“ schrieb. Da man nicht weiss, wie das aussehen wird, werden Modelle gemacht. Sie sollen die Temperaturen vorhersagen oder vorhersagen können. Den Leuten, die sich damit beschäftigen, gefallen die Ausdrücke „Vorhersage“ oder „Prophezeiung“ allerdings nicht und sie sprechen lieber von „Projektionen“. Nun sind Aussagen über Zukünftiges immer Vorhersagen, auch wenn sie behaupten, sie seien es nicht.
Das IPCC zeigt uns, wie diese „Projektionen“ aussehen. Unter dem Titel „Global mean temperature near−term projections relative to 1986−2005” [3] zeigt es uns, welche Temperaturanstiege es bis ins Jahr 2050 erwartet. Von 0.5°C bis 2.5°C ist alles möglich. Also auch hier herrscht kein Konsens.
Die Abbildung enthält auch die bis heute (also 2013) tatsächlich gemessenen Temperaturen, und man bemerkt mit Staunen, dass sie sich nicht mehr im Bereich der prognostizierten befinden. Fazit: Die Klimamodelle stimmen schon jetzt mit der Wirklichkeit nicht mehr überein, und sie sind anscheinend inzwischen auch nicht wesentlich besser geworden. [12]
22. Das IPCC und die Klima-ModelleDie Passage im dritten IPCC-Sachstandsbericht von 2001 (S.771 des pdf) lautet im Original: „The climate system is a coupled non-linear chaotic system, and therefore the long-term prediction of future climate states is not possible.” Auf Deutsch heisst das etwa: „Das Klimasystem ist ein gekoppeltes nichtlineares chaotisches System, und daher ist die langfristige Vorhersage zukünftiger Klimazustände nicht möglich.“
Nun könnte man natürlich einwenden, seit dieser Feststellung seien 20 Jahre vergangen und die Naturwissenschaftler besser im Bilde. Das kann sein. Die Naturwissenschaft hat die Eigenschaft, sich laufend zu verbessern – falls man sie dabei nicht stört und zwingt, Resultate zu liefern, die zwar nicht stimmen, aber zum Beispiel den Politikern passen. Es stellt sich allerdings eine ganz andere Frage, nämlich diese: Ist das Klima – oder zumindest das Wetter – heute linear und nicht mehr chaotisch? Unter „linear“ kann man sich wahrscheinlich „leicht extrapolierbar“ vorstellen.
Ich bin, wie gesagt, Laie und kann das nicht entscheiden, nehme allerdings an, die Unberechenbarkeit von Wetter und Klima sei immer noch vorhanden und eine Vorhersage auf lange Frist nach wie vor nicht möglich.
Deshalb drängt sich sogleich eine andere Frage auf: Weshalb veröffentlicht das IPCC heute diese Modelle, wenn es sie selbst, allerdings nicht offen formuliert, für Unsinn hält? Ich kann es nur vermuten: Es wird von seinen Auftraggebern gezwungen, das zu tun. Sie wollen eine Klimakatastrophe haben, und weil es diese bis jetzt nicht gibt, sie erst in Zukunft erscheinen wird, muss diese Zukunft vorhergesagt werden.
23. Die Aussagen des IPCC von 2023„Beobachtete Erwärmung und ihre Ursachen A.1 Menschliche Aktivitäten haben eindeutig die globale Erwärmung verursacht, vor allem durch die Emission von Treibhausgasen“[19]
Das IPCC behauptet, die globale Erwärmung, wahrscheinlich seit etwa 150 Jahren, sei eindeutig unsere Schuld oder unser Verdienst oder unseren Aktivitäten zuzuschreiben. Unter diesen Treibhausgasen versteht es vor allem das CO2.
Wie „eindeutig“ ist das nun?
1. Der angebliche Einfluss des CO2 auf das Klima ist ihm nicht bekannt, auch wenn es das behauptet. Es gibt womöglich Leute, denen dieser weite Bereich zwischen 0.6°C und 9°C gefällt. Sie nehmen an, es sei dem IPCC eben gelungen. alle möglichen Klimasensitivitäten zu finden. Ich dagegen bin der Meinung, dass gerade dies ein Zeichen dafür ist, dass es ihm nicht gelungen ist, die wirkliche Klimasensitivität zu finden.
2. Die Modelle, die die Temperaturen der Zukunft vorhersagen können wollen und höchst wahrscheinlich auf diesen Klimasensitivitäten beruhen, stimmen schon jetzt nicht mehr.
3. Die Verläufe von Temperatur und CO2-Konzentration seit etwa 1960 korrelieren nicht eindeutig.
4. Die Temperaturen sind seit 2000 nicht mehr gestiegen.[3]
Fazit: Die Behauptung des IPCC wird von den Daten, die es selbst liefert, nicht unterstützt. Es kann sein, dass menschliche Aktivitäten die globale Erwärmung verursachen, aber es ist nicht eindeutig.
24. Der angebliche Gleichlauf von Temperatur und CO2-KonzentrationWenn das Kohlenstoffdioxid imstande sein soll, die Erde zu erwärmen, dann erwartet man auch zu sehen, dass diese Werte gleich verlaufen, also positiv korrelieren. Beim Betrachten der Zeit zwischen 1958 und 2013 kann man feststellen:
Die CO2-Konzentration ist ziemlich gleichmässig von etwa 320 ppm auf etwa 400 ppm gestiegen, aber nie gesunken. Die Temperatur dagegen zeigt einen anderen Verlauf. [18] Bis in die 1970er-Jahre sank sie, und man warnte uns sogar vor einer neuen Eiszeit. Sie stieg wieder bis etwa ins Jahr 1998, worauf sie auf dem Niveau verharrte, was das IPCC dazu brachte, 2013 den folgenden Kommentar abzugeben: „“Fifteen-year-long hiatus periods are common in both the observed and CMIP5 historical GMST time series.” [3] Auf Deutsch etwa: Es wurde 15 Jahre lang nicht wärmer.
Die Temperatur kann demnach bei steigender CO2-Konzentration sowohl sinken als auch gleich bleiben.
25. OLRAuch ein blutiger Laie in Sachen Klima, also zum Beispiel ich, kann sich fragen, ob nicht nur gemessen oder berechnet wird, welche Wärme die Erde von der Sonne erhält, sondern auch, wie viel sie wieder abgibt. Das muss sie tun; sonst wäre sie längst verbrannt.
Es wird tatsächlich gemacht. Seit 1978 umkreisen Satelliten die Erde und messen die „Outgoing Longwave Radiation“, mit OLR abgekürzt. Es ist die von der Erde abgestrahlte Energie. Man kann versuchen zu bestimmen, wie gross ihr Wert ist und kommt zum Beispiel auf Leistungsdichten zwischen 224 W/m2 und 233 W/m2. [13]
Das IPCC liefert in seiner Abbildung, die den angeblichen Treibhauseffekt darstellt, nur einen Pfeil in Richtung Weltall, aber keinen Wert. [7] Den findet man zum Beispiel in einer Publikation der ETH Zürich. [8] Unter „Strahlungsbilanz der Erde“ steht, dass 239.9 W/m2 die Erde verlassen. Das stimmt zwar nicht mit meiner gefundenen OLR überein, liegt aber in ihrer Nähe.
26. Versuch eines Meinungsaustauschs mit der NaturwissenschaftDie eben zitierte Abbildung der ETH Zürich enthält auch eine Angabe zur Einstrahlung der Sonne auf den Ort der Erde. Er wird mit 340.4 W/m2 angegeben. Das kann nicht stimmen. Die sogenannte Solarkonstante beträgt etwa 1‘360 W/m2.
Also begab ich mich quasi in die Höhle des Löwen und fragte bei der Universität nach. Das sei so zu verstehen, wurde mir geschrieben: Die Solarkonstante müsse durch vier geteilt werden, weil der Querschnitt der Erde einen Viertel ihrer Oberfläche ausmacht. Das sei richtig, lenkte ich ein; aber sie dürfe nicht rechnerisch manipuliert werden, denn sie sei eine intensive Grösse. Ein anderes Beispiel eines solchen Wertes: Die Regenmenge. Wenn es in der Gemeinde einmal einen Liter pro Quadratmeter regne, dann auch in meinem Garten, obwohl der viel kleiner ist.
Auf diesen Einwand wurde mir mitgeteilt, dass man unsere Korrespondenz beende, wenn ich es nicht begreife, was dann auch geschah. Ich konnte und kann es nicht begreifen, einfach deshalb, weil es falsch ist.
Ein Hinweis darauf, dass ich richtig liege, liefert anscheinend das IPCC selbst. Ich kann mich noch erinnern, dass es Ende der 1990er-Jahre eine solche Darstellung der Strahlungsbilanz der Erde lieferte, die Quelle aber nicht mehr finden, es unterdessen aber auf die Nennung von Werten verzichtet. Anscheinend ist ihm selbst aufgefallen, dass sie nicht stimmen können.
Das heisst: Als Laie findet man bei den Fachleuten kein Gehör – auch wenn man womöglich recht hat.
27. KlimaaktivistenSie schwänzen die Schule, demonstrieren gegen die Politiker, die in ihren Augen nicht genügend tun, um unsere Erde zu retten. Neuerdings kleben sie sich mit schnell aushärtendem Beton auf Strassen und Plätzen fest.
Ich habe mich früher auch ein bisschen oder sogar ein bisschen mehr über sie aufgeregt. Heute kann ich sie verstehen, obwohl es mich nicht gelüstet, mit ihnen zu ziehen. Sie reagieren einfach auf die wilden Drohungen mit einer Klima-Katastrophe. Sie können ihre Besorgnis nicht zurückhalten. Es drängt sich ein Vergleich mit der Kernenergie auf. Schon kurz nach ihrer Entdeckung wurde die Menschheit mit Bomben in Angst und Schrecken versetzt. Kein Wunder also, wenn sie sich dieser Technik, die man, wenn man klug und nicht mit Machogehabe vorgeht, zu friedlichen Zwecken nutzen kann, widersetzt und gegen den Bau von AKWs protestiert oder Transporte mit „Atommüll“ behindert.
Es gehört zur Tragik des Menschen, dass er das, was er erfindet, nicht nur zu seinem Wohle, sondern auch zu seinem Verderben benutzt.
28. Meine SchlussfolgerungenIPCC macht unterschiedliche Äusserungen
Man kann feststellen, dass zwischen dem, was das IPCC in seinen Berichten, manchmal mit „grossem“ oder auch „mittleren Vertrauen“ schreibt und dem, was es der Politik nebenbei auch noch empfiehlt, Unterschiede gibt. Ich nehme an, dass sich das deshalb so verhält, weil es selbst ein Geschöpf dieser Politik ist und ihr daher gehorchen muss. Prof. Thomas Stocker, ein leitendes Mitglied des Weltklimarats, hat das einmal so formuliert: „Grundsätzlich ist es im IPCC Sache der Politik zu entscheiden, was sie von der Wissenschaft will.“ [15]
Man kann auch feststellen, dass die Fachleute zu unterschiedlichen Meinungen gelangen, auch wenn sie angeblich das gleiche Thema bearbeiten. Man müsste diese Widersprüche eigentlich beseitigen, tut es aber nicht; vielleicht benötigt man sie und die damit einhergehende Verwirrung, um eine unsichere Klimapolitik zu betreiben.
Was wäre eigentlich zu tun?
Es wird verlangt, die Menschheit müsse die katastrophale Erderwärmung stoppen. Was könnte sie machen? Aus den Vorgaben des IPCC lassen sich keine klaren Vorgehensweisen ermitteln.
– Wenn sich die Erde nur um 0.26°C erwärmt, dann tun wir schon jetzt viel zu viel.
– Wenn es 9°C sind, dann tun wir viel zu wenig.
– Wenn es 0°C sind, dann ist ohnehin alles unnötig.
Fazit: Wenn man nicht genau weiss, was man machen muss, dann macht man nichts.
29. Der Klimawandel ist angeblich nur schlimmEs ist mir auch aufgefallen, dass diejenigen, die sich zu diesem von mir „Klimaschwankung“ bezeichneten Vorgang äussern, immer nur davon ausgehen, dass sie katastrophal sei oder es sein werde. Es gibt allerdings auch positive Aspekte, etwa die Tatsache, dass die Erde grüner geworden ist. [17] Das versteht sich von selbst. Die grünen Pflanzen benötigen das CO2 für ihr Gedeihen. Je mehr es davon hat, umso besser für sie, wobei sie sich aber nicht überfressen. Sie benötigen nicht zu viel des Guten; aber eine Verdreifachung der Konzentration dieses Gases tut ihnen gut.
30. Politische EntscheidungsträgerDas IPCC fasst seine dicken Berichte für die so genannten „politischen Entscheidungsträger“ auf 30 bis 40 Seiten zusammen. Das ist vernünftig, denn diejenigen, die handeln müssen, benötigen nur seine Schlussfolgerungen. In der Schweiz gehören jede Stimmbürgerin und jeder Stimmbürger dazu. Das heisst: Das Stimmvolk in der Schweiz muss diese Zusammenfassung lesen.
Quellen
Der Text ist in Englisch. Ich habe ihn sinngemäss ins Deutsche übersetzt.
[2] http://www.wetter-eggerszell.de/wetterinfos/wetter-und-klima/klimazonen/index.html
Als Beispiel: Polar -23°C, subpolar -7°C, gemässigt 5°C, subtropisch 22°C, tropisch 26°C
[3] WG1AR5_TS_FINAL.PDF; Seite 37, TS.2.2 Changes in Temperature;
Seite 83, TFE.6 Figure 1;
Seite 87, Figure TS.14;
Seite 61, Box TS.3 Man kann feststellen, dass die Modelle bereits jetzt neben der Wirklichkeit liegen.
[4] WG1AR5_SPM_brochure_1[de].PDF; Seite 26, E.8; Seite 14, D.2; Seite 14, Fussnote 16;
[5] https://www.de-ipcc.de/media/content/AR6-WGI-SPM_deutsch_barrierefrei.pdf
[6] https://www.ipcc.ch/about/
[7] http://www.ipcc.ch/publications_and_data/ar4/wg1/en/faq-1-3.html
Die Beschreibung ist heute nicht mehr unter dieser URL zu finden. Der folgende Link bietet das Gleiche an:
[9] Rainer Hoffmann hat das aufgedeckt. https://www.klimamanifest-von-heiligenroth.de/wp/
[10] Wikipedia zu „Pariser Klimaabkommen“
[11] Falsifizierung der atmosphärischen CO2 – Treibhauseffekte im Rahmen der Physik, Gerhard Gerlich und Ralf D. Tscheuschner
[13] Meine zugegebenermassen laienhafte Versuche, aus Informationen von NASA, NOAA, CERES, CAWCR, UAH- MSU und IPCC einen Wert zu eruieren.
[15] https://climatehomes.unibe.ch/~stocker/papers/stocker13unipress.pdf
[16] https://www.myclimate.org/de/informieren/faq/faq-detail/was-bedeutet-netto-null-emissionen/
[18] https://www.deutsches-klima-konsortium.de/co2konzentration
[20] https://vademecum.brandenberger.eu/grafiken/klima/tempco22008.gif
[21] https://www.de-ipcc.de/media/content/Hauptaussagen_AR6-SYR.pdf
[22] Es wird etwa behauptet, die ideale Erd-Mitteltemperatur, falls es so etwas überhaupt gibt, sei +15°C. Andere Quellen melden, sie liege im Moment bei +14.7°C. Das würde bedeuten, dass die angeblich vorhandene Klima-Katastrophe noch nicht einmal begonnen hat.
[23] https://uncutnews.ch/nasa-globale-erwaermung-existiert-nicht/
[25] https://joannenova.com.au/2010/02/4-carbon-dioxide-is-already-absorbing-almost-all-it-can/
[26] Beobachtete globale mittlere kombinierte Land- und Ozean-Oberflächentemperaturabweichung von 1850 bis 2012
WG1AR5_TS_FINAL.PDF; Seite 4
[27] AR6-WGI-SMP_deutsch_barrierefrei.PDF
[28] Die Klimarahmenkonvention der Vereinten Nationen (United Nations Framework Convention on Climate Change, UNFCCC) wurde 1992 in Rio de Janeiro von 154 Staaten unterzeichnet und trat 1994 in Kraft.
Der Beitrag Klimawandel für Laien erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kältereport Nr. 35 / 2025
Meldungen vom 1. September 2025:
Australien: Massive Schneefälle zum Ende des WintersEin Schneesturm hat Australiens Skigebiete unter der höchsten Schneedecke seit Jahren begraben.
In den Skigebieten in den Australischen Alpen wurden ebenso beeindruckende Schneemengen gemessen: Am Mount Buller in Victoria fielen in nur zwei Tagen 53 cm. Hotham verzeichnete 77 cm, Thredbo 71 cm, Perisher 67 cm, Charlotte Pass 70 cm, Falls Creek 69 cm und Buller 62 cm. Der Schnee erreichte sogar niedrigere Lagen westlich von Sydney: „der stärkste Schneefall seit Jahren“, so die Einheimischen.
An der Referenzstation von Snowy Hydro in Spencers Creek, NSW – auf halbem Weg zwischen Perisher und Thredbo gelegen – wurde am 1. September eine Schneehöhe von 220,4 cm gemessen, die höchste Schneedecke an diesem Tag seit 2019 und das erste Mal seit 2022, dass die 2-Meter-Marke überschritten worden ist. In Victoria meldete Mt Hotham eine Basis von 159 cm und Falls Creek 143 cm.
Zwei große Schneestürme in weniger als einem Monat – der erste Anfang August, der zweite zum Abschluss des Winters – haben das Jahr 2025 als eine der schneereichsten Saisons des Jahrhunderts für die alpinen Regionen Australiens bestätigt – das Gegenteil der CAGW-Märchen.
…
—————————-
USA: Lang anhaltende Kältewelle in der OsthälfteWie schon in der letzten Woche wird ein intensiver Kaltluftvorstoß bis weit in den September hinein extreme Anomalien über weite Teile der USA bringen und weitere Rekorde brechen.
In dieser Woche werden von den Dakotas über den Mittleren Westen bis ins Ohio Valley verbreitet Abweichungen von 10-15 °C unter dem Durchschnitt erwartet. Die Kälte zieht dann bis zum Wochenende weiter nach Süden und Osten und erfasst die Plains, die Appalachen und sogar den Süden.
…
Nördlich der Grenze gibt es ebenfalls Gebiete mit anomaler Kälte. Ontario erwachte am Wochenende mit extremen Tiefstwerten, wobei mehrere Orte mit historischen Augustrekorden aufwarteten.
In Toronto Pearson fiel die Temperatur auf 7,8 °C, den niedrigsten Augustwert seit 1989. Windsor verzeichnete mit 6,5 °C den niedrigsten Augustwert seit 1982. Anderswo sank die Temperatur in Bancroft auf 2,3°C und in Delhi auf nur 1,3°C – Werte, die eher in den Oktober passen.
—————————-
Europa: Der prophezeite „Höllensommer“ ist niemals gekommenDas Establishment hat monatelang vor einem „Höllensommer“ in Europa im Jahr 2025 gewarnt – extreme Hitze, endlose Dürre, mehr Todesfälle. Er ist nie eingetroffen.
Nehmen wir Deutschland, das angebliche Epizentrum des Infernos. Die offizielle Definition einer Hitzewelle hier (TINZ et al. 2008) erfordert fünf aufeinanderfolgende Tage mit Temperaturen über 30 Grad Celsius. Im Jahr 2025 gab es kein einziges solches Ereignis. Kein einziges. Dennoch gab der Deutsche Wetterdienst (DWD) „Hitzewarnungen“ heraus.
Ein weiterer aufschlussreicher Datensatz stammt von den Berliner Freibädern, die aufgrund einer Saison, die nach Aussage der Betreiber „einfach zu kühl und zu regnerisch“ war, einen Rückgang der Besucherzahlen um 20 % hinnehmen mussten. Bis Mitte August zählten die Bäder 300.000 Besuche weniger als im Jahr 2024. Kühle Nächte ließen die Wassertemperaturen bis 18 Grad sinken.
Die Berliner Zeitung berichtet von „geringen Besucherzahlen“ aufgrund einer Saison, die „als eine der wärmsten in der Geschichte prophezeit worden war“. Was Europa stattdessen bekam, war eine weitere krasse Erinnerung daran, dass die Klimaindustrie von PR lebt.
—————————-
Meldungen vom 2. September 2025:
USA: Washington, D.C. verzeichnet den kältesten August seit 25 JahrenWashington, D.C., hat gerade den kältesten August seit 2000 verzeichnet.
Der Monatsdurchschnitt lag bei 24,3°C, was 3,2°C unter dem heutigen Durchschnitt ist. Mit nur 5 mm Niederschlag war es auch der trockenste August seit Beginn der Aufzeichnungen.
Die Washington Post weist darauf hin, dass der kälteste August 1927 mit einem Mittelwert von 21,1 °C aufgezeichnet worden war, lässt aber außer Acht, dass der August 2025 einige beeindruckende historische Referenzwerte übertrifft. Er war zum Beispiel kälter als der August 1872 – vor 153 Jahren.
Die Abkühlung beschränkte sich auch nicht auf die Hauptstadt.
Die nachstehende Grafik zeigt, dass ein Großteil des Ostens und der Mitte der USA im vergangenen Monat unter dem Durchschnitt lag und damit der gängigen MSM-Propaganda zuwiderlief:
Die letzte Augustwoche war besonders kühl, und es fiel eine Reihe von Rekorden.
Sogar die Wärme verherrlichende, den UHI ignorierende Datenzusammenfassung der NOAA zeigt, dass die USA in der letzten Augustwoche 76 neue monatliche Kälte-Rekorde aufstellten gegenüber nur einem für die Wärme. Außerdem wurden 1012 tägliche Tiefsttemperaturrekorde gebrochen, während es bei den Höchsttemperaturen nur 407 waren.
—————————-
Südamerika: Schneemassen in den AndenDie Berge der Anden waren in der vergangenen Woche Schauplatz heftiger Schneefälle, und die chilenischen und argentinischen Skigebiete verzeichneten einige der stärksten Schneefälle der Saison.
Valle Nevado meldete mehr als 150 cm Schnee in sieben Tagen, fast die Hälfte der gesamten Schneemenge der Saison, die in einem einzigen Tag fiel. In Ski Portillo fielen in nur vier Tagen 90 cm Neuschnee, genug, um den Berg in vollem Wintermodus wieder zu öffnen. Und in La Parva fielen zwei Drittel der gesamten Schneemenge der Saison während dieses einen einzigen Sturms.
Entsprechend stieg die Lawinengefahr. In La Parva riss eine Lawine mehrere Skifahrer mit sich.
Der Schnee erreicht auch niedrigere Lagen, darunter das argentinische Valle de Pancanta in San Luis.
—————————-
Arktis: Russisches Schiff im Eis stecken gebliebenDie Schlagzeilen behaupten, dass die Arktis „bis 2027 eisfrei“ sein könnte. Eine in Nature Communications veröffentlichte Studie unter der Leitung von Forschern der Universitäten von Colorado und Göteborg geht anhand von 300 Modellläufen davon aus, dass der erste „eisfreie Sommertag“ innerhalb weniger Jahre eintreten könnte.
Aber solche Prophezeiungen sind nichts Neues – und sie sind ausnahmslos gescheitert. Die Öffentlichkeit wurde vor einer „eisfreien Arktis“ im Jahr 2000, 2013, 2016 und 2020 gewarnt. Nichts davon ist eingetreten. Nicht einmal annähernd.
Der Hype hat auch eine lange Geschichte.
Am 2. November 1922 brachte die Washington Post – natürlich – Berichte aus Norwegen, in denen von einer Erwärmung der Arktis, schwindenden Gletschern, seltenen Robben und nach Norden wandernden Fischarten die Rede war.
Es hieß, dass das Eis bis zum Norden auf 81°29′ verschwindet. Das war vor 103 Jahren:
Heute ist das Meereis noch lange nicht verschwunden, sondern behindert die Schifffahrt weiterhin.
Am Freitag (29. August) musste der russische Flüssiggastanker Arctic Metagaz in der Nähe der Ostsibirischen See anhalten und seinen Kurs ändern, nachdem er auf schwere Sommereisschollen gestoßen war.
Russische Seekarten zeigten, dass das Sommereis in der Ostsibirischen See weit verbreitet ist, mit Konzentrationen, die je nach Ort zwischen 10 und 60 % variieren, einschließlich der auf dem Meeresboden verankerten Hummocks (massive, unbewegliche, aufgetürmte Druckrücken, die oft am Meeresboden verankert sind).
Selbst der nukleare Eisbrecher Sibir hatte Schwierigkeiten, die Fahrspuren zu räumen.
Graphik: AIS verfolgt die Spuren des nuklearen Eisbrechers Sibir, der versucht, sich einen Weg durch das schwere Sommereis zu bahnen, während der Flüssiggastanker Arctic Metagaz an der Eiskante in der Ostsibirischen See anhält. [Shipatlas]
Dies ist der zweite Sommer in Folge, in dem Meereis den östlichen Nördlichen Seeweg blockiert hat.
Realitätscheck: mehr als ein Jahrhundert fehlgeschlagener Vorhersagen, 2025 Flotten, die im August-Eis gefangen sind, und eine weitere Runde von Computermodell-Schrott, welcher der Agenda dient – und sonst gar nichts.
—————————-
Eine Meldung vom 3. September 2025:
Australien: Beste Schnee-Saison seit JahrenDie alpinen Skigebiete Victorias haben den höchsten Schnee seit Jahren angehäuft.
Falls Creek hat in dieser Saison mehr als 3 m Schnee erhalten, darunter 71 cm in einem einzigen Sturm. Ein weiterer Sturm mit 69 cm hat die Besucherzahlen auf ein rekordverdächtiges Niveau gehoben.
Mount Buller verzeichnete in der vergangenen Woche 60 cm, während Mount Hotham und Falls Creek überdurchschnittliche Schneehöhen für Juni, Juli und jetzt Anfang September meldeten.
Die beständigen Neuschnee-Mengen dieses Winters und die starken Schneefälle werden die Saison bis weit in den Frühling hinein verlängern.
„Schwindender Schnee“ bleibt jedoch die offizielle Linie.
—————————-
Meldungen vom 4. September 2025:
Südamerika: Neuer Frosteinbruch drohtDas südliche und mittlere Südamerika wird bald von einem weiteren antarktischen Kaltluftvorstoß getroffen werden, mit zwei aufeinanderfolgenden Wellen.
Am 5. September werden große Teile Argentiniens, Uruguays, Paraguays und Südbrasiliens von erheblichen Kalt-Anomalien betroffen sein:
GFS 2m Temperatur-Anomalien am 5. September [tropicaltidbits.com]
Eine Woche später, am 12. September, deuten die ersten GFS-Läufe auf einen zweiten, noch heftigeren Sturm hin, der die Kälte verstärkt und von Patagonien über die Pampa nach Norden in die wichtigsten landwirtschaftlichen Gebiete Brasiliens zieht.
…
Für die brasilianischen Kaffeeanbaugebiete ist dies eine weitere bedrohliche Prognose. Arabica ist notorisch anfällig und überlebt nur in einem schmalen klimatischen Band. Er ist bereits durch unbeständiges Wetter gestresst, insbesondere durch anhaltende Fröste seit 2021, und ein erneuter Frost könnte die Erträge zunichte machen. Kaffee war schon immer ein „Kanarienvogel in der Kohlenmine“: 1975 vernichtete ein einziger Frost zwei Drittel der brasilianischen Ernte und ließ die Weltmarktpreise in die Höhe schnellen.
Und es geht nicht nur um Kaffee. Mais, Zuckerrohr und andere Feldfrüchte sind anfällig für die seit 2021 beobachtete Abkühlung. Frostschäden sind eine Einbahnstraße – im Gegensatz zu Dürre oder Hitze bremst ein Frost nicht nur das Wachstum oder verzögert die Ernte, sondern bringt den gesamten Prozess zum Stillstand.
Südamerikas Anbaugebiete befinden sich klimatisch auf eines Messers Schneide. Jeder weitere polare Einbruch beeinträchtigt die Produktion, was sich auf die weltweite Lebensmittelversorgung und die Preisgestaltung auswirkt.
—————————-
Die folgende Meldung zeigt, dass der Winter auf der Südhalbkugel nicht weichen will, während er es auf der Nordhalbkugel sehr eilig hat einzutreten: (A. d. Übers.)
USA: Weiterer Rekord-Kälteeinbruch drohtEine polare Luftmasse, welche die gesamten USA zwischen Kanada und Mexiko erfasst, breitet sich in dieser Woche nach Süden aus und wird die Temperaturen weit unter die September-Norm drücken.
Die neuesten GFS-Läufe zeigen Abweichungen von -8°C bis -18°C im Mittleren Westen, den Großen Seen und in den Ebenen, wobei sich die Kälte bis nach Texas und Nordmexiko ausdehnt. Der Kern der Kälte wird über der Mitte der USA liegen, wo sich die Tage eher wie November als wie Anfang September anfühlen werden.
Die GFS-Anomaliekarte zeigt erhebliche Kalt-Anomalien von den Dakotas über Ohio und südwärts bis nach Oklahoma und Arkansas.
…
Ich gehe davon aus, dass die MSM weiterhin mit einem kleinen, isolierten Wärmegebiet im Nordwesten ablenken werden – so wie sie es seit Ende August getan haben, obwohl die Daten (und Aufzeichnungen) ein klares Bild von einem insgesamt fröstelnden Amerika zeichnen…
Dies könnte sich als eine der kältesten Herbst-Anfänge seit vielen Jahrzehnten erweisen und das kühle Jahr 2025 fortsetzen…
—
USA: Teils die niedrigsten Temperaturen seit 1895Die durchschnittliche Tageshöchsttemperatur in den Vereinigten Staaten ist in diesem Jahr (1. Januar bis 3. September) die 16.-niedrigste in den Aufzeichnungen, die bis ins Jahr 1895 zurückreichen.
Der NOAA-Datensatz der Stationen des Historical Climatology Network zeigt, dass das Jahr 2025 kühler war als die überwiegende Mehrheit der vergangenen 130 Jahre, wobei nur eine Handvoll Jahre in den 1960er und 1970er Jahren noch niedrigere Durchschnittswerte verzeichneten.
Der langfristige Mittelwert liegt bei 20,5 Grad Celsius, und während 2012 ein Spitzenwert von 22,2 Grad Celsius erreicht wurde, ist der Gesamttrend seit dem Höchststand in den 1930er Jahren flach bis rückläufig:
Spitzenwert 2012 71,9°F = 22,1°C
Im Gegensatz zu Tagesminima oder berechneten Durchschnittswerten sind die rohen Höchstwerte weniger anfällig für Manipulationen. Sie werden auch weit weniger durch den „Urban Heat Island“-Effekt verzerrt, der vor allem die nächtlichen Tiefstwerte in die Höhe treibt, da Beton und Asphalt die Wärme nach Sonnenuntergang zurückhalten. Die Höchstwerte hingegen werden durch breitere atmosphärische Bedingungen beeinflusst und liefern ein deutlicheres Klimasignal. Nicht perfekt. Aber deutlicher.
—————————-
Meldungen vom 5. September 2025:
Die Kälte in AustralienKununurra im Norden Westaustraliens verzeichnete am 4. September 8,7 °C – die niedrigste jemals aufgezeichnete Septembertemperatur.
Ein Blick auf das GFS (Karten unten) zeigt, dass noch viel mehr kommen wird.
Die neuesten Durchläufe zeigen einen Ausbruch von Blau- und Violetttönen, die einen Großteil des Kontinents am 10. September erfassen und die Anomalien weit unter die Norm von 1981-2010 drücken dürften:
Erwartete GFS 2m Temperatur-Anomalien (C) am 10. September [tropicaltidbits.com]
Die Kälte wird sich von WA nach Südafrika, Victoria, Tasmanien und New South Wales ausbreiten und weit verbreiteten Frost und wahrscheinlich weitere Kälterekorde mit sich bringen. Sogar Queensland bleibt nicht verschont. Die Modelle deuten auf sub-saisonale Tiefstwerte hin, die bis ins Landesinnere vordringen.
…
—————————-
Kanada: September-Kälte in zentralen GebietenZentral-Kanada durchläuft derzeit eine frühe Dosis Herbst, mit Schneeflocken in Geraldton, NW Ontario, und Tageshöchsttemperaturen, die eher für Anfang November typisch sind.
In Winnipeg sank die Temperatur in der Nacht auf 0,4 °C, und die Tageshöchsttemperatur lag bei nur 9 °C – das ist der niedrigste Wert, den die Stadt so früh im September seit 2004 gemessen hat.
Weiter östlich erreichte Geraldton am Donnerstag nur 4,1 °C, während Carman, Sprague und Emerson alle 8 °C verzeichneten.
Schnee Anfang September ist für Ontario ungewöhnlich, aber die Kälte war weit verbreitet, da ein Großteil der Prärie und der nördlichen Ebenen von Luftmassen direkt aus der Arktis erfasst wurde. Auch südlich der Grenze treten immer neue Rekorde auf…
—————————-
USA: Weitere Kälterekorde gebrochen – Rekord-früher Schnee im nördlichen MichiganEine Abschwächung des Jetstreams sorgt in weiten Teilen der Vereinigten Staaten für einen frühen Vorgeschmack auf den Herbst.
Die Abkühlung ist weit verbreitet. Von den nördlichen Ebenen über die Großen Seen bis in die Appalachen kämpfen die Tageshöchsttemperaturen mit Werten zwischen 5 und 10 Grad Celsius, wobei für Milwaukee und Minneapolis Temperaturen unter 15 Grad vorhergesagt werden. In Chicago und Detroit werden sich Werte um 15 Grad halten.
Für mehr als 140 Millionen Amerikaner wird bis zum Wochenende anomale Kälte vorhergesagt.
…
Die Bedingungen lassen bereits erahnen, was in diesem Winter auf uns zukommen könnte…
Am Donnerstag (4. September) fielen auf der oberen Halbinsel von Michigan die ersten Schneeflocken der Saison – laut Daten des Nationalen Wetterdienstes der früheste Zeitpunkt seit Beginn der Aufzeichnungen, der die bisherige Marke vom 12. September 1975 übertrifft.
Der NWS bestätigte die Flocken in Keweenaw County, wo Videoaufnahmen des Einheimischen Eddie Brecht ein Schnee-Regen-Gemisch außerhalb von Eagle Harbor zeigten. „Also Leute, ich musste es euch einfach selbst zeigen“, sagte Brecht. „Es kommt runter. Ein Schnee-Regen-Gemisch. Ziemlich unglaublich.“
Trotz des Rekords bezeichnete der NWS die Schneefälle lediglich als „ein bisschen früh“ – eine merkwürdige Untertreibung für Schnee, der mehr als eine Woche früher eintrifft als jemals zuvor beobachtet. Stellen Sie sich vor, was los wäre, wenn es sich um einen Hitzerekord gehandelt hätte.
Herbstliches Wetter ist früh und mit voller Wucht eingetroffen.
Wird fortgesetzt mit Kältereport Nr. 36 / 2025
Redaktionsschluss für diesen Report: 5. September 2025
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kältereport Nr. 35 / 2025 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der Sommer wird in Deutschland erst seit 1988 wieder wärmer – Teil 1
Von Josef Kowatsch, Matthias Baritz
- Natürliche und anthropogene Gründe bestimmen die Erwärmung seit 1987/88, und zwar:
- Geänderte Großwetterlagen-Häufigkeiten, zunehmender Wärmeinseleffekte durch Bebauung und Flächenversieglungen, die Zunahme der Sonnenstunden, die weiträumige Trockenlegung der Landschaft bestimmen die Sommererwärmung seit 1988
- Die Sommererwärmung seit 1988 fand hauptsächlich tagsüber statt. Ursache: Sonne
- Die Erwärmung ist seit einigen Jahren ausgereizt.
- Die Klimahysterie basierend auf CO₂ ist völlig unbegründet, ein frei erfundenes Medienereignis.
- Kohlendioxid ist ein lebensnotwendiges Gas, wir brauchen mehr und nicht weniger
Laut Deutschem Wetterdienst (DWD) lag das Temperaturmittel im Sommer 2025 bei 18,3 Grad Celsius (°C). Und damit jeweils ein Zehntel unter dem letzten und vorletzten Jahr. Nur im Juni und August hatten wir 2 sommerliche Hitzeperioden. Allerdings gab es keine neuen Temperaturhöchstrekorde wie schon letztes und vorletztes Jahr nicht mehr, trotz überdurchschnittlicher Sonnenstunden. Mit 720 Sonnenstunden im Vergleich zum Schnitt von 614 (1961-1990) oder 654 (1991-2020) Stunden lag man deutlich darüber, bei Niederschlagsmengen leicht unter dem Schnitt von 239 l/m2. Fazit dieses Sommers 2025: Sonnenstunden über dem Schnitt bei fast normalen Niederschlagsmengen.
Mit 18,1 Grad war es der 25-wärmste August seit 1881 oder der 18-wärmste seit 1988. Mit 18,3 Grad war es der 12-wärmste Sommer seit 1881 oder der 10-wärmste seit 1988. Laut DWD-Temperaturstatistik, Anmerkungen dazu weiter unten.
Uns interessiert mehr: Wie ist dieser Sommer 2025 in einem längeren Zeitraum einzuordnen? Lassen wir deshalb die Grafiken der DWD- Zeitreihen sprechen
Zunächst die Sommer-Temperaturen seit 1892, also seit 133 Jahren
Die deutsche Sommertemperaturkurve zeigt zwei auffallende Temperaturzeitintervalle:
Abb. 1: Die eigentliche Klimaerwärmung beim Sommer begann erst 1987/88, vor allem tagsüber, das zeigt Grafik 6
Wir unterteilen weiter und erkennen 4 Zeitintervalle bei der Jahreszeit Sommer in den DWD-Reihen.
- Nach unmerklicher Abkühlung von 1890 bis 1910 leichte Erwärmung bis etwa 1950, danach leichte Abkühlung bis 1987
- Insgesamt jedoch fast 100 Jahre lang nahezu gleich bleibende Sommertemperaturen
- Leichter Sprung der Temperaturtrendgeraden von 1987 auf 1988
- Starke Weitererwärmung seit 1988, vor allem tagsüber.
Wo bleibt die CO₂– Erwärmungswirkung?
Anhand dieser Sommergrafik ist bereits bewiesen, dass CO₂ keinen oder kaum einen Einfluss auf die Temperaturentwicklung hat. Das jährlich steigende CO₂ kann nicht fast 100 Jahre lang unwirksam sein, dann mit dem Jahr 1988, aufgeschreckt durch die Gründung des Weltklimarates plötzlich aufwachen und seine erwärmende Wirkung verstärkt entfalten, als müsste es die verschlafenen 100 Jahre davor nachholen.
Noch eindrucksvoller zeigt sich die Nichtwirkung von CO₂ auf die Temperaturen, wenn man die Grafik erst während des Krieges beginnen lässt, denn ab 1943 wurden die Sommer nicht nur in Deutschland kälter. Eine Sommerabkühlung, die bis 1987 anhielt und viele Experten von einer neuen kommenden kleinen Eiszeit redeten.
Es war die Zeit, wo man ab 1960 unbedingt in den Sommersüden reisen wollte, um Sonnenwärme für den Winter zu tanken.
Abb. 2: von 1943 bis 1987, also 45 Sommer lang sind die Temperaturen sogar gefallen, trotz steigender CO₂-Konzentrationen. Man fragte sich damals: „Wann wird’s mal wieder richtig Sommer?“
Unzulässig und deshalb falsch ist auf alle Fälle diese Schlussfolgerung der Treibhauskirche: Aus einer Zufalls-Korrelation seit 1988 behauptet man eine Ursache-Wirkung, nämlich CO₂ bestimmt die Temperatur. Warum nicht umgekehrt? Oder Zufall…? Vieles ist denkbar.
Anmerkung zu den DWD Temperaturdaten: Diese DWD-Temperaturdaten aus Grafik 1 und 2 sind nicht wärmeinselbereinigt. Die Temperaturen 2025 sind mit ganz anderen Wetterstationen an wärmeren Plätzen und mit ganz anderen Messgeräten und Messmethoden ermittelt als die Daten im Kaiserreich. Nicht nur die Städte und Dörfer wurden wärmer gemacht, – das nennt man städtischen Wärmeinseleffekt- sondern die ganze Landfläche. Was alles zum WI-effekt gehört, hat Stefan Kämpfe hier beschrieben.
Als grober Anhaltspunkt: Wäre Deutschland so geblieben wie 1881 mit den damaligen Wetterstationen an den kälteren Standorten, dann würden die heurigen 18,3°C vor 140 Jahren mit etwa 17 Grad oder knapp darunter ermittelt worden sein. Wir nennen diese Spanne den Wärmeinseleffekt (WI) in den deutschen Sommer-Temperaturreihen. Es bleibt jedoch noch immer eine reale Erwärmung übrig. Jedoch war dieser Sommer niemals der 12. wärmste seit 1881. Das behaupten nur die nach oben getricksten DWD-Temperaturdaten.
Diese Wärmeinsel-Erwärmung ist eine reale Zusatzwärme, wir Menschen wohnen in den wachsenden Wärmeinseln, und da wurde es eben wärmer, aber ein Teil der 1,3 bis 1,5 Grad ist auch nur eine statistische Erhöhung des Schnittes durch kältere Stationen stilllegen und an wärmeren Standorten neu aufmachen, u. viele andere. Diese statistischen Erwärmungstricks sind hier beschrieben und hier bewiesen.
Gibt es noch eine (fast) unberührte Wetterstation wie einst zum Vergleich?
Leider gibt es bei uns in Deutschland keine einzige Wetterstation mehr, die noch so steht wie vor 140 Jahren und in deren weiten Umgebung sich kaum was verändert hat. Aber in den USA ist das möglich. Die Dale Enterprise Wetterstation ist die drittälteste in Virginia, steht bei einer singulären Farm, nur ein inzwischen asphaltierter breiter Highway führt an der Farm vorbei und die nahegelegene Stadt Harrisonburg hat sich stark in Richtung Farm ausgeweitet. (Entfernung nur noch 1 km). Wir bezeichnen diese Wetterstation als WI-arm, ihre Temperaturgrafik für den Sommer sieht so aus:
Abb. 3: Diese WI-arme Wetterstation in den USA zeigt in 145 Jahren nur einen minimalen Sommertemperaturanstieg von etwa einem halben Grad Fahrenheit, der jedoch auch erst vor 45 Jahren einsetzte. (1 Grad Fahrenheit= 0,56°C) Seitdem fehlen vor allem die kühleren Sommer.
Und bei uns? Wir können nur auf Privatstationen zurückgreifen, wo die Stationsleiter meist nichts am Standort wärmend verändert haben und vor allem die gemessenen Daten veröffentlicht werden. Privat-Wetterstationen existieren allerdings nicht so lange, sondern meist nur, solange der interessierte Stationsleiter tätig ist. Amtsberg wäre eine solche und auch Goldbach in der Lausitz. Dort war der Sommer nämlich nur der 17.-wärmste seit 1997, also unter dem Schnitt!!! Von dort schreib uns der Stationsleiter: „Ich denke, dass die Schwimmbäder mit dem Verlauf der Sommersaison nicht ganz zufrieden sind: Heiße Tage (Temperatur 30°C und höher) 2025: 9; 2024:21; Sommertage (Temperatur) bei oder über 25°C) 2025: 36, 2024: 52. Vor allem der August hat den Mittelwert des meteorologischen Sommers (in Goldbach) in diesem Jahr etwas nach unten gedrückt.“
Aha, Sommer 25 bei Goldbach und Amtsberg unter dem eigenen Schnitt, der DWD darüber.
Der Klimawandel tagsüber seit 1988 hat viele Ursachen, natürliche und anthropogene!
Der kleine ‘Klimasprung‘ von 1987 auf 1988 – siehe Grafik 1 – um ein halbes Grad hat natürliche Gründe: Die plötzliche Änderung der Großwetterlagen, eine Umstellung von Nord/West auf mediterrane Einflüsse, NOA, AMO und andere natürliche wetterbestimmende Faktoren für Mitteleuropa. Die Wirkung der Luftreinhaltemaßnahmen. Auch das Nordseewasser zeigt diesen Temperatursprung. Der Temperatursprung wurde in Holland in dieser wissenschaftlichen Arbeit genauer verfolgt und beschrieben. Zitat aus der Introduction: „This warming has not takenplace uniformly: there is a jump around 1988 of about one degree in the average temperature.“ Nochmals: jump around 1988 of about one degree
Die starke Weitererwärmung des DWD-Sommers nach dem Sprung der Temperaturtrendgeraden 1988Die fast 0,5 Grad/Jahrzehnt an Sommer-Weitererwärmung haben menschengemachte und natürliche Gründe. Der menschengemachte Anteil ist zunehmend. Gründe des anthropogenen Anteiles sind die voranschreitende Zerstörung der Natur durch Überbauung und Flächenversiegelung, siehe Versiegelungszähler: Stand bei Redaktionsschluss: 50 900 km²
Und die Austrocknung der Landschaft durch Überbauung, sowie großflächige Trockenlegungen. Selbst die freie Fläche in Wald und Flur, Wiesen und Feldern wurden seit Jahrzehnten großflächig trockengelegt, damit nach einem Starkregen anderntags sofort die industrielle Land- und Forstwirtschaft wieder betrieben werden kann. Die Folgen: Plötzliches Hochwasser. Exemplarisch hier beschrieben.
Aber auch: Nach mehreren heißen Tagen geht die kühlende Wirkung des Bodens und der Vegetation in Wald und Flur verloren, da die Sonnenstundenanzahl tagsüber stark gestiegen sind und die Niederschläge etwa gleich blieben, siehe nächste Grafik.
Und schließlich die zusätzliche Erwärmung durch angebliche Klimaschutzmaßnahmen wie dunkle Frei-Flächen PV-Anlagen, siehe Eingangsbild und über 30 000 Windräder.
Sonnenstunden und Niederschläge beim DWD-Sommer seit 1988Sonnenstunden stark steigend, Niederschläge gleichbleibend. Das zeigen die nächsten beiden Grafiken.
Abb. 4a/b: Seit 1988, dem Klimawandelbeginn in Deutschland steigen die Sonnenstunden stark an. Aufgrund der Luftreinhaltungsmaßnahmen hat sich die Intensität der Strahlung ebenfalls verstärkt. Die Niederschläge blieben etwa gleich. Mit der Zunahme der Sonnenstunden hat selbstverständlich die Bewölkung abgenommen.
Man erkennt: a) natürliche Klimaänderungen: Die Sonne hat den Temperaturverlauf hauptsächlich mitbestimmt.
b) anthropogen: aber auch der Mensch durch großflächige Deutschlandtrockenlegungen mitsamt Asphaltierung und großflächige Bebauungen, ebenso PV-Anlagen und Windräder trocknen Deutschland im Sommer aus und nicht Kohlendioxid. Auch nicht der angeblich fehlende Niederschlag, denn es fehlt ja nichts.
Hinweis, den gesamten anthropogenen Einfluss auf die Temperaturmessungen haben wir hier beschrieben.
Damit ist diese Literaturdefinition absolut falsch: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe.
Wie allen bekannt ist, ist der Winter die Hauptzeit der Verbrennung. Dann müsste der Winter die stärkste Erwärmung zeigen. Tut es aber nicht, das zeigt die nächste Grafik eindrucksvoll.
Abb. 5: Neunzig Jahre lang sind die Winter in Deutschland laut DWD sogar kälter geworden. Dann kam der plötzliche Klimawandel mit dem Sprung der Temperaturtrendgeraden – von 1987 auf 1988 – und seitdem auch eine Weitererwärmung der Wintermonate, jedoch weniger stark wie im Sommer.
Ergebnis: Die Wintergrafik Deutschlands zeigt erst recht, das CO₂ entweder gar keinen oder nur einen völlig untergeordneten Anteil an der Erwärmung Deutschlands seit 130 Jahren hat. Damit ist die in der Literatur verwendete Definition von Klimawandel sogar grottenfalsch.
Selbst aufgrund physikalischer Grundlagen an den CO₂-Erwärmungseffekt glaubende, jedoch unabhängige Physiker schätzen den CO₂-Anteil als sehr niedrig ein. Sie wissen genau, dass die von langer Hand geplante und uns ängstigen sollende Klimahysterie völlig unbegründet ist. Nur wer nichts an der Hysterie verdient, der sucht nach der Wahrheit.
Doch es gibt noch viel mehr Anzeichen für eine nicht erkennbare Wirkung von CO₂ auf die Temperaturreihen:
Die unterschiedlichen Tag/Nachtemperaturen Deutschlands im Sommer- Tagsüber stark gestiegen, nachts kaum
Leider bietet der DWD keinen Gesamtschnitt seiner über 2000 Wetterstationen seit 1988 an, wir können nur Einzelstationen,- bisher über 50 ausgewertet – hier zeigen. Im Grunde ist eine Gesamtauswertung für den DWD auch nur schwer möglich, denn der DWD hat in den letzten 30 Jahren über die Hälfte seiner Stationen ausgetauscht wie wir oben im ersten Link gezeigt haben. Wir (M.Baritz) hat jedoch die noch verbliebenen Einzelstationen in unzähligen Arbeitsstunden zusammengefasst und ausgewertet.
In den Grafiken ist die obere graue Linie der Tagesverlauf, gemessen in Tmax (Durchschnitt aller täglichen Tmax von allen 543 Stationen, also 92 x 543 Werte ergeben einen Wert)
Die nächtlichen Tiefsttemperaturen während des Sommers sind in der Grafik in blau aufgeführt. Die 24-h Rundumtagesschnitte sind dazwischen in orange
Abb. 6: Völlig unterschiedlicher Verlauf der 6 Kennlinien in den beiden Zeitabschnitten.
Auswertungen, erster Zeitabschnitt bis 1987, linke Hälfte der Abbildung, 40 Jahre
Die Tageshöchsttemperaturen gehen zurück, die nächtlichen Tmin bleiben gleich, die Tagesmittel liegen dazwischen und gehen leicht zurück. Insgesamt eine leichte Abkühlung.
Ab 1988, bis heute, 38 Sommer:
Die Tagestemperaturen steigen stark an, die nächtlichen Tmin Temperaturen nur unwesentlich, insgesamt eine starke Sommererwärmung seit 1988 bis heute. (orange Kennlinie).
Merke:
a) Die Sommererwärmung seit 1988 fand nur tagsüber statt
b) Die Schere zwischen Tag/Nacht geht von 1947 bis 1987 zu, ab 1988 geht die Temperaturschere zwischen Tmax und Tmin auseinander.
Diese Grafik der deutschen Sommertemperaturen findet man sonst nirgendwo in der Literatur. Nur in unseren Artikeln!!. Warum werden diese Beweisgrafiken gegen CO₂ von der Treibhauskirche unterdrückt? Antwort: Sie beweisen deutlichst, dass Kohlendioxid nichts mit den Temperaturverläufen der DWD-Messreihen zu tun haben kann!!
Solche Gaseigenschaften gibt es nämlich nicht: Kohlendioxid kann tagsüber nicht anders wirken als nachts und bis 1987 nicht anders als nach 1987/88. Und deswegen werden auch niemals derartige Grafiken von der CO₂-Treibhauskirche veröffentlicht.
Falls es einen Einfluss der Temperaturen auf CO₂ geben sollte oder wie die Klimakirche behauptet, CO₂ bestimme die Temperaturen, egal ob wärmend oder abkühlend- dann ist dieser im Temperaturverlauf der deutschen Sommertemperaturen nicht erkennbar.
Wenn nicht CO₂, was bestimmt dann hauptsächlich den Sommer-Temperaturverlauf?
Antwort: Hauptsächlich die Sonne, und die scheint und erwärmt nur tagsüber.
Leider führt der Deutsche Wetterdienst erst ab 1951 Sonnenstundenmessungen durchgehend für seine Wetterstationen durch. Aber der Zusammenhang zu den am Tage gemessenen T-Max Temperaturen und Sonnenstunden ist auffällig
Abb. 7: Bis 1987 Abnahme der Sonnenstunden bis 1987, nach der Änderung der Großwetterlagen ab 1988 bis heute eine Zunahme der sommerlichen Sonnenstunden.
Hohe Korrelation zwischen Sonnenstunden und Tmax (Tageshöchsttemperaturen)
Abb. 8: Korrelationskoeffizient R = 0,89 bei Tmax. Bei Tmin liegt der K.K. R nur bei 0,58. Was auch zu erwarten war, da Tmin weniger stark steigt als TagesØ und Tmax
Merke 1: Da die Sonne im Sommer am stärksten wirkt, ist auch der Einfluss auf die Tagestemperaturen am höchsten
Merke 2: Die starke Zunahme der sommerlichen Temperaturen tagsüber zieht auch den Jahresschnitt der Deutschlanderwärmung seit 1988 stark nach oben.
Zusatz: Wer an CO₂ als anthropogenen Erwärmungstreiber glaubt, der muss auch von seiner Mitschuld an der Erwärmung seit 1988 überzeugt sein und ein schlechtes Gewissen haben. Abhilfe, Überzeugte Treibhaus-Gläubige können sich hier ihr Gewissen durch eine monatliche Kollekte an die Kirchen beruhigen.
Wir anderen hoffen, dass die angenehme Sommererwärmung auf diesem hohen Niveau noch einige Jahrzehnte anhält. Wir Deutsche haben doch auch schöne Sommer verdient. Wir wollen nicht wieder nach Italien, um Sonne für den Winter zu tanken.
Josef Kowatsch, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher
Matthias Baritz, Naturschützer und neutraler Naturwissenschaftler.
Der Beitrag Der Sommer wird in Deutschland erst seit 1988 wieder wärmer – Teil 1 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Haben die Europäer Angst vor dem Erfolg?
Der Widerstand gegen alles Bewährte
Edgar L. GärtnerDer weinerliche Abgang des ehemaligen grünen Vizekanzlers Robert Habeck ist nur eines von mehreren Symptomen des Niedergangs der Grünen, der „Partei der organisierten Unqualifizierten“ (Roland Tichy) als einflussreiche politische Bewegung. Als die erste Parlaments-Fraktion der Grünen in den 80er Jahren in den „Langen Eugen“, das Abgeordnetenhaus des Bonner Bundestags einzog, gebärdeten sich die Wortführer der Grünen als ausgesprochen technikfeindlich, indem sie die Installation von PCs ablehnten. Auch mit dem Mobilfunk über „Handys“ standen sie zunächst auf Kriegsfuß. Aber das Eis brach, als sich eine führende Hamburger Grüne mit Handy vor TV-Kameras zeigte. Der 1989 gestartete grüne Wirtschaftsinformationsdienst “Ökologische Briefe“, bei dem ich mehrere Jahre lang arbeitete, besaß Deutschlands erstes voll vernetztes PC-Redaktionssystem. Der Vorwurf, die Deutschen und speziell die Anhänger grüner Ideen seien technikfeindlich, bleibt also an der Oberfläche.
Es ist unübersehbar, dass die Ex-68er und Grünen aller Parteien nichts von der Losung „Keine Experimente!“ halten, mit der die Adenauer-CDU in den 50er Jahren auf Stimmenfang ging. Denn der von ihnen eingeleitete gleichzeitige Ausstieg aus der Kohleverstromung und der Kernkraft und deren Ersatz durch unstete „Erneuerbare“ ist ein geradezu waghalsiges Experiment. Ich gebe also eher dem bei uns inzwischen dämonisierten Tech-Milliardär Peter Thiel recht, der den Deutschen und Europäern statt Technikfeindlichkeit und Neuerungs-Angst „Angst vor dem Erfolg“ bescheinigt. Diese Angst hat sicher auch damit zu tun, dass die in Westeuropa herrschende moralingetränkte politische Elite gerne Experimente beginnt, deren Scheitern bei einer vernünftigen Betrachtung von vornherein absehbar ist.
Verrückte Experimente
Zu diesen verrückten Experimenten gehört zweifelsohne die Öffnung unserer Grenzen für die illegale Einwanderung von Millionen junger Männer aus muslimischen Gewalt-Kulturen. Dazu gehört aber auch der Versuch, die längst gescheiterte „Energiewende“ durch den Einsatz von kaum bezahlbaren Wasserstoff als Allheilmittel doch noch zu retten. Hinter der „Energiewende“ steht die irrige Überzeugung, die Durchschnittstemperatur der Atmosphäre durch eine Drosselung der CO2-Emissionen senken zu können. Doch es gibt, wie die im Juli 2025 von fünf Spitzenforschern an das US-Energieministerium vorgelegte nüchterne Bestandsaufnahme zeigt, keine Anhaltspunkte für einen maßgeblichen Einfluss des CO2 auf die Klimaentwicklung. Doch das ist nicht der einzige überhebliche Anspruch der europäischen Politik, der von vornherein zum Scheitern verurteilt ist.
Denn nicht zuletzt muss man auch das deutsche und europäische Engagement im Ukraine-Krieg, unabhängig von der Frage nach der Kriegsschuld, zu der Liste vermessener und potenziell tödlicher Experimente fügen, durch die sich deutsche Politiker seit einigen Jahren auszeichnen. Berlin und Brüssel hintertreiben, wie es aussieht, das von US-Präsident Donald Trump ausgesprochen Friedensangebot an Russland, obwohl sie auf russisches Gas und Öl angewiesen sind, solange es dazu keine bezahlbaren Alternativen gibt. Bundeskanzler Friedrich Merz (CDU) führt hier, entgegen seinen Versprechungen im Wahlkampf, die Politik der gescheiterten „Ampelkoalition“ beinahe bruchlos weiter. Der heute herrschenden Politiker-Generation fehlt offenbar der Kompass für Maß und Ziel politischen Handelns. Der Realitätsverlust der Politik droht in eine ausweglose Situation zu führen, die die Gefahr eines Bürgerkriegs herausbeschwört. Wir sind konfrontiert mit dem grundlegenden Problem einer Mentalität, die den wirtschaftlichen und politischen Selbstmord Deutschlands in Kauf nimmt, um angebliche Gefahren zu bekämpfen.
Die in der Zeit der Renaissance vom Arzt Theophrastus Bombast von Hohenheim (genannt Paracelsus) aufgestellte Regel, wonach erst die Dosis einen Stoff zu Gift werden lässt, hat sich als überzeitlich gültig erwiesen. Was in unseren Sensations-Medien über Giftwirkungen berichtet wird, ist demgegenüber meist irreführend, denn dort steht der Nachweis verdächtiger Stoffe im Mittelpunkt, nicht aber die Frage, ob die gemessenen Konzentrationen schädlich sein können. Unterschlagen wird dabei, dass potenziell tödliche Gifte in niedrigerer Konzentration als Stimulantien oder gar als Dopingmittel wirken können. Das Paradebeispiel dafür ist Arsen. Das gilt auch für die von vielen Menschen als unheimlich empfundene Radioaktivität. Diese Effekte sind Gegenstand der Hormesis-Hypothese, wonach die Entwicklung des Lebens auf der Erde ohne die Überkompensation widriger Reize gar nicht möglich wäre. Da den Menschen aber ein Sinn für die Abwägung von Risiken und Wahrscheinlichkeiten fehlt, versuchen sie nicht selten, Risiken zu umgehen, indem sie (unbewusst) noch größere Risiken eingehen.
Eine Kultur des Narzissmus
Formularbeginn
Der Narzissmus, eine durch elterliche Erziehungsfehler (zu viel Lob) verursachte Reifestörung, hat in den letzten Jahrzehnten deutlich zugenommen. Auffällige Neurosen werden hingegen immer seltener. Im Unterschied zu Neurosen ist der Narzissmus aber nur schwer heilbar. Der amerikanische Historiker Christopher Lasch konstatierte schon gegen Ende der 1970er Jahre in seinem Buch „Das Zeitalter des Narzissmus“ die Ausbreitung einer dekadenten Kultur der Selbstliebe im ganzen Westen. Die Studentenrevolte von 1968 war nach seiner Ansicht nur ein Ausdruck dieses Kulturbruchs. Dessen Hauptursache sah er schon damals in der Ablösung des patriarchalischen durch den matriarchalischen Führungsstil in Politik und Wirtschaft und in der damit verbundenen Infantilisierung der Menschen durch eine ausufernde Sozialbürokratie. In Deutschland und Österreich haben die Psychiater Raphael Bonelli im Besteller „Die Weisheit des Herzens“ und Hans-Joachim Maaz im Buch „Das falsche Leben. Ursachen und Folgen unserer normopathischen Gesellschaft“ diesen Befund bestätigt.
Narzissten glauben im Grunde an nichts richtig. Sie richten ihren durch enttäuschte Selbstliebe entstandenen Selbsthass in Form der obsessiven Beschäftigung mit möglichen Schadstoffen gegen sich selbst. Sie konzentrieren sich darauf, ihre innere Leere und vagabundierenden Ängste durch moralische Überheblichkeit, durch scheinbar gute Taten oder auch durch die Kultivierung von Schuldkomplexen und deren Nutzung für die eigene Imagepflege zu überspielen. Ideologischer Ausdruck des Selbsthasses ist der Postmodernismus. In seinem Kern beruht dieser auf der uralten Häresie des Gnostizismus, das heißt auf dem Glauben an die Möglichkeit der Erlösung des Menschen durch Selbstermächtigung. Aus diesem Grund ordnen die Postmodernen die Frage, ob etwas wahr ist oder falsch, der manichäischen Entgegensetzung von „gut“ und „böse“ unter. Es kommt dann nicht mehr darauf an, ob etwas wirtschaftlich nützlich ist, sondern ob es von postmodernen Gurus für „gut“ und schick erklärt wird. Natürlich spielt auch die Geldgier eine Rolle, sobald der Zug zum „Guten“ erst einmal in Bewegung gekommen ist. Die Postmodernen halten deshalb die Sprache nicht mehr für ein Mittel, die Wahrheit zu erkunden und mitzuteilen, sondern benutzen sie als Waffe, um ihre Gegner durch die Moralisierung von Sachfragen zum Schweigen zu bringen.
Die Ablehnung des Bewährten
Grundlage der gutmenschlichen Bewegung ist nicht die Angst vor dem Neuen, sondern der Generalverdacht gegen alles Bewährte. Nur der Selbsthass kann erklären, warum eine ganze Generation die Errungenschaften und Lehren ihrer eigenen Geschichte in den Wind schlägt. Das bestätigt nicht zuletzt die Kampagne gegen den Betrieb und den Neubau von Kernkraft- und Kohlekraftwerken oder die Förderung von heimischem Erdgas und Erdöl mithilfe des so genannten Frackings – alles im Namen einer atemberaubend abenteuerlichen „Energiewende“. Deren Ziel ist die Ablösung verlässlicher durch unstete, aber für „sauber“ erklärte Solar- und Windenergie.
Zwar waren unsere Kohlekraftwerke bis in die 1980er Jahre tatsächlich „Dreckschleudern“. Doch infolge einer breiten Kampagne gegen das (vermeintliche) „Waldsterben“ wurden ihre Rauchgase noch im gleichen Jahrzehnt mithilfe aufwändiger Filter entstaubt und entschwefelt und später auch von giftigen Stickoxiden befreit. Die abgasfreien deutschen Kernkraftwerke liefen ohnehin beispielhaft sicher. Doch die Havarie eines anders gebauten und militärisch genutzten Kernreaktors im ukrainischen Tschernobyl rief in Deutschland die Gegner dieser zwar nicht idealen, aber durchaus zuverlässigen Technik auf den Plan. Da sicherheitstechnisch begründete Einwände gegen die Kerntechnik bei uns unglaubwürdig gewesen wären, schoben deren Gegner stattdessen das Argument fehlender Entsorgungsmöglichkeiten für die radioaktiven Abfälle aus Kernreaktoren in den Vordergrund.
Dabei gab es vielversprechende Forschungen über das Recycling beziehungsweise die Transmutation und die energetische Nutzung dieser Rückstände in so genannten Brütern und ähnlichen Reaktoren wie heute vor allem in dem vom Kernphysiker Götz Ruprecht in privater Initiative entwickelten „Dual Fluid-Reaktor“, der Uran und andere Kernbrennstoffe 20 mal effizienter nutzen soll als herkömmliche Kernreaktoren. Doch der ursprünglich als Einstieg in eine neue Etappe der Kernenergie-Nutzung gefeierte „Schnelle Brüter“ von Kalkar am Niederrhein wurde eingemottet und in eine Freizeit-Attraktion verwandelt, bevor er überhaupt die erste Kilowattstunde Strom liefern konnte. Die damit befassten Forschungseinrichtungen wurden aufgelöst. Heute nutzen die Russen mit Erfolg die Brüter-Technik im BN-800 mit einer elektrischen Leistung von 880 Megawatt in Zaerchny bei Sverdlowsk. In Zukunft wird es vielleicht möglich sein, mithilfe von Transmutationen den Traum von der „Kalten Fusion“ zu verwirklichen. Zwar unterstützt die deutsche Regierung im Rahmen der EU die Erforschung der der noch immer als utopisch erscheinenden technischen Nutzung der thermonuklearen Fusion mit Milliarden. Doch der erste Demonstrationsreaktor auf der Basis des greifbareren Dual-Fluid-Konzepts wird in Ruanda und nicht in Deutschland errichtet.
Abwertung der Tradition
Die mehr oder weniger bewusste Abwertung und Diffamierung alles Bewährten beschränkt sich nicht auf technische Probleme. Viel bedenklicher ist, was wir im gesellschaftlichen Leben beobachten. Das beginnt mit der Abwertung der klassischen Familie aus Großeltern, Eltern und Kindern, die sich mit dem Übergang zu Ackerbau und Viehzucht als Form des sesshaften Zusammenlebens durchgesetzt hat und in christlicher Zeit nicht nur durch ökonomische Not, sondern auch durch das unauflösliche Eheversprechen vor Gott zusammengehalten wurde. Ich glaube nicht, dass dieses Verhältnis immer eine ungetrübte Idylle darstellte. Doch hat es sich seit etwa 10.000 Jahren unterm Strich bewährt. Das kann man von den neuen, als „bunt“ und „fortschrittlich“ gepriesenen Formen des Zusammenlebens in polygamen Ehen, Wohngemeinschaften, Patchwork-Familien und Homo-Ehen nicht unbedingt sagen. Ausnahmen bestätigen die Regel.
Doch die postmoderne Neuerungssucht geht noch wesentlich weiter: Glaubt man Angela Merkel und ihren Nachfolgern, sollen wir schon in naher Zukunft auf die Sicherheit eines Rechtsstaates verzichten und die Formen unseres gesellschaftlichen Zusammenlebens jeden Tag neu aushandeln müssen. Statt verlässlicher gesetzlicher Bestimmungen wird dann wohl das archaische Faustrecht gelten, zumal die von Angela Merkel mit einem Akt der Selbstermächtigung ins Land geholten arabischen und asiatischen Invasoren zumeist nur die Logik des Tribalismus kennen, wonach alles außerhalb ihrer Stammesgemeinschaft als Feindesland und/oder potenzielle Beute gilt. So konnte die damalige „Integrationsbeauftragte“ der deutschen Bundesregierung Aydan Özuğuz (SPD) ungestraft die Existenz einer deutschen Kultur leugnen und sich für eine Legalisierung der „Kinderehe“ und eine Auflösung der deutschen Nation in einer multikulturellen Utopie der „gleichberechtigten Teilhabe“ aussprechen. Demnächst wird man sich bei uns, im Namen der „Gleichheit aller Weltkulturen“, wohl auch an das Wiederaufkommen verschiedener Formen von Menschenopfer und Kannibalismus gewöhnen müssen.
Mir fällt da ein, was Thomas Mann in seinen (später größtenteils widerrufenen) „Betrachtungen eines Unpolitischen“ (1920) bemerkte: Deutschland werde im Unterschied zum apollinisch-sokratischen Westen stärker von dionysischen Elementarkräften bestimmt. Dionysmus bedeutet das Sich-Gehenlassen entsprechend kurzsichtiger Impulse. Um diese Bemerkung zu würdigen, müsste man aber wissen, was unter dem „Westen“ zu verstehen ist. Thomas Mann meinte damit seinerzeit höchstwahrscheinlich nicht das laizistische Frankreich, wo Dionysische Blutorgien in Form der Rezeption literarischer Erzeugnisse des Marquis de Sade oder der Umsetzung jakobinischer Politik durch die Guillotine und den Genozid der Vendée gefeiert wurden, sondern eher ein Hinweis auf die nüchterne angelsächsische Tradition oder vielleicht, noch besser, auf eine Art Neuauflage oder Neugeburt des Heiligen Römischen Reiches Deutscher Nation. Dionysische Züge hatte in seinen Augen dagegen die in den deutschen Landen stets wirksame Versuchung der Loslösung von Rom, die im Endeffekt zum Dreißigjährigen Krieg führte. Wir können erst heute richtig verstehen, warum der Apostel Paulus und nach ihm die wichtigsten Kirchenväter so großen Wert darauflegten, die katholische Kirche in die römische Tradition zu stellen, obwohl diese der Sklaverei und dem Machismus Raum gab. Denn Rom beziehungsweise das römische Recht steht für die Überwindung des Tribalismus durch den juristischen Universalismus.
Es geht hier nicht um Formen der Frömmigkeit, sondern um eine christliche Kultur, die direkt oder indirekt auf dem Glauben an den stellvertretenden Opfertod Jesu Christi am Kreuz und die Möglichkeit der Wiederauferstehung beruht. Diese ermöglicht nach Auffassung von René Girard die Überwindung des archaischen Sündenbock-Mechanismus. Nur auf dieser Grundlage ermöglicht das römische Recht die Überwindung von Kannibalismus und Sklaverei. Tatsächlich gab es die außerkirchliche Bewegung der Aufklärung nur in dem vom christlichen Menschenbild geprägten lateinischen Teil Europas. Deren Illusion von Berechenbarkeit, auf die ich auf dieser Plattform hingewiesen habe, verhinderte nicht, dass die zuvor machtpolitisch korrumpierte katholische Kirche unter dem Einfluss der Renaissance bzw. frühen Aufklärung im ökumenischen Reform-Konzil von Trient (Tridentinum), das zwischen 1545 und 1563 tagte, wieder zurück zur Friedens- und Liebesbotschaft der Bibel fand. Doch die europäische „Elite“ leugnet heute die christlichen Wurzeln der Aufklärung. So vermag auch ihr Fußvolk die Verteidigung der Menschenwürde gegenüber politischer Willkür nicht mehr vernünftig zu begründen und steht dem woken Nihilismus wie dem islamistischen Gewaltpotenzial zusehends hilflos gegenüber. Werden die Europäer wieder lernen, sich am Bewährten zu orientieren, statt wahnwitzigen Öko- und Multikulti-Utopien auf den Leim zu gehen?
Der Beitrag Haben die Europäer Angst vor dem Erfolg? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Ist die jüngste Studie zum „Zusammenbruch“ der AMOC Wissenschafts-Betrug?
Als Wissenschaftler, der Artikel in renommierten Fachzeitschriften wie PNAS, Science Advances und anderen veröffentlicht hat, bin ich mit dem Peer-Review-Prozess bestens vertraut. Er ist bei weitem nicht perfekt – er ist von Voreingenommenheit, Verzögerungen und gelegentlicher Gatekeeping-Praxis geprägt –, aber er bleibt der Goldstandard für die zeitnahe und genaue Verbreitung von fachkundigen, evidenzbasierten Informationen. Wenn Peer-Review jedoch als Mittel eingesetzt wird, um eine bestimmte Sichtweise durchzusetzen, begibt man sich auf gefährliches Terrain. Wir haben dies bereits in der Klimawissenschaft gesehen, wie ich in meinem Artikel „Manufacturing Consensus” ausführlich beschrieben habe und wie es in den berüchtigten Climategate-E-Mails aus dem Jahr 2009 offenbart worden ist. In diesen durchgesickerten Nachrichten diskutierte Dr. Michael Mann (bekannt für seine Hockeystick-Kurve) ausdrücklich die Nutzung des Peer-Review-Systems, um abweichende Arbeiten zu blockieren, und erklärte, sie würden „die Peer-Review-Literatur neu definieren”, um Ansichten fernzuhalten, die den alarmistischen Konsens in Frage stellten.
Wenn man einen Blick auf die Gegenwart wirft, hat man das Gefühl, dass sich die Geschichte wiederholt. Ein brandneuer Artikel in Environmental Research Letters (ERL) mit dem Titel „Shutdown of northern Atlantic overturning after 2100 following deep mixing collapse in CMIP6 projections” [etwa: Stillstand der nordatlantischen Umwälzung nach 2100 infolge des Zusammenbruchs der Tiefenmischung in den CMIP6-Prognosen] von Sybren Drijfhout und Kollegen behauptet, dass die Atlantische Meridionale Umwälzströmung (AMOC), die oft als „Ozean-Förderband” sensationell dargestellt wird, das eine Klimakatastrophe auslösen könnte, unter Hochemissionsszenarien nach 2100 vor dem Aus steht.
https://iopscience.iop.org/article/10.1088/1748-9326/adfa3b/pdf
Die Studie stützt sich stark auf Computermodellprognosen (CMIP6) und zeichnet ein düsteres Bild vom Zusammenbruch der Durchmischung mit der Tiefsee, was zu einer extremen Abkühlung in Europa und globalen Störungen führen würde. Aber hier ist die Warnung: Es zitiert fälschlicherweise eine wichtige Studie aus dem Jahr 2024 über den Golfstrom (eine wichtige Komponente der AMOC), die tatsächlich langfristige Stabilität zeigt, und lässt zwei bahnbrechende Studien völlig außer Acht, welche dieses Jahr in der Fachzeitschrift Nature veröffentlicht wurden und die der Vorstellung eines bevorstehenden Zusammenbruchs der AMOC direkt widersprechen.
Das ist nicht nur schlampige Wissenschaft… es ist schwer vorstellbar, dass erfahrene Autoren, Gutachter und Herausgeber solche aktuellen, hochkarätigen Arbeiten versehentlich übersehen. Als jemand, der unzählige Male Peer-Reviews durchgeführt hat, kann ich sagen: Das Auslassen oder Falschdarstellen von direkt relevanten Artikeln aus dem gleichen Jahr, insbesondere solchen, die Ihre Kernaussagen torpedieren, würde bei meinen akademischen Beratern, Co-Autoren, Gutachtern oder Herausgebern niemals akzeptiert werden. Das riecht nach bewusster Rosinenpickerei, bei der alle Daten ignoriert werden, die nicht in das alarmistische Narrativ passen. Warum? Weil dieses Narrativ Milliarden an Steuergeldern für aktivistische Wissenschaftler, NGOs und globale Eliten einbringt und gleichzeitig mehr Kontrolle über das tägliche Leben rechtfertigt – von der Energiepolitik bis hin zu Einschränkungen wie dem Besitz eines Hundes im Rahmen von „nachhaltigen” Lebensvorschriften.
https://iopscience.iop.org/article/10.1088/1748-9326/adfa3b/pdf
Das ist nichts Neues. Man erinnere sich an Dr. Richard Lindzen (Emeritus am MIT), dessen von Fachkollegen begutachtete Kritik am Klimaalarmismus dazu führte, dass Redakteure entlassen oder unter Druck gesetzt wurden, Artikel zurückzuziehen. Oder an die Orwell’sche Erfahrung beim American Journal of Economics and Sociology, wo ein Artikel, der den Konsens in Frage stellte, unter zweifelhaften Umständen zurückgezogen worden war. Die Redakteure scheinen mitschuldig zu sein, indem sie diesen akademischen Betrug zulassen, weil er mit der „Klimakrise”-Erzählung übereinstimmt. Die Autoren des ERL-Artikels stützen sich eindeutig auf die Vorstellung, dass die AMOC „dringend gerettet werden muss”, was praktischerweise mehr Finanzmittel, mehr Modelle und mehr politische Interventionen erfordert.
Für Nichtwissenschaftler: Peer Review ist wie eine Qualitätskontrolle, bei der Experten einen Artikel vor der Veröffentlichung prüfen. Wenn es jedoch dazu benutzt wird, unbequeme Wahrheiten auszuschließen, wird es zu einem Propagandainstrument. Im Abonnentenbereich unten werde ich mich eingehend mit den Einzelheiten befassen und genau aufschlüsseln, wo diese drei Nature-Artikel (Volkov et al. 2024 über die Stabilität der Florida-Strömung, Terhaar et al. 2025 über den fehlenden Rückgang seit den 1960er Jahren und Baker et al. 2025 über die anhaltende Zirkulation unter extremen Bedingungen) in den ERL-Artikel hätten passen können, wie die Autoren Volkov falsch zitieren, Baker herunterspielen und Terhaar komplett auslassen und warum dies nach wissenschaftlichem Betrug im Stil von Climategate riecht. Ich werde zeigen, wie sie Modellausgaben selektiv auswählen und dabei reale, den Hype um den Zusammenbruch widerlegende Beobachtungen außer Acht lassen.
Eine eingehende Untersuchung der Auslassungen, falschen Zitate und betrügerischen Praktiken in der ERL-VeröffentlichungSchauen wir mal dteailliert. Ich werde dies Schritt für Schritt erklären, um es verständlicher zu machen, vorausgesetzt, Sie sind kein Klimamodellierer, sondern nur an Fakten interessiert. Die ERL-Studie von Drijfhout et al. verwendet CMIP6-Modelle – Computersimulationen des zukünftigen Klimas unter verschiedenen Emissionsszenarien (SSP126 niedrig, SSP245 mittel, SSP585 hoch) –, um ein „Aus” der AMOC nach 2100 vorherzusagen. Sie argumentieren, dass dies auf einen Zusammenbruch der Durchmischung mit der Tiefsee in Regionen wie der Labradorsee, der Irminger See und der Nordsee Mitte des 21. Jahrhunderts zurückzuführen ist, der durch die Süßwasser-Anreicherung der Meeresoberfläche (mehr Süßwasser durch schmelzendes Eis/Regen) und die Erwärmung verursacht wird, wodurch das Absinken von dichtem Wasser, das die AMOC antreibt, geschwächt wird.
Das Problem? Es handelt sich um modellbasierte Spekulationen, die nicht auf Beobachtungen beruhen. Schlimmer noch, sie zitieren selektiv, spielen herunter oder ignorieren aktuelle empirische Daten, die ihnen widersprechen. Das ist wissenschaftlicher Betrug wie aus dem Lehrbuch: eine einseitige Sichtweise durch den falschen Umgang mit Gegenbeweisen zu präsentieren, ähnlich wie es die Climategate-Crew tat, als sie den „Rückgang” in den Baumringdaten versteckte, um die Hockeyschläger-Illusion aufrechtzuerhalten.
- Falsche Zitierung der Veröffentlichung „Florida Current Paper 2024” (Volkov et al., Nature Communications)
Die Studie von Volkov et al. mit dem Titel „Florida Current transport observations reveal four decades of steady state” (Beobachtungen zum Transport der Florida-Strömung zeigen vier Jahrzehnte im Gleichgewichtszustand) verwendet 40 Jahre Unterwasserkabeldaten (1982–2022) aus der Straße von Florida, einem zentralen Verlauf der AMOC. Die Autoren korrigieren die Daten um (bisher übersehene) Veränderungen des Erdmagnetfeldes und stellen keinen signifikanten Rückgang des Transports der Florida-Strömung fest. Der Trend sinkt von einem winzigen Wert von -0,3 Sv/Jahrzehnt auf nahezu Null und zeigt damit eine „bemerkenswerte Stabilität”. Sie berechnen die AMOC-Schätzungen bei 26,5° N (aus dem RAPID-Array) neu und zeigen einen deutlich schwächeren negativen Trend als bisher angenommen, was die Behauptungen einer Abschwächung der AMOC in Frage stellt.
In der ERL-Veröffentlichung wird Volkov [21] im Abschnitt „Ergebnisse” zitiert: Sie weisen auf den „durch das RAPID-MOCHA-Array [21] gemessenen Abwärtstrend von 0,8 Sv pro Jahrzehnt” hin und sagen, dass dieser „nahezu dem geglätteten Rückgang im gleichen Zeitraum in den Modellen entspricht”. Dabei wird jedoch Volkovs zentrale Erkenntnis außer Acht gelassen, dass der Trend aufgrund unkorrigierter geomagnetischer Veränderungen irreführend ist und der tatsächliche AMOC-Trend viel schwächer ausfällt. ERL verwendet den unkorrigierten Wert zur Validierung seiner Modelle und spielt dabei Volkovs Schlussfolgerung hinsichtlich der Stabilität herunter. Die Autoren räumen zwar ein, dass der Trend „statistisch nicht oder nur kaum signifikant” ist, stützen sich jedoch weiterhin darauf, da er mit ihren alarmistischen Prognosen „im Einklang” steht.
Wo dies richtig platziert worden wäre: In Abschnitt 1 (Einleitung) und Abschnitt 3 (Ergebnisse), in denen die AMOC-Beobachtungen diskutiert werden. ERL behauptet, dass der Wärmetransport der AMOC nach dem Abschalten auf 20-40 % der aktuellen Werte sinkt, aber Volkov zeigt, dass der Florida-Strom (der den größten Teil der subtropischen AMOC-Wärme transportiert) stabil ist, was bedeutet, dass keine Vorboten eines Zusammenbruchs zu beobachten sind. Eine ehrliche Zitierung würde ihre Behauptungen abschwächen: „Während Modelle einen Stillstand vorhersagen, zeigen aktuelle Beobachtungen nach geomagnetischen Korrekturen Stabilität in Schlüsselkomponenten [21]…“ Stattdessen zitieren sie es fälschlicherweise als unterstützenden Beweis. In einem Peer-Review würde ein verantwortungsvoller Gutachter dies als Falschdarstellung kennzeichnen – es sei denn, die Gutachter sind selbst Teil des Spiels.
- Herunterspielen der Bedeutung des Nature-Artikels von 2025 über die Widerstandsfähigkeit der AMOC (Baker et al.)
Baker et al. analysieren in ihrem Artikel „Continued Atlantic overturning circulation even under climate extremes” (Nature, Februar 2025) 34 CMIP6-Modelle unter extremen Treibhausgas- und Süßwasser-Antrieben. Sie kommen zu dem Schluss, dass die AMOC widerstandsfähig ist: Die durch anhaltende Winde angetriebene Aufwärtsströmung im Südlichen Ozean stützt in allen Fällen eine geschwächte AMOC und verhindert so einen vollständigen Zusammenbruch. In den meisten Modellen entsteht eine pazifische meridionale Umwälzströmung (PMOC), die jedoch zu schwach ist, um den Ausfall vollständig auszugleichen, doch die AMOC verschwindet nicht. Dies stellt die Vorstellung von unmittelbar bevorstehenden Kipppunkten in Frage.
Die neue ERL-Studie zitiert Baker [49] in der Diskussion: „Die gesamte AMOC bricht nicht vollständig auf 0 Sv zusammen, was mit der Entwicklung der CMIP6-Modelle unter extremen Klimaveränderungen übereinstimmt [49].“ Sie erkennen zwar an, dass es zu keinem vollständigen Zusammenbruch kommt, spielen jedoch Bakers Betonung der Widerstandsfähigkeit und der stabilisierenden Faktoren (z. B. Winde im Südlichen Ozean, die einen Zusammenbruch verhindern) herunter. ERL konzentriert sich auf den „Stillstand der nördlichen AMOC“ (schwache Tiefenumwälzung) als katastrophal, während Baker argumentiert, dass das System auch unter extremen Bedingungen bestehen bleibt, was weniger schwerwiegende Auswirkungen zur Folge hat.
Wo dies besser passt: In Abschnitt 4 (Diskussion und Schlussfolgerungen), wo ERL auf ein „signifikant höheres Risiko“ eines Stillstands extrapoliert. Sie hätten Bakers Ergebnisse diskutieren können: „Obwohl unsere Modelle schwache Zustände zeigen, heben Baker et al. [49] die stabilisierende Aufwärtsströmung hervor, die einen vollständigen Zusammenbruch verhindert, was auf Widerstandsfähigkeit hindeutet.” Durch das Weglassen dieser Nuance kann ERL Risiken ohne ausgewogene Gegenargumente hochspielen. Dies ist Betrug durch selektive Betonung – das Zitieren, aber Verschweigen der Implikationen.
- Vollständige Auslassung des Artikels aus Nature Communications aus dem Jahr 2025 (Terhaar et al.)
Terhaar et al. kommen in ihrer Studie „Atlantic overturning inferred from air-sea heat fluxes indicates no decline since the 1960s” (Die aus Luft-Meer-Wärmeflüssen abgeleitete Umwälzung im Atlantik zeigt seit den 1960er Jahren keinen Rückgang) anhand von 24 CMIP6-Modellen zu dem Schluss, dass Anomalien im Luft-Meer-Wärmefluss mit der Stärke der AMOC auf dekadischer/hundertjähriger Skala zusammenhängen. Sie stellen fest, dass Wärmeflüsse nördlich von 26,5–50° N aufgrund der Energieerhaltung in engem Zusammenhang mit der AMOC stehen. Anhand von Reanalyse-Daten schließen sie, dass es trotz Schwankungen zwischen 1963 und 2017 zu keinem Rückgang der AMOC im Zehnjahresdurchschnitt bei 26,5° N gekommen ist – was den modellbasierten Behauptungen einer Abschwächung widerspricht.
Die neue ERL-Studie zitiert Terhaar überhaupt nicht, obwohl sie direkt relevant ist (veröffentlicht Anfang 2025, vor der Annahme durch ERL im August). Diese Auslassung ist eklatant: ERL diskutiert den Rückgang des Wärmetransports (Abbildung 9) und behauptet Übereinstimmung mit Beobachtungen, ignoriert jedoch Terhaars empirische Rekonstruktion, die Stabilität zeigt.
Wo dies passt: Im Abstract und in Abschnitt 1, in dem AMOC-Beobachtungen/Rekonstruktionen diskutiert werden. ERL zitiert Michel et al. für einen „Rückgang im 21. Jahrhundert”, lässt jedoch Terhaars Gegenbeweis außer Acht. Sie hätten darauf eingehen können: „Während einige Rekonstruktionen einen Rückgang nahelegen [Michel], zeigen andere, die auf Wärmeflüssen basieren, seit den 1960er Jahren keinen Rückgang [Terhaar]…”
Das völlige Schweigen zu diesem Thema ist Betrug – es handelt sich um direkte, empirische Gegenbeweise aus dem gleichen Jahr, veröffentlicht in einer renommierten Fachzeitschrift. Dies erinnert an die Unterdrückung unbequemer Daten im Rahmen des Climategate-Skandals.
Warum dies akademischer Betrug und eine Wiederholung von Climategate ist-
Rosinenpickerei, falsche Zitierungen und Auslassungen: Die Wissenschaft verlangt, dass Gegenbeweise berücksichtigt werden. Diese Artikel sind nicht obskur – sie erscheinen in Nature und Nature Communications, den renommiertesten Fachzeitschriften überhaupt. Durch die falsche Zitierung von Volkov zur Untermauerung eines falschen Trends, die Herunterspielung von Bakers Widerstandsfähigkeit und die Ignorierung von Terhaar kann ERL Modelle als „Realität“ verkaufen und Beobachtungen außer Acht lassen. Climategate zeigte E-Mails, in denen geplant wurde, Studien „auszuschließen”; hier geschieht Gleiches durch unsachgemäße Behandlung.
-
Peer Review als Waffe: Gutachter/Redakteure sollten dies erkennen. Aber in der Klimawissenschaft herrschen die „Konsenswächter“ vor. Wie in meinem Artikel „Manufacturing Consensus“ beschrieben, entsteht dadurch eine vorgetäuschte Einigkeit, um die Finanzierung zu rechtfertigen. Das Narrativ von ERL lautet: Die AMOC „muss gerettet werden“ – Stichwort: mehr Fördermittel für Modelle, NGOs, die Netto-Null fordern, Eliten, die die Energie kontrollieren.
-
Reale Schäden: Dieser Betrug fördert Maßnahmen, die zu Energiearmut führen, während Vorteile wie die CO₂-Reduzierung ignoriert werden (wie Lindzen et al. in ihrem Gutachten PDF feststellen).
Letztendlich sind die offensichtlichen Falschzitate, die Herunterspielung widerstandsfähiger AMOC-Ergebnisse und die völlige Auslassung von Stabilität signalisierenden Beobachtungsdaten in dem ERL-Artikel kein bloßes Versehen … sondern ein kalkulierter Angriff auf die wissenschaftliche Integrität, der an das Vorgehen von Climategate erinnert, bei dem abweichende Meinungen unterdrückt werden, um Alarm zu schlagen. Indem sie Modelle gegenüber Messungen bevorzugen, perpetuieren diese aktivistischen Autoren eine von Angst getriebene Erzählung, die Steuergelder in endlose Zuschüsse und politische Maßnahmen umleitet, während sie gleichzeitig die realen Beweise ignorieren, dass die AMOC nicht vor dem Zusammenbruch steht, sondern weiterhin gut funktioniert. Es ist an der Zeit, Rechenschaft zu fordern: Entlarven Sie diesen Betrug, lehnen Sie die Konsensfassade ab und holen Sie sich die Wissenschaft von denen zurück, die sie für Macht und Profit instrumentalisieren.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Ist die jüngste Studie zum „Zusammenbruch“ der AMOC Wissenschafts-Betrug? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue Laborforschung zeigt: Steigender CO₂-Gehalt führt zu negativem Treibhauseffekt an den Polen
Die Beweise häufen sich. Die Empfindlichkeit des Klimas gegenüber einem Anstieg des atmosphärischen CO₂ ist praktisch gleich Null.
[Hervorhebung im Original]
Die Wissenschaftler Hermann Harde und Michael Schnell veröffentlichten im Jahr 2021 eine Studie mit dem Titel „Verification of the Greenhouse Effect in the Laboratory“. In der Studie wird vorgeblich experimentell nachgewiesen, dass der atmosphärische CO₂-Treibhauseffekt nicht nur existiert, sondern auch im Einklang mit physikalischen Gesetzen funktioniert.
„Unseres Wissens nach ist dies der erste Nachweis des atmosphärischen Treibhauseffekts in einem Laborexperiment, das auch quantitative Messungen unter Bedingungen wie in der unteren Troposphäre ermöglicht. Wir verwenden einen Versuchsaufbau, der aus zwei Platten in einem geschlossenen Gehäuse besteht, wobei eine Platte in der oberen Position auf 30°C beheizt und die andere in der unteren Position auf -11,4°C gekühlt wird.“
Einige Jahre später analysierten Thorstein Seim und Borgar Olsen (2023) ihren Versuchsaufbau noch genauer. Sie stellten fest, dass bei einer 500-fachen Erhöhung der CO₂-Konzentration, d. h. von 0,04 % (400 ppm) auf 20 % (200.000 ppm) im Treibhauseffekt-Experiment von Harde und Schnell, die Temperatur der Platte nur um 1,18 °C ansteigt, und um weitere 0,4 °C (insgesamt 1,6 °C), wenn die CO₂-Konzentration 100 % erreicht.
Image Source: Seim and Olsen, 2023
Die „Conclusions“ der Studie lauten übersetzt: Die Tatsache, dass das Vorhandensein von CO₂ in der Box bei Anwesenheit der Heizplatte zur Abkühlung eines schwarzen Körpers (der schwarzen Hülle) führte, war eine unerwartete Überraschung. Die Anwesenheit von IR-Strahlung eines geheizten schwarzen Körpers unterdrückt die Heizfähigkeit der IR-Strahlung von CO₂. Auch dieses Ergebnis ist unerwartet. Aufgrund des Stefan-Boltzmannschen Gesetzes und der vom IPCC verwendeten Klimamodelle erwarteten wir eine Erwärmung durch IR-Quanten, die von einer erhöhten CO₂-Konzentration ausgesandt werden.
[Hervorhebungen vom Übersetzer. Gleiches hat ja Schnell auf einer EIKE-Tagung vorgestellt.]
In ihrer Arbeit von 2023 modifizierten Seim und Olsen jedoch das Experiment von Harde und Schnell (2021), um „die Situation auf der Erde und in der Atmosphäre“ besser zu simulieren. Sie fanden heraus, dass ihre veränderte Versuchsanordnung die Temperatur der Platte nicht nur geringfügig um etwas mehr als ein Grad erhöht, sondern dass eine Erhöhung des CO₂-Gehalts von 0,04 % auf 100 % den Schwarzen Körper (die Platte) tatsächlich um etwa -0,2 bis -0,3 °C abkühlt.
In einer weiteren neuen Laborstudie liefern Harde und Schnell 2025 nun experimentelle Beweise, die diesen negativen (oder gegen Null gehenden) Treibhauseffekt bei hohen CO₂-Konzentrationen weiter stützen. Ihr Versuchsaufbau zeigt, dass eine Erhöhung der CO₂-Konzentration von 20.000 (2 %) auf 80.000 ppm (8 %) zu einem negativen Treibhauseffekt führt, der eine Abkühlung um ein Zehntel eines Grades bewirkt.
Dies ist möglicherweise das zweite Experiment, das den negativen Treibhauseffekt im Labor veranschaulicht. Von anderen Autoren veröffentlichte Strahlungsstudien (Schmithüsen et al., 2015, Chen et al., 2024) deuten ebenfalls darauf hin, dass der kühlende Einfluss der CO₂-Zugabe in polaren Klimazonen (Antarktis, Arktis) auftreten kann. Ein CO₂-induzierter negativer Treibhauseffekt in den hohen Breitengraden untergräbt das Narrativ der anthropogenen globalen Erwärmung (AGW), das besagt, dass der Mensch die „polare Verstärkung“ oder das schnelle Schmelzen von Gletschern, Eisschilden und Meereis verursacht.
„Die CO₂-Strahlung wird für drei Standardkonzentrationen von 2, 4 und 8 % gemessen. Die Zugabe von CO₂ führt zu einer deutlichen Abkühlung der Gastemperaturen…“
Die neueste Studie von Harde und Schnell bestätigt auch, dass Wasserdampf (WV) den Treibhauseffekt (GHE) dominiert und somit die Annahme, dass CO₂ ein Treiber des Treibhauseffekts ist, „erhebliche Einschränkungen“ hat. Im Gegensatz zu den in diesem Experiment verwendeten CO₂-Mengen von 2, 4 und 8 % wird die reale Atmosphäre mit 0,042 % CO₂ von WV-Konzentrationen dominiert, die 30-40 Mal höher sind. Daher sind die gesättigten Absorptionsbanden, bei denen CO₂ potenziell eine Wirkung haben könnte, „überlagert“ oder „überlappt“.
„Durch die langen Ausbreitungswege in der Atmosphäre und die um das 30 bis 40-fache höhere WV-Konzentration führt die schwache Überlappung der Spektren zu einer deutlichen Begrenzung der CO₂-Klimasensitivität…“
„Mit zunehmender H₂O-Konzentration wird die Gasabstrahlung der anderen GH-Gase überlagert und deren Wirksamkeit entsprechend reduziert.“
Image Source: Harde and Schnell, 2025
Es wird angenommen, dass der Anstieg der CO₂-Konzentration in der Atmosphäre um 100 ppm (0,01%) seit 1950 – von ~320 auf 420 ppm – die Hauptursache für die globale Erwärmung von 1950 bis heute ist. Diese Experimente zeigen jedoch, dass eine Erhöhung des CO₂ um das 2500-fache (0,04 % bis 100 %) oder sogar um das 100-fache (~40.000 ppm) nur zu einer unbedeutenden Erwärmung oder sogar zu einer Abkühlung um ein Zehntelgrad führt. Diese winzige thermische Auswirkung ist zu unbedeutend, um das Klima der Erde messbar zu beeinflussen.
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Neue Laborforschung zeigt: Steigender CO₂-Gehalt führt zu negativem Treibhauseffekt an den Polen erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Zeldins EPA-Ziel, die Vorschriften der Obama-Biden-Ära zu beenden, wird die Energieindustrie wiederbeleben
Mit seinem Vorschlag, das unter Obama getroffene “endangerment finding“ aufzuheben, will EPA-Administrator Lee Zeldin nichts Geringeres tun als die wackelige rechtliche Grundlage zu zerschlagen, auf der über 15 Jahre lang gesellschaftsverändernde Klima-Vorschriften aufgebaut wurden.
Passenderweise wählte Zeldin einen Lkw-Händler im Mittleren Westen (Indianapolis), um die von der Obama-EPA 2009 getroffene Gefährdungsfeststellung anzufechten, die der US-Bundesregierung die Befugnis gab, die Auspuffemissionen der Fahrzeugflotte der Nation und damit auch die Emissionen von mit fossilen Brennstoffen betriebenen Kraftwerken und anderen Industrieanlagen zu regulieren.
Die Obama-Regierung nutzte das Endangerment Finding, um die vorzeitige Schließung von Kohlekraftwerken durch Vorschriften zu erzwingen. Und die Biden-Regierung nutzte die Gefährdungsermittlung, um ein De-facto-Mandat für Elektrofahrzeuge durchzusetzen, indem sie mit Benzin und Diesel betriebene Fahrzeuge aus dem Verkehr zog – eine Regelung, die von der Trump-Regierung Anfang dieses Jahres gekippt worden ist.
„Die heutige Ankündigung wäre – so sie umgesetzt wird – die größte Deregulierungsmaßnahme in der Geschichte der Vereinigten Staaten“, sagte Zeldin flankiert von Vertretern der Lkw-Industrie bei der Veranstaltung am 29. Juli. Seine Behauptung ist keine Übertreibung.
Das endangerment finding beruht auf der Entscheidung des Obersten Gerichtshofs von 2007 in der Rechtssache Massachusetts gegen EPA. In diesem Urteil wurde der EPA die Befugnis zuerkannt, Kohlendioxid (CO₂), Methan und andere Treibhausgase im Rahmen des Clean Air Act zu regulieren. Zwei Jahre später verloren die von Obama ernannten Politiker, die sich gerade bei der EPA niedergelassen hatten, wenig Zeit mit der Ausarbeitung des Endangerment Finding; sie erkannten die scheinbar begrenzten Möglichkeiten, die ihnen das Urteil des Obersten Gerichtshofs gegeben hatte.
Das Ergebnis war ein Ansturm von Vorschriften unter Obama und Biden, die auf die Dekarbonisierung des gesamten Landes abzielten, auf dem Weg zu einem staatlich gesteuerten Übergang zu einer grünen Wirtschaft. Vorschriften, die auf fossile Brennstoffe abzielten, wurden von großzügigen staatlichen Zuwendungen – Zuschüsse, Darlehen, Subventionen – an politisch gut vernetzte Anbieter aller Arten von grünen Produkten und Technologien begleitet.
Für das Klimakartell war das Leben gut, und die Party würde ewig weitergehen. Zumindest dachten sie das. Während der Oberste Gerichtshof 2007 behauptete, dass die EPA die Befugnis habe, CO₂ und andere Treibhausgase als Schadstoffe zu regulieren, findet sich im Clean Air Act kein einziger entsprechender Passus. Im Juni 2022 entschied der Oberste Gerichtshof in der Rechtssache West Virginia gegen die EPA, dass Bundesbehörden eine ausdrückliche Ermächtigung des Kongresses benötigen, bevor sie Vorschriften erlassen, die „wichtige Fragen“ zu den wirtschaftlichen Auswirkungen aufwerfen. Das Gericht befand, dass der Obama-EPA die gesetzliche Befugnis gemäß dem Clean Air Act fehlte, um Treibhausgasemissionen von Kohlekraftwerken zu regulieren.
Nun will die Zeldin-EPA dieses Urteil zusammen mit anderen rechtlichen Argumenten nutzen, um die Gefährdungsermittlung abzuschaffen. Zeldins ursprüngliches Ziel ist es, die 2010 verhängten Treibhausgasnormen für leichte, mittelschwere und schwere Fahrzeuge und Motoren für schwere Nutzfahrzeuge allesamt aufzuheben. Aber es geht um viel mehr als nur um Kraftfahrzeuge. Sobald seine Regelung abgeschlossen ist und gerichtliche Anfechtungen überstanden hat (siehe unten), wird der Präzedenzfall für die Aufhebung aller Bundesvorschriften über Treibhausgasemissionen geschaffen sein.
Das werden die Umweltgruppen und ihre politischen Verbündeten nicht einfach so hinnehmen. Schließlich sehen sie sich mit der Aussicht konfrontiert, dass ein Großteil ihrer jahrzehntelangen Bemühungen, das Klima als Vorwand zu nutzen, um Macht über einen Großteil der amerikanischen Gesellschaft zu erlangen, auf den sprichwörtlichen Aschehaufen der Geschichte verbannt wird. Sie werden klagen.
Und das könnte genau das sein, was die Trump-Regierung will. Diese Klagen werden schließlich den Weg zum Obersten Gerichtshof finden. Das derzeitige Gericht ist jedoch das gleiche Gericht, das in den Fällen West Virginia gegen EPA und Loper Bright Enterprises gegen Raimondo, in denen es die Chevron-Dekretionsdoktrin aufhob, gegen Bundesbehörden entschieden hat, die beim Erlass von Vorschriften die Befugnisse des Kongresses überschreiten. Angesichts der jüngsten Erfahrungen des Obersten Gerichtshofes mit der Zurückdrängung des Verwaltungsstaates ist es sehr wahrscheinlich, dass er sich auf die Seite von Zeldin stellen wird.
Diese Überlegungen könnten letztlich dazu führen, dass das Gericht sein Urteil aus dem Jahr 2007 in der Rechtssache Massachusetts gegen die EPA überdenkt, mit dem der Gefährdungsstatus eingeführt wurde. Das Gericht ist nicht zimperlich, wenn es darum geht, Präzedenzfälle umzustoßen, sei es Roe v. Wade oder die Chevron-Doktrin, die es Bürokraten erlaubt, die Bedeutung von zweideutig geschriebenen Gesetzen zu bestimmen. Was sollte den Obersten Gerichtshof daran hindern, das Urteil Massachusetts gegen EPA aufzuheben und zu argumentieren, dass es Sache des Kongresses ist, Gesetze zur Regulierung von Treibhausgasen zu erlassen?
Aus Sicht der Trump-Regierung könnten rechtliche Anfechtungen von Zeldins Initiative durchaus ein Fall für sich sein: „‚Komm in meine Stube‘, sagte die Spinne zur Fliege.“
This article originally appeared at Human Events
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Zeldins EPA-Ziel, die Vorschriften der Obama-Biden-Ära zu beenden, wird die Energieindustrie wiederbeleben erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Woher kommt der Strom? Windflaute bis Mittwoch
Die am Sonntag der Vorwoche einsetzende Windflaute dauert in der aktuellen Analysewoche noch bis Mittwoch, den 20.8.2025 an. Weil am Mittwoch die PV-Stromerzeugung nachlässt und die Windstromerzeugung noch gering ist, kommt es zum ganztägigen Stromimport. Dieser Stromimport führt dazu, dass der Strompreis mit 35,0€/MWh um 13:00 Uhr zwar gesunken ist, doch keineswegs auch nur in die Nähe der 0€/MWh-Linie kommt.
Ab Donnerstag steigt die Windstromerzeugung an. Bis auf zwei Stunden (13:00 und 14:00 Uhr) wird wieder Strom importiert. Steigende Windstromerzeugung wirkt ausgleichend. Der Strompreis sinkt wiederum nicht annähernd Richtung 0€/MWh-Linie. Erst ab Freitag übersteigt die regenerative Stromerzeugung den Bedarf in Deutschland. Der Stromimport setzt von 11:00 bis 17:00 Uhr aus. Mit der Folge, dass der Strompreis auf die 0€/MWh-Linie sinkt. Am Sonntag werden sogar negative Strompreise aufgerufen.
Kontrafunk-Audimax brachte am Sonntag, den 31.8.2025 einen wegweisenden Vortrag von Prof. Ganteför. Prof. Ganteför vergleicht das gängige Klimanarrativ, das Budget-Modell, welches kürzlich im Grundgesetz verankert wurde, mit dem Senken-Modell, welches auch von Dr. Joachim Dengler erforscht wurde. In diesem Aufsatz belegt und erläutert Dr. Dengler, weshalb die Angst vor einem Weltenbrand vollkommen unbegründet ist.
Wochenüberblick
Montag, 18.8.2025 bis Sonntag, 24.8.2025: Anteil Wind- und PV-Strom 53,9 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 67,3 Prozent, davon Windstrom 22,5 Prozent, PV-Strom 31,3 Prozent, Strom Biomasse/Wasserkraft 13,4 Prozent.
- Regenerative Erzeugung im Wochenüberblick 18.8.2025 bis 24.8.2025
- Die Strompreisentwicklung in der 34. Analysewoche 2025.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 34. Analysewoche ab 2016.
Daten, Charts, Tabellen & Prognosen zur 34. KW 2025:
Factsheet KW 34/2025 – Chart, Produktion, Handelswoche, Import/Export/Preise, CO2 Das Agora-Zukunftsmeter liefert momentan nicht!
- Rüdiger Stobbe zur Dunkelflaute bei Kontrafunk aktuell 15.11.2024
- Bessere Infos zum Thema „Wasserstoff“ gibt es wahrscheinlich nicht!
- Eine feine Zusammenfassung des Energiewende-Dilemmas von Prof. Kobe (Quelle des Ausschnitts)
- Rüdiger Stobbe zum Strommarkt: Spitzenpreis 2.000 €/MWh beim Day-Ahead Handel
- Meilenstein – Klimawandel & die Physik der Wärme
- Klima-History 1: Video-Schatz aus dem Jahr 2007 zum Klimawandel
- Klima-History 2: Video-Schatz des ÖRR aus dem Jahr 2010 zum Klimawandel
- Interview mit Rüdiger Stobbe zum Thema Wasserstoff plus Zusatzinformationen
- Weitere Interviews mit Rüdiger Stobbe zu Energiethemen
- Viele weitere Zusatzinformationen
- Achtung: Es gibt aktuell praktisch keinen überschüssigen PV-Strom (Photovoltaik). Ebenso wenig gibt es überschüssigen Windstrom. Auch in der Summe der Stromerzeugung mittels beider Energieträger plus Biomassestrom plus Laufwasserstrom gibt es fast keine Überschüsse. Der Beleg 2023, der Beleg 2024/25. Strom-Überschüsse werden bis auf wenige Stunden immer konventionell erzeugt. Aber es werden, insbesondere über die Mittagszeit für ein paar Stunden vor allem am Wochenende immer mehr. Genauso ist es eingetroffen. Sogar in der Woche erreichen/überschreiten die regenerativen Stromerzeuger die Strombedarfslinie.
Was man wissen muss: Die Wind- und Photovoltaik-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie, angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem Jahresverlauf 2024/25 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.
TagesanalysenMontag
Montag, 18.8.2025: Anteil Wind- und PV-Strom 47,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,9 Prozent, davon Windstrom 5,9 Prozent, PV-Strom 41,1 Prozent, Strom Biomasse/Wasserkraft 12,9 Prozent.
Windflaute. Starke PV-Stromerzeugung. Höchste Strompreisdifferenz der Woche mit diesen Handelsaktivitäen.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 18. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 18.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Dienstag
Dienstag, 19.8.2025: Anteil Wind- und PV-Strom 49,7 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 62,2 Prozent, davon Windstrom 10,5 Prozent, PV-Strom 39,1 Prozent, Strom Biomasse/Wasserkraft 12,5 Prozent.
Ähnliches Bild wie am Montag. Allerding geringere Preisdifferenz.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 19. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 19.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Mittwoch
Mittwoch, 20.8.025: Anteil Wind- und PV-Strom 47,8 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,8 Prozent, davon Windstrom 17,6 Prozent, PV-Strom 32,2 Prozent, Strom Biomasse/Wasserkraft 12,9 Prozent.
Etwas mehr Windstrom, viel weniger PV-Strom. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 20. August 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 20.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Donnerstag
Donnerstag, 21.8.2025: Anteil Wind- und PV-Strom 52,6 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,4 Prozent, davon Windstrom 26,3 Prozent, PV-Strom 26,3 Prozent, Strom Biomasse/Wasserkraft 12,7 Prozent.
Windstromerzeugung steigt weiter an. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 21. August 2025 ab 2016.
Daten, Charts, Tabellen & Prognosen zum 21.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inklusive Importabhängigkeiten.
Freitag
Freitag, 22.8.2025: Anteil Wind- und PV-Strom 60,2 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 73,8 Prozent, davon Windstrom 36,2 Prozent, PV-Strom 22,8 Prozent, Strom Biomasse/Wasserkraft 13,6 Prozent.
Der Bedarf wird regenerativ überschritten. Die Strompreisbildung. Die Null-Linie wird erreicht.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 22. August 2016.
Daten, Charts, Tabellen & Prognosen zum 22.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Samstag
Samstag, 23.8.2025: Anteil Wind- und PV-Strom 63,2 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 77,7 Prozent, davon Windstrom 38,2 Prozent, PV-Strom 25,1 Prozent, Strom Biomasse/Wasserkraft 14,5 Prozent.
Die regenerative Stromerzeugung übersteigt den Bedarf erheblich. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 23. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 23.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Sonntag
Sonntag, 23.8.2025: Anteil Wind- und PV-Strom 57,4 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 73,1 Prozent, davon Windstrom 23,0 Prozent, PV-Strom 34,4 Prozent, Strom Biomasse/Wasserkraft 15,7 Prozent.
Nach weniger Bedarf, die regenerative Stromerzeugung ist zu hoch. Die Strompreisbildung.
Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 24. August ab 2016.
Daten, Charts, Tabellen & Prognosen zum 24.8.2025: Chart, Produktion, Handelstag, Import/Export/Preise/CO2 inkl. Importabhängigkeiten.
Die bisherigen Artikel der Kolumne „Woher kommt der Strom?“ seit Beginn des Jahres 2019 mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.
Rüdiger Stobbe betreibt seit 2016 den Politikblog MEDIAGNOSE.
Der Beitrag Woher kommt der Strom? Windflaute bis Mittwoch erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
228 Chemikalien aus Offshore-Windparks bedrohen das Meer
Bild KI generiert mit ChatGpt
Eine aktuelle Untersuchung stellt Offshore-Windparks in ein neues Licht. Fachleute identifizierten 228 mögliche Chemikalien, die von den Anlagen ins Meer gelangen und damit zu einer erheblichen Umweltbelastung führen könnten. 62 davon gelten als besonders umweltrelevant. Diese Stoffe finden sich auf der Liste der Europäischen Chemikalienagentur ECHA. Darunter befinden sich Chemikalien mit toxischen Eigenschaften, mit hormoneller Wirkung oder mit dem Potenzial, sich in der Nahrungskette anzureichern. Auch krebserregende Substanzen sind darunter. Insbesondere der Korrosionsschutz trägt einen erheblichen Anteil dazu bei. Die Ergebnisse erschienen im Fachjournal (Marine Pollution Bulletin, 06.2025).
Chemikalien im Fokus der ForschungDie Untersuchung zeigt, dass Offshore-Windparks nicht nur Energie liefern, sondern auch eine Quelle für Chemikalien darstellen. Rund 70 Prozent der potenziellen Emissionen entstehen durch Korrosionsschutz, etwa zehn Prozent durch Öle und Schmierstoffe. Auch Kühlmittel und Feuerlöschanlagen tragen zur Belastung bei. Fachleute fordern deshalb eine präzise Überwachung, um die tatsächliche Umweltbelastung einschätzen zu können.
Das Bundesamt für Seeschifffahrt und Hydrographie betont, dass Messungen vor dem Bau und während des Betriebs nötig sind um die Umweltbelastung zu ermitteln. Nur mit solchen Daten lässt sich bestimmen, wie stark Chemikalien das Meeresökosystem beeinträchtigen. So könnten künftige Offshore-Windparks nachhaltiger gestaltet werden.
Umweltbelastung durch Technik mindernDie Studie zeigt auch Wege zur Reduzierung der Umweltbelastung. Alternative Systeme zum Korrosionsschutz, geschlossene Kühlsysteme und biologisch abbaubare Betriebsstoffe könnten viele Chemikalien ersetzen. „Allerdings fehlen branchenspezifische Standards, wie sie beispielsweise in der Schifffahrt verwendet werden“, heißt es in einer Mitteilung des Bundesamts.
In Deutschland existieren zwar Regeln, die Projektträger zu Konzepten gegen Emissionen verpflichten. Dennoch reicht dieser Ansatz nicht aus. Internationale Leitlinien gelten als entscheidend, um die Umweltbelastung durch Offshore-Windparks dauerhaft zu verringern. Ohne einheitliche Standards bleibt der Schutz des Meeresökosystems unvollständig.
Internationale Verantwortung für das Meeresökosystem
Die Studie entstand in Zusammenarbeit des BSH mit dem französischen IFREMER und dem belgischen ILVO. Nur durch internationale Kooperation lassen sich Chemikalien und deren Folgen umfassend erfassen. Experten fordern daher verbindliche Vorgaben, damit Offshore-Windparks nicht im Widerspruch zu den Zielen des Umweltschutzes stehen.
Ein klarer rechtlicher Rahmen für Planung, Bau und Betrieb gilt als Voraussetzung. Zudem sollten verbindliche Standards für Korrosionsschutz und Betriebsmittel etabliert werden. Nur so kann man die Umweltbelastung verringern und die Energiewende mit Offshore-Windparks bleibt im Einklang mit den Anforderungen an den Schutz des Meeresökosystems.
Artikel mit freundlicher Genehmigung übernommen von:
Der Beitrag 228 Chemikalien aus Offshore-Windparks bedrohen das Meer erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Hersteller wurden zum Schweigen gebracht.
Anonymer Autor
Es gibt zahlreiche Geschichten über die Dummheit (um einen Ausdruck von Reform UK zu verwenden) von Net Zero, angefangen beim Import von Kokskohle aus Polen für die „verstaatlichten“ Stahlwerke anstatt sie in UK abzubauen, bis hin zum Import großer Mengen Holzpellets für das Kraftwerk Drax aus Nordamerika. Die viel gepriesene grüne Revolution war in jeder Hinsicht eine Enttäuschung. Bekanntlich hat Großbritannien die höchsten Strompreise in Europa, und Arbeitsplätze, Steuereinnahmen und Gewinne werden auf die andere Seite der Welt exportiert.
Britische Unternehmen – insbesondere Produzenten – leiden stark darunter, aber überraschenderweise schweigen sie nicht nur zu den Geschehnissen, sondern wiederholen weiterhin gebetsmühlenartig das Mantra von Net Zero.
Warum?
Wir können Parallelen dazu ziehen, wie Themen wie Transgender-Fragen und DEI (Diversity, Equity and Inclusion) zum „Thema des Monats“ wurden, dann aber heimlich in die Richtlinien und Verfahren von Unternehmen und Organisationen überall integriert wurden. Dort angekommen, sorgten deren Befürworter dafür, dass jeder, der sich dagegen aussprach, sofort zur „Umschulung“ an die Personalabteilung verwiesen oder einfach entlassen wurde. Mit anderen Worten: Jeder wusste, wie dumm diese Richtlinien waren, aber niemand wagte es, sich aus Angst vor Vergeltungsmaßnahmen zu äußern.
Net Zero ist ein ähnliches Schicksal und darf in den meisten Organisationen nicht in Frage gestellt werden, ohne potenziell schwerwiegende Konsequenzen zu riskieren. Das Schweigen über die Unsinnigkeit dieser Politik wurde jedoch auf andere Weise erzwungen – durch den Finanzsektor.
Heutzutage sind alle Finanzinstitute in den Kreis der Umweltaktivisten aufgenommen worden. So sagt beispielsweise die British Business Bank, die Kredite an kleine und mittlere Unternehmen vergibt, dass ihre Mission darin besteht:
„Um nachhaltiges Wachstum und Wohlstand in ganz Großbritannien zu fördern und den Übergang zu einer Netto-Null-Wirtschaft zu ermöglichen, indem der Zugang zu Finanzmitteln für kleinere Unternehmen verbessert wird … und um den Übergang Großbritanniens zu einer Netto-Null-Wirtschaft zu unterstützen.“
Ein solcher Netto-Null-Aktivismus ist mittlerweile in allen Finanzinstituten verbreitet. Infolgedessen konnte der Sektor Unternehmen in der gesamten Wirtschaft eine stillschweigende Unterstützung für dieses Ziel auferlegen, indem er es zu einer Voraussetzung für Kredite und andere Finanzierungsinstrumente gemacht hat. Unternehmen, die Unterstützung suchen, müssen daher nicht nur die erforderlichen Buchhaltungsinformationen vorlegen, sondern auch darlegen, wo sie auf ihrem Weg zur Netto-Null stehen und wie sie die entsprechenden Meilensteine auf dem Weg zum Ziel erreichen wollen.
Für KMU, die sich Sorgen um die Energiekosten machen und möglicherweise dazu neigen, sich zur Ausrichtung der Politik zu äußern, stellt dies eine regelrechte Bedrohung dar – sich gegen die Netto-Null-Initiative auszusprechen, birgt das Risiko, gegen die Netto-Null-Vereinbarungen in ihren Finanzierungsverträgen zu verstoßen. Infolgedessen schweigen sie, und das Ministerium für Energiesicherheit und Netto-Null kann dann verkünden, dass ihr Schweigen eine stillschweigende Unterstützung darstellt.
Da die Auswirkungen der Netto-Null-Politik jedoch zunehmend zu einer existenziellen Bedrohung werden, haben Unternehmen immer weniger zu verlieren, wenn sie sich zu Wort melden. Wenn man ohnehin untergeht, kann man genauso gut lautstark untergehen. Daher spüre ich ein wachsendes Interesse daran, Stellung zu beziehen. Derzeit wagen sich nur Unternehmen, die groß genug sind, um die Nachteile zu riskieren, aus der Deckung: Kürzlich erklärte der CEO von Mercedes Benz, dass „das vorgeschlagene EU-Verbot für neue Benzin- und Dieselautos ab 2035 zu ehrgeizig ist, einen ‚Zusammenbruch‘ des europäischen Automarktes auslösen könnte und weder die aktuelle Verbrauchernachfrage noch die wirtschaftlichen Realitäten des Übergangs berücksichtigt”.
Aber angesichts steigender Strompreise habe ich das Gefühl, dass auch kleinere Unternehmen wie meines sich zu Wort melden werden. Der Damm scheint zu bröckeln, und es könnte eine Flutwelle auf uns zukommen.
[Hervorhebung vom Übersetzer]
Anonymous author: The author prefers to remain anonymous.
Link: https://www.netzerowatch.com/all-news/manufacturers-silenced
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Hersteller wurden zum Schweigen gebracht. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Neue Förderrichtlinien für Wind- und Solarenergie veröffentlicht
Am 22 veröffentlichte das US-Finanzministerium seine mit Spannung erwartete aktualisierte Anleitung dazu, wie Wind- und Solarprojekte für Subventionen im Rahmen des One Big Beautiful Bill Act in Frage kommen.
Laut Bloomberg Tax erfolgte die Aktualisierung der Leitlinien nach einer Durchführungsverordnung von Präsident Trump , die Formulierungen im Zusammenhang mit den Baubeginn-Regeln zu überarbeiten, damit diese nicht umgangen werden können, „unter anderem durch die Verhinderung einer künstlichen Beschleunigung oder Manipulation der Förderfähigkeit und durch die Einschränkung der Nutzung umfassender Schutzbestimmungen, sofern nicht bereits ein wesentlicher Teil der betreffenden Anlage gebaut wurde.“
Infolgedessen hat die Regierung die Fünf-Prozent-Regelung für die Förderfähigkeit offiziell abgeschafft. Diese ermöglichte es Wind- und Solarprojektentwicklern, sich Subventionen für vier Jahre nach Ablauf der Fördermittel zu sichern, wenn sie fünf Prozent der Projektkosten im Voraus aufwendeten.
Beispielsweise sollten die Steuergutschriften im Jahr 2019 auslaufen. Wenn ein Wind- oder Solarentwickler jedoch am 31. Dezember 2019 fünf Prozent der Projektkosten ausgegeben hätte, hätte er vier Jahre Zeit, den Bau des Projekts abzuschließen und hätte immer noch Anspruch auf die volle staatliche Förderung.
Um für die Subventionen in Frage zu kommen, müssen Projekte nun mit dem Bau dieser Anlagen „von erheblicher Bedeutung“ physisch beginnen [also tatsächlich angefangen haben]
Was bedeutet „von erheblicher Bedeutung?
Bei Windkraftprojekten kann dies laut Leitfaden den Beginn der Aushubarbeiten für das Fundament, das Einbringen von Ankerbolzen in den Boden oder das Gießen der Betonplatten des Fundaments bedeuten. Bei Solarprojekten kann dies die Installation von Gestellen oder anderen Strukturen zur Befestigung von Photovoltaikmodulen (PV), Kollektoren oder Solarzellen an einem Standort umfassen.
Es bedeutet nicht:
- Planen oder Gestalten
- Finanzierung sichern
- Erkunden, Forschen
- Durchführen von Mapping und Modellierung zur Bewertung einer Ressource
- Einholung von Genehmigungen und Lizenzen
- Durchführung geophysikalischer Schwerkraft-, Magnet-, Seismik- und Tragfähigkeits-Untersuchungen
- Durchführung von Umwelt- und Ingenieurstudien
- Eine Baustelle räumen
- Durchführung von Probebohrungen zur Ermittlung der Bodenbeschaffenheit (einschließlich der Prüfung der Festigkeit eines Fundaments)
- Aushubarbeiten zur Veränderung der Geländekontur (im Unterschied zu Aushubarbeiten für ein Fundament) – Entfernen vorhandener Fundamente, Turbinen und Türme, Solarmodule oder anderer Komponenten, die nicht mehr Teil der jeweiligen Wind- oder Solaranlage sind (einschließlich solcher, die sich auf oder an Gebäudestrukturen befinden)
Indem die Trump-Regierung die Möglichkeit für Projektbesitzer, fünf Prozent der Projektkosten aufzuwenden, um ihre Berechtigung für den Production Tax Credit (PTC) und den Investment Tax Credit (ITC) zu sichern, durch die Anforderung ersetzt, dass erhebliche physische Arbeiten abgeschlossen sein müssen, passen diese Definitionen mit ziemlicher Sicherheit besser an das an, was der Durchschnittsamerikaner denkt, wenn er den Ausdruck „Baubeginn“ hört.
Nehmen wir an, Sie planen 2.500 Dollar für die Renovierung Ihres Badezimmers ausgeben. Glaubt irgend jemand ernsthaft, dass die Ausgabe von 125 Dollar für einen neuen Waschtisch – natürlich von Menard’s – unabhängig davon, ob er installiert ist oder nicht, tatsächlich den „Baubeginn“ darstellt? Natürlich nicht. Der „normale Bürger“ wird vielmehr annehmen, dass hier jemand versucht, seinen Zugriff auf Steuergelder zu rechtfertigen.
Mit ziemlicher Sicherheit wird es bei den Befürwortern von Wind- und Solarenergie über diese Richtlinien der US-Steuerbehörde (Internal Revenue Service) ein Gejammer und Zähneknirschen geben. Man sollte jedoch bedenken, dass die Änderungen der Trump-Regierung milder ausfallen als die Subventionsrichtlinien vor der Neufassung der Fördervoraussetzungen durch die Obama-Regierung im Jahr 2013.
Laut dem Congressional Research Service mussten Projekte vor der Neufassung von 2013 vor Ablauf der Steuergutschriften in Betrieb genommen werden , d. h. die Anlage musste vor Ablauf der Gutschrift betriebsbereit und einsatzbereit sein. Das bedeutet, dass die Förderkriterien heute weniger streng sind als 1992, als Senator Grassley an der Schaffung des PTC mitwirkte.
Ziel der Richtlinien der Trump-Regierung war es, die Zahl der Projekte, die Anspruch auf Subventionen haben, zu begrenzen, indem ihnen die Möglichkeit genommen wurde, das System auszutricksen und so ihren Förderzeitraum zu verlängern. Und ich denke, dass diese Änderungen genau das erreichen.
- Vielen Dank, dass Sie Leser von Energy Bad Boys sind. Wir schätzen Ihre anhaltende Unterstützung sehr.
https://energybadboys.substack.com/p/new-wind-and-solar-subsidy-guidance
Der Beitrag Neue Förderrichtlinien für Wind- und Solarenergie veröffentlicht erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
NASA testet KI-gestütztes „dynamisches Targeting“ aus dem Weltraum
Von der Abteilung „Klingt wie ein Waffensystem“ und dem NASA JPL:
Das Konzept namens Dynamic Targeting wird seit über einem Jahrzehnt am Jet Propulsion Laboratory der NASA in Südkalifornien entwickelt. Der erste einer Reihe von Flugtests fand Mitte Juli an Bord eines kommerziellen Satelliten statt. Ziel: das Potenzial von Dynamic Targeting aufzuzeigen, das es Orbitern ermöglicht, die Bodenabbildung durch Vermeidung [der Beobachtung] von Wolken zu verbessern und autonom nach bestimmten, kurzlebigen Phänomenen wie Waldbränden, Vulkanausbrüchen und seltenen Stürmen zu suchen.
In einem kürzlich durchgeführten Test zeigte die NASA, wie künstliche Intelligenz Raumfahrzeugen helfen kann, zielgerichtetere und wertvollere wissenschaftliche Daten zu liefern. Die Technologie ermöglichte es einem Erdbeobachtungssatelliten erstmals, seine Umlaufbahn vorauszuschauen, Bilder mithilfe integrierter KI schnell zu verarbeiten und zu analysieren und die Ausrichtung eines Instruments zu bestimmen. Der gesamte Vorgang dauerte weniger als 90 Sekunden und war ohne menschliches Zutun möglich.
Diese Grafik zeigt, wie die dynamische Zielerfassung des JPL einen vorausschauenden Sensor nutzt, um zu erkennen, was sich auf der nächsten Flugbahn eines Satelliten befindet. Integrierte Algorithmen verarbeiten die Sensordaten und identifizieren Wolken, die vermieden werden müssen, sowie interessante Ziele für eine genauere Beobachtung, während der Satellit über ihnen vorbeifliegt. NASA/JPL-Caltech
https://www.nasa.gov/science-research/earth-science/how-nasa-is-testing-ai-to-make-earth-observing-satellites-smarter/
„Die Idee ist, die Raumsonde menschlicher agieren zu lassen: Anstatt nur Daten zu sehen, denkt sie darüber nach, was die Daten zeigen und wie sie reagieren soll“, sagt Steve Chien, technischer Mitarbeiter für KI am JPL und leitender Forscher des Dynamic Targeting-Projekts. „Wenn ein Mensch ein Bild von brennenden Bäumen sieht, versteht er, dass es sich um einen Waldbrand handeln könnte, nicht nur um eine Ansammlung roter und orangefarbener Pixel. Wir versuchen, die Raumsonde so auszustatten, dass sie erkennt: ‚Das ist ein Feuer‘ und dann ihre Sensoren auf das Feuer richtet.“
Vermeidung von Wolken für bessere Wissenschaft
Bei diesem ersten Flugtest für Dynamic Targeting ging es nicht darum, bestimmte Phänomene wie Feuer zu jagen – das kommt später. Vielmehr ging es darum, ein allgegenwärtiges Phänomen zu vermeiden: Wolken.
Die meisten wissenschaftlichen Instrumente auf Raumfahrzeugen im Orbit blicken auf alles, was sich unter ihnen befindet. Bei Erdbeobachtungssatelliten mit optischen Sensoren können Wolken jedoch bis zu zwei Drittel der Zeit im Weg sein und die Sicht auf die Oberfläche versperren. Um dies zu vermeiden, blickt Dynamic Targeting 500 Kilometer weit voraus und kann zwischen Wolken und klarem Himmel unterscheiden. Bei klarem Himmel bildet das Raumfahrzeug die Oberfläche beim Überflug ab. Bei Bewölkung bricht das Raumfahrzeug die Bildaufnahme ab, um Datenspeicher für ein anderes Ziel freizugeben.
„Wenn man sich bei der Auswahl der Bilder anpasst, kann man nur den Boden abbilden und die Wolken aussparen. So spart man sich das Speichern, Verarbeiten und Herunterladen von Bildern, die die Forscher eigentlich nicht nutzen können“, sagte Ben Smith vom Jet Propulsion Laboratory (JPL), ein Mitarbeiter des Earth Science Technology Office der NASA, das die Dynamic Targeting-Arbeit finanziert. „Diese Technologie wird den Wissenschaftlern helfen, einen deutlich höheren Anteil verwertbarer Daten zu erhalten.“
So funktioniert dynamisches Targeting
Die Tests finden auf CogniSAT-6 statt, einem CubeSat in Aktenkoffergröße, der im März 2024 gestartet wurde. Der Satellit – entworfen, gebaut und betrieben von Open Cosmos – beherbergt eine von Ubotica entwickelte Nutzlast mit einem handelsüblichen KI-Prozessor. Während der Zusammenarbeit mit Ubotica im Jahr 2022 führte Chiens Team an Bord der Internationalen Raumstation Tests durch, bei denen Algorithmen ähnlich denen von Dynamic Targeting auf demselben Prozessortyp ausgeführt wurden. Die Ergebnisse zeigten, dass die Kombination für die weltraumgestützte Fernerkundung geeignet sein könnte.
Da CogniSAT-6 über keinen Bildsensor für die Vorausschau verfügt, neigt sich die Raumsonde um 40 bis 50 Grad nach vorne, um ihren optischen Sensor – eine Kamera, die sowohl sichtbares als auch nahinfrarotes Licht wahrnimmt – auszurichten. Sobald die Vorausschaubilder aufgenommen wurden, analysiert der fortschrittliche Algorithmus von Dynamic Targeting, der auf die Erkennung von Wolken trainiert ist, diese. Basierend auf dieser Analyse bestimmt die Planungssoftware von Dynamic Targeting, wohin der Sensor für wolkenfreie Ansichten ausgerichtet werden muss. Währenddessen neigt sich der Satellit zurück zum Nadir (blickt direkt unter die Raumsonde) und nimmt die geplanten Bilder auf, wobei er nur den Boden erfasst.
Dies alles geschieht in 60 bis 90 Sekunden, abhängig vom ursprünglichen Vorausschauwinkel, während das Raumfahrzeug in der niedrigen Erdumlaufbahn mit fast 17.000 Meilen pro Stunde (7,5 Kilometer pro Sekunde) rast.
Was kommt als Nächstes
Nachdem die Fähigkeit zur Wolkenvermeidung nun bewiesen ist, wird der nächste Test die Suche nach Stürmen und Unwettern sein – im Wesentlichen geht es darum, Wolken gezielt zu erfassen, anstatt ihnen auszuweichen. Ein weiterer Test ist die Suche nach thermischen Anomalien wie Waldbränden und Vulkanausbrüchen. Das JPL-Team entwickelte für jede Anwendung eigene Algorithmen.
„Dieser erste Einsatz von Dynamic Targeting ist ein enorm wichtiger Schritt“, sagte Chien. „Das Endziel ist der operative Einsatz im Rahmen einer wissenschaftlichen Mission, um ein sehr agiles Instrument für neuartige Messungen zu schaffen.“
Es gibt verschiedene Visionen, wie dies geschehen könnte – möglicherweise sogar auf Raumfahrzeugen, die das Sonnensystem erforschen. Tatsächlich ließen sich Chien und seine JPL-Kollegen für ihre Arbeit zum dynamischen Targeting von einem anderen Projekt inspirieren, an dem sie ebenfalls gearbeitet hatten: Sie nutzten Daten des Rosetta -Orbiters der ESA (European Space Agency), um die Machbarkeit der autonomen Erkennung und Abbildung von Fontänen des Kometen 67P/Churyumov-Gerasimenko zu demonstrieren.
Auf der Erde könnte die Anpassung der dynamischen Zielerfassung an Radarsysteme Wissenschaftlern die Untersuchung gefährlicher extremer Winterwetterereignisse ermöglichen, sogenannter konvektiver Eisstürme. Diese sind zu selten und zu kurzlebig, um sie mit bestehenden Technologien genau zu beobachten. Spezielle Algorithmen würden diese dichten Sturmformationen mithilfe eines Vorausschauinstruments eines Satelliten identifizieren. Anschließend würde ein leistungsstarkes, fokussiertes Radargerät die Eiswolken im Blick behalten und sie „anstarren“, während die Raumsonde über sie hinwegfliegt und innerhalb von sechs bis acht Minuten eine Fülle von Daten sammelt.
Einige Ideen beinhalten den Einsatz von Dynamic Targeting auf mehreren Raumfahrzeugen: Die Ergebnisse der Bildanalyse an Bord eines führenden Satelliten könnten schnell an einen nachfolgenden Satelliten übermittelt werden, der dann mit der Zielerfassung bestimmter Phänomene beauftragt werden könnte. Die Daten könnten sogar an eine Konstellation von Dutzenden von Raumfahrzeugen im Orbit übermittelt werden. Chien leitet einen Test dieses Konzepts namens Federated Autonomous Measurement, der noch in diesem Jahr beginnt.
https://wattsupwiththat.com/2025/08/26/nasa-is-testing-ai-enabled-dynamic-targeting-from-space/
Der Beitrag NASA testet KI-gestütztes „dynamisches Targeting“ aus dem Weltraum erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Der industrielle Masochismus des „grünen“ Europa
Dr. Samuele Furfari
Wenn ein selbsternannter Anführer feststellt, dass ihm niemand folgt, ist dann überhaupt von Führung die Rede? Vielleicht. Die nächste Frage könnte lauten: Wohin steuert der Anführer?
Diese Fragen könnte man durchaus den energiepolitischen Entscheidungsträgern der Europäischen Union stellen, die sich als Wegbereiter für einen vermeintlichen Übergang von fossilen Brennstoffen zu „grünen” Technologien sehen. (Wir verwenden hier Anführungszeichen, weil Windkraftanlagen und Solarzellen zahlreiche Nachteile für die Umwelt haben).
Laut aktuellen Daten des Energy Institute treiben die europäischen Staats- und Regierungschefs jedoch nicht einen Zug voran, auf den die Welt aufspringt, sondern eher einen Leichenwagen in Richtung Selbstzerstörung.
Die politischen Entscheidungen der EU haben dazu geführt, dass sogenannte erneuerbare Energien – vor allem Wind- und Sonnenenergie – mehr als ein Drittel des europäischen Strommixes ausmachen und damit Kohle deutlich übertreffen.
Weltweit wachsen erneuerbare Energien in absoluten Zahlen rasant. Im Jahr 2024 trugen Wind, Sonne und andere erneuerbare Energien 5,6 % zum globalen Energiemix bei.
Das Wachstum im Bereich der erneuerbaren Energien hält jedoch nicht mit dem Anstieg des weltweiten Energiebedarfs Schritt. In den letzten zehn Jahren stieg der Verbrauch fossiler Brennstoffe mehr als siebenmal schneller als das Wachstum der erneuerbaren Energien. Entgegen der oft in den Medien verbreiteten Darstellung hat die Kohleproduktion zugenommen und ist in den letzten zehn Jahren um mehr als 10 % gestiegen.
Fossile Brennstoffe – Kohle, Öl und Erdgas – machten 2024 87 % der weltweiten Energie aus, während der Anteil erneuerbarer Energien trotz Investitionen von mehr als 5 Billionen US-Dollar in Wind- und Solarenergie in den letzten 20 Jahren im einstelligen Bereich bleibt.
Im vergangenen Jahr stieg die weltweite Energieversorgung um fast 2 %, angetrieben durch die steigende Nachfrage nach allen Arten von Energie. 65 % des Anstiegs entfielen auf die Region Asien-Pazifik, die 47 % des weltweiten Energieverbrauchs ausmacht und in der 83 % der Kohle verbrannt wird, die als Königin der Brennstoffe gilt. Zusammen produzierten China, Indien und Indonesien 71 % der weltweiten Kohle.
In den letzten 10 Jahren ist der Energiebedarf der EU um fast 6 Exajoule (EJ) zurückgegangen, während der weltweite Verbrauch um das 13-fache gestiegen ist – auf fast 77 Exajoule EJ.
Die „Führungsrolle” der EU hat also dazu geführt, dass der Energieverbrauch in Europa gesunken ist und die Bedeutung erneuerbarer Energien auf dem Kontinent zugenommen hat. Aber zu welchem Preis?
„Im Jahr 2008 waren die Volkswirtschaften der USA und der Eurozone etwa gleich groß”, schreibt Andy Kessler im Wall Street Journal. „Seit 2010 stagniert das Bruttoinlandsprodukt (BIP) pro Kopf in Europa im Wesentlichen. Heute ist das nominale BIP pro Kopf in den USA fast doppelt so hoch wie in Europa.”
Anstatt sich der von Deutschland auferlegten globalen Energiewende zu unterwerfen, wächst die Weltwirtschaft und befindet sich in einer Phase, in der neue Energiequellen zu den bestehenden hinzukommen, anstatt diese zu ersetzen. (Eine ausführlichere Erörterung finden Sie in meinem Artikel „Energy Addition, Not Transition“ (Energiezugang statt Energiewende).
Angesichts der Tatsache, dass der Großteil der Weltbevölkerung nach mehr Wohlstand strebt – und damit nach billiger, reichlich vorhandener Energie, wie sie die EU vor ihrer Hinwendung zum Ökologismus forderte – ist es höchst unwahrscheinlich, dass sich diese Trends umkehren werden. Wirtschaftliche und soziale Zwänge sowie die Notwendigkeit einer sicheren Energieversorgung machen eine Verringerung der Nachfrage nach fossilen Brennstoffen unwahrscheinlich.
Infolgedessen wird sich die Kluft zwischen unklugen Klimazielen und der Realität des globalen Energieverbrauchs nur noch weiter vergrößern. Das Scheitern der angekündigten Klimaziele ist mittlerweile so offensichtlich, dass mit einer Aufkündigung des Pariser Abkommens zu rechnen ist, da es immer schwieriger werden wird, das Ausmaß dieses Scheiterns zu verbergen.
Paradoxerweise schlägt die Europäische Kommission weiterhin utopische Ziele vor, wie beispielsweise eine Reduzierung ihrer eigenen Emissionen um 90 % bis 2040, obwohl die neueste Ausgabe des Statistical Review of World Energy des Energy Institute dieses Scheitern deutlich aufzeigt.
Die Realität sieht so aus, dass die europäische Industrie dahinsiecht, Arbeitsplätze ins Ausland verlagert werden und die Bürger es leid sind, die Rechnung für eine Klimapolitik zu bezahlen, die unweigerlich zum wirtschaftlichen Selbstmord führt. Ja, die EU mag zwar Netto-Null erreichen, aber es wird eine Null auf ganzer Linie sein: null Industrie, null Wohlstand und null globaler Einfluss.
Da haben Sie es also: die EU, Verfechterin einer Politik, die keinen Unterschied für das Klima macht – und des industriellen Masochismus.
Dr. Samuele Furfari ist Professor für Energiegeopolitik in Brüssel und London, ehemaliger hoher Beamter der Generaldirektion Energie der Europäischen Kommission und Mitglied der CO2 Coalition. Er ist Autor des Papiers „Energy Addition, Not Transition” und von 18 Büchern, darunter „Energy Insecurity: The organised destruction of the EU’s competitiveness”.
This commentary was first published at The Daily Signal.
Link: https://cornwallalliance.org/green-europes-industrial-masochism/
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Der industrielle Masochismus des „grünen“ Europa erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Cellforce: Porsche will nach nur vier Jahren Batteriezellenproduktion streichen. IgMetall und Mitarbeiter entsetzt.
Rückzug auf dem E-Auto-Sektor weltweit: Nun plant auch Porsche, die eigene frisch aufgebaute Akku-Produktion wieder einzustampfen. 200 Stellen im Raum Reutlingen/Tübingen sind betroffen.
„Menschen lernen nicht aus der Geschichte“, sagte schon im 10. Jahrhundert ein arabischer Historiker. Die Firma Porsche führt gerade den Nachweis. Gründer Ferdinand Porsche war bis kurz vor seinem Schaffensende ein eingefleischter Elektrofan. Krönung dieses Irrwegs war seine Konstruktion des Panzerkampfwagens VI im Jahr 1942 – der berüchtigte „Elektro-Tiger“. Der schwere Panzer hatte natürlich keinen Akku, sondern einen Benzingenerator, der E-Motoren versorgte. Bei der unter Historikern berühmten Testvorführung brannte der E-Tiger trotzdem aus – das Heer wählte daher lieber das Verbrenner-Modell von Henschel.
Nach Marx wiederholt sich die Geschichte – erst wird sie als Tragödie aufgeführt, dann als Farce. Die Tragödie fand im Zweiten Weltkrieg statt – die Farce erleben wir nun im „Kampf gegen den Klimawandel“.
Zwar sind E-Autos wegen der seltenen Verfügbarkeit von reinem „Ökostrom“ alles andere als klimaneutral – formal kann man damit aber CO2-Zertifikate verkaufen, oder muß sie zumindest nicht für Milliarden € von Tesla erwerben. Das dürfte der Hauptgrund für die E-Auto-Manie deutscher Hersteller sein. Nun zeigt sich aber wegen der Weigerung der Kunden, die reichweitenschwachen und überdimensionierten Spielzeugautos zu kaufen, daß die Produktion eigener E-Modelle noch teurer ist.
Porsche zieht daher die Notbremse und will die erst vir vier Jahren gegründete Batteriefabrik „Cellforce“ in der Nähe von Reutlingen/Tübingen wieder dichtmachen. Folgen: ordentlich Verluste – und 200 Stellen gehen verloren.
Der Beitrag Cellforce: Porsche will nach nur vier Jahren Batteriezellenproduktion streichen. IgMetall und Mitarbeiter entsetzt. erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Power to Methanol: Ökosozialismus oder Marktwirtschaft?
Unser Autor Roland Mösl aus dem Bundesland Salzburg recherchierte bei Firmen und Institutionen zum Thema „Power to Methanol“. Hier berichtet er seine Erfahrungen.
76% Elektroautos bei Neuzulassungen in Nepal Letzte Woche erfuhr ich, daß Nepal hat 76% Neuzulassungen an Elektroautos hat.Wie das? Norwegen meinte, unsere Bürger sollen gefälligst mit billigem Strom aus Wasserkraft fahren, dann bleibt mehr Öl für den Export übrig. Nepal meint, unsere Bürger sollen gefälligst mit billigem Strom aus Wasserkraft fahren, dann versauen uns nicht mehr die Benzin- und Dieselimporte die extrem negative Handelsbilanz.
Power to MethanolDoch wie sieht dies in entlegenen Ortschaften aus, die nicht am allgemeinen Stromnetz hängen? Lokale Stromnetze, die für Licht und Waschmaschine taugen, wo man aber keinen 1 MW Schnelllader für LKW dran hängen kann. Deswegen untersuchte ich das mit meiner Simulationssoftware und den stündlichen Ertragsschätzungen des EU Photovoltaikrechners von 2005 bis 2023.
Diagramm über Solarertrag in Kathmandu. Von links nach rechts die 365 Tage eines Jahres, von unten nach oben der Ertrag. Die Linie 1 bedeutet 1 kWh Ertrag für 1 kW peak Photovoltaik. Die Regenzeit von Juni bis September ist eindeutig erkennbar
Es gibt vier Gründe Strom zu speichern:
- Kurzfristig hoher Leistungsbedarf – Schnellladen
- Erdrotation – Tag/Nacht
- Wetterschwankungen – sonnig/bewölkt
- Neigung der Erdachse – Sommer/Winter
Während für die ersten beiden Gründe eindeutig der Akku im Vorteil ist, kommen für die letzten zwei Gründe nur Methoden in Frage Strom zu einem chemischen Energieträger umzuwandeln. In meiner Simulationssoftware werden verschiedene Konfigurationen mit verschiedenen Lasten getestet, um die günstigsten Varianten zu finden: Pro MW Photovoltaik 3 MWh Natriumakkus und 100 kW Power to Methanol.
Typisch waren 4.000 bis 5.000 Volllaststunden von Power to Methanol, je nach Auslastung der Schnelllader. In der Nacht wird dabei Power to Methanol mit Strom aus den Akkus versorgt. Das sollten doch wertvolle Erkenntnisse für all die Institutionen, die sich mit Power to Methanol beschäftigen, sein?
Einige Anrufe später mußte ich dann den Unterschied zwischen Marktwirtschaft und Subventionswirtschaft erkennen, als ich den Grund für die totale Interessenlosigkeit analysierte: Die Spitzenspieler der Marktwirtschaft suchen nach Marktlücken, zukünftigen Trends, ersten rentablen Anwendungsgebieten neuer Technik. Die Spitzenspieler der Marktwirtschaft, das ist wie Pele, der den Torwart zu weit vorne sieht und von der Mittellinie aus einlocht, das ist wie Maradona, der beim Anstoß die gegnerische Mannschaft umspielte, als wären da Senioren mit Rollatoren am Feld. In der Marktwirtschaft müsste man Pelé und Maradona mit Elon Musk und Wang Chuanfu (Gründer von BYD) vergleichen. Der Gegner ist die fossile Industrie und man sucht Lücken, wo man erfolgreich zuschlagen kann. Elon Musk fand 2012 diese Lücke mit dem Oberklassenauto Tesla S, Wang Chuanfu 2010 mit dem BYD e6 Elektroauto und K9 Elektrobus. Also nicht „Hurra, wir bauen ein Elektroauto“, sondern
„Mit welchem Elektroauto können erstmals Gewinne gegenüber der fossilen Konkurrenz erzielt werden?“.
Die SubventionswirtschaftGanz anders sieht die Subventionswirtschaft aus: Der Staat möchte ein Vorhaben fördern, „Hurra, wir haben einen Dukatenesel gefunden!“. Zum Beispiel träumt ein Staat davon, dass alle Schiffe und Flugzeuge über Power to Methanol Anlagen versorgt werden.
So erzählte man mir von hunderten Quadratkilometern großen Anlagen in der Wüste, wo mit Solarstrom Methanol für den Antrieb von Schiffen und Flugzeugen produziert werden soll. Studien zu ersten marktwirtschaftlich rentablen Power to Methanol Anlagen? Keinerlei Interesse, der Dukatenesel möchte gigantische, weit in der Zukunft liegende Visionen und keine ersten rentablen Anwendungen hier und jetzt.
Wo ist der Unterschied? Bei diesen hunderten Quadratkilometer Visionen müssen die gesamten Kosten auf das produzierte Methanol umgelegt werden und dann kommen noch die Transportkosten zum Verbraucher.
Ganz anders aber bei diesen Off-Grid Schnellladesiedlungen: da wird nur der Preis der Power to Methanol Anlage gerechnet gegenüber dem Einkauf von Benzin, Diesel oder Methanol um an ertragsschwachen Tagen mit einem Generator den Betrieb aufrechterhalten zu können. Die Photovoltaik und der Akku sind so und so da. Mit Power to Methanol wird nur sonst nicht nutzbarer Stromüberschuss verwertet. Bei 100.000 € für 100 kW Power to Methanol mit 50% Wirkungsgrad bräche da schon der große Jubel aus: 5.000 Volllaststunden pro Jahr × 20 Jahre × 100 kW × 50% Wirkungsgrad aufgeteilt auf 100.000 € Anschaffungspreis sind nur 2 Cent pro kWh chemischen Energieträger.
Der Markt bleibt, Subventionen können verschwindenSich von einem Dukatenesel mit hochfliegenden bis unrealistischen Visionen abhängig zu machen ist hochriskant. Die Regierung kann wechseln und dieses Projekt streichen: harte Bruchlandung. Subventionen sind manchmal nötig, aber da ist immer die wichtigste Frage: in wie vielen Jahren kann das Produkt am freien Markt bestehen. Als in Deutschland 2013 die Einspeisetarife radikal gekürzt wurden, war die Photovoltaikindustrie nur noch wenige Jahre von einer breiten Rentabilität am freien Markt entfernt, aber nur in Zusammenhang mit Akkus, um Flatterstrom zu Spitzenstrom zu veredeln. Schon 2012 gab es am Spotmarkt deutliche Solartäler mit unter 1 Cent/kWh zu Mittag. Wenn zu Mittag der Spotmarktpreis deutlich sinkt, nannte ich das zuerst Solardelle, dann Solartal und später sogar Solarschlucht: Da sind die hohen Berge mit 20 Cent/kWh morgens und abends und dazwischen diese steil abfallende tiefe Schlucht mit -20 Cent/kWh.
2022 wurden in Deutschland von der Scholz-Regierung dann die Einspeisevergütungen für PV-Strom deutlich erhöht. Die Katastrophe sehen wir heute: immer mehr Tage mit negativen Spotmarktpreisen. In Deutschland zahlt die Differenz zwischen Spotmarktpreis und EEG-Einspeisetarif über die EEG-Umlage der Steuerzahler. Was passiert mit dem deutschen Solarhandel, wenn es bald keine Einspeisevergütung mehr geben sollte?
Diese Branche existiert in der Bequemlichkeit staatlicher Subventionen: Wenn der Kunde so viele Cent Einspeisevergütung bekommt, dann können wir die Anlage um diesen Preis verkaufen. Ich sprach mit einigen Solarfirmen, wenige davon wurden Aktionäre, die Mehrheit meinte:
Was faselt der Irre vom freien Markt? Den haben wir nicht nötig, es gibt ja das EEG“, einige haßten mich wie die Pest.
Man hat jeden Gedanken an die begrenzte Lebenserwartung eines Dukatenesels verdrängt: Esel leben 27 bis 40 Jahre. 1990 gab es erste große Subventionen für Photovoltaikanlagen, also völlig eindeutig, den Dukatenesel PV-Förderung kann jederzeit das zeitliche segnen. Trotzt aller Warnungen: Jetzt steht die Solarbranche nach 2013 nochmals vor einer Katastrophe.
GEMINI next Generation Haus ist für den freien Markt entworfenBereits 2019 war das Ziel eindeutig klar: Am Spotmarkt Gewinne erzielen, indem Solarstrom über Akkus zu Spitzenstrom veredelt wird. Energieeinnahmen statt Energieausgaben als Revolution in der Eigenheimfinanzierung: Wenn die Differenz zwischen Energieausgaben in einem konventionellen Haus und Energieeinnahmen vom Spotmarkt in einem GEMINI next Generation Haus 600 € pro Monat beträgt, kann damit ein 150.000 € Wohnbaukredit abbezahlt werden.
Salzburg ist sehr sonnigSalzburger Schnürlregen vs. Regenzeit in Kathmandu: Salzburg ist eine sehr sonnige Stadt
Roland Mösl – PEGE – Planetary Engineering Group Earth
CEO GEMINI next Generation AG (Inc.)
Der Beitrag Power to Methanol: Ökosozialismus oder Marktwirtschaft? erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 30 / 2025
Meldung vom 19. August 2025:
Begutachtung neu definiertKürzlich ist eine E-Mail aus dem Climategate wieder aufgetaucht, die schon vor Jahren die Glaubwürdigkeit der Mainstream-Klimawissenschaft hätte zerstören müssen.
In einem Schriftwechsel aus dem Jahr 2004 schrieb Phil Jones (damals Leiter der Climatic Research Unit und leitender Autor des IPCC) an Michael Mann: „Kevin und ich werden sie [kritische Beiträge, A. d. Übers.] irgendwie fernhalten – selbst wenn wir dafür neu definieren müssen, was Peer-Review-Literatur ist!“
Das ist Zensur, schlicht und ergreifend.
Führende IPCC-Autoren planen offen, unbequeme Studien von der Aufnahme auszuschließen. Der Öffentlichkeit wurde gesagt, sie solle „der Wissenschaft vertrauen”. Aber sie wusste nicht, dass die Wissenschaft selbst hinter verschlossenen Türen kuratiert, manipuliert und zensiert wurde.
Diese E-Mail war eine von vielen, die im Rahmen der Climategate-Enthüllungen auftauchten und hinter den Kulissen geführte Diskussionen über das Verbergen von Daten, das Beschönigen von Schlussfolgerungen und das Untergraben abweichender Meinungen offenbarten. Anstelle einer offenen Untersuchung wurde die Klimawissenschaft zu einem Kartell.
Und immer wieder tauchen die gleichen Namen auf.
Michael Mann, bekannt für seine „Hockeyschläger“-Kurve, wurde kürzlich vor Gericht wegen Irreführung einer Jury angeklagt. In Manns langwierigem Verleumdungsprozess gegen den Kommentator Mark Steyn sprach eine Jury Mann zunächst 1 Million Dollar Schadenersatz zu, doch der vorsitzende Richter reduzierte die Summe später auf nur 5.000 Dollar und sanktionierte Mann wegen „böswilligen Prozessmissbrauchs”. Mann wurde für schuldig befunden, die Jury irregeführt zu haben, indem er die behaupteten Fördermittelverluste von 112.000 Dollar auf 9,7 Millionen Dollar aufgebläht hatte, was der Richter als „Affront gegen die Autorität des Gerichts“ bezeichnete. Er muss nun über eine halbe Million Dollar an Steyns Anwaltskosten zahlen.
Wenn die Wissenschaft so „settled” ist, wie uns gesagt wird, warum dann die Geheimhaltung? Warum die zwielichtigen Gestalten? Warum die Manipulation? Warum die Lügen? Weil die Wissenschaft eben nicht settled ist. Das Establishment weiß das. Und seit Jahrzehnten versuchen sie, jeden zu beseitigen, der darauf hinweist.
———————————
Meldung vom 25. August 2025:
MSM vs MSMDie gleichen Portale. Absurde Behauptungen. Die Realität holt einen ein. Keine Rechenschaftspflicht.
BBC 2007: „Arktis eisfrei bis 2013“
BBC 2015: „Arktisches Eis hat um ein Drittel zugenommen“
Guardian 2012:„Meereis wird innerhalb von vier Jahren verschwunden sein“
Guardian 2025: „Dramatische Verlangsamung des Schmelzprozesses überrascht Wissenschaftler“
Der Zyklus ist das Produkt, nicht die Wahrheit.
Alarmistische Schlagzeilen, verfehlte Vorhersagen, stilles Zurückrudern, Wiederholung.
Die Mainstream-Medien werden sich von nun an in Bezug auf das arktische Meereis zurückhalten. Aber ich sehe, dass sich das Rampenlicht bereits nach Süden verlagert hat: Die Antarktis wird zum neuen Schauplatz für „Rekordschmelze“, „Kipppunkte“ und „Katastrophen“. Gleiches Drehbuch, neue Kulisse – und der gleiche unwissenschaftliche Unsinn:
———————————
Zwei Meldungen vom 26. August 2025, davon eine Deutschland betreffend:
Deutschland: Die Gasspeicher leeren sichDie Energiereserven Deutschlands erreichen historische Tiefststände. Offizielle Daten zeigen, dass die Lagerbestände bei nur 67 % liegen – weit unter den 92 % des Vorjahres und hinter Frankreich, Polen, Österreich und Belgien.
Berlin beharrt darauf, dass es keine Krise gibt, und verweist auf vier schwimmende LNG-Terminals als Beweis für „Flexibilität”. Aber Lagerbestände sind eine Versicherung, und Deutschland hat seine Reserven aufgebraucht, gerade als sich das Wetter zu ändern droht und der Herbst Wochen früher als erwartet einsetzt.
Bei dieser Krise geht es nicht nur darum, russisches Pipelinegas durch überteuertes LNG zu ersetzen. Dieser Schritt hat zwar die Energiekosten in die Höhe getrieben, aber die eigentliche Schwachstelle liegt in der Stilllegung genau der fossilen Brennstoff- und Kernkraftinfrastruktur, die einst eine günstige und zuverlässige Grundlast-Stromversorgung garantierte.
Durch die Stilllegung von Kohlekraftwerken, den Ausstieg aus der Kernenergie und die Vernachlässigung der Gasspeicherung hat Deutschland seine Energiezukunft an Windräder, Sonnenkollektoren und die auf dem Weltmarkt verfügbaren LNG-Lieferungen geknüpft. Wenn der Wind nachlässt, die Nacht hereinbricht oder die Nachfrage steigt, gibt es keinen Puffer – und die Reserven sinken rapide.
Deutschland hat seine langjährigen Säulen der Energiesicherheit und damit potenziell auch seines Wohlstands abgebaut.
Und wofür das alles?
[Man beachte: So sieht man die Verhältnisse bei uns im Ausland! A. d. Übers.]
———————————
Der Hurrikan-Hinweis, der niemals eintraf[Titel im Original: The Hurricane Link That Never Landed]
An diesem Tag im Jahr 1990 behauptete der Klimawissenschaftler Steve Schneider, dass wir innerhalb von 10 bis 20 Jahren wissen würden, ob Treibhausgasemissionen zu stärkeren, tödlicheren Hurrikanen führen.
Schneider verwies auf Stürme wie Hugo und Gilbert als Beweis dafür, dass die globale Erwärmung bereits „die Würfel fallen lässt”.
Das war vor 33 Jahren. Das Urteil steht nun fest. Es gab keinen Anstieg der Häufigkeit oder Intensität von Hurrikanen – weder im Atlantik noch weltweit. Alle Messwerte der Hurrikanaktivität bleiben innerhalb der Grenzen der natürlichen Schwankungen.
Der verstorbene Bill Gray, ein legendärer Hurrikanforscher an der Colorado State University, sagte es damals schon: Schneiders Behauptungen waren reine Spekulation. Gray erklärte, dass die Wissenschaft nicht zusammenpasste – die Zahl der Hurrikane ging tatsächlich zurück, und der vermeintliche Zusammenhang zwischen wärmeren Ozeanen und Sturmaktivität war bei weitem nicht bewiesen. Die Geschichte hat ihm Recht gegeben.
Drei Jahrzehnte später sind die Daten so eindeutig, dass die sogenannte „CO2-Erwärmungs-Hurrikan-Verbindung” endgültig ad acta gelegt werden kann – nur die etablierten Kreise tun weiterhin so, als wäre dies nicht der Fall. Was als Frühwarnung verkauft wurde, hat sich als ein weiteres Kapitel in der endlosen Reihe nicht eingetretener Vorhersagen herausgestellt.
———————————
Zwei Meldungen vom 29. August 2025:
Durch Flächenbrände zerstörte Gebiete sind seit 2002 um 30% zurückgegangenWährend die Medien sich bemühen, jeden regionalen Ausbruch – in Kalifornien, Australien, im Mittelmeerraum – als Beweis für den „Klimakollaps“ darzustellen, zeigt das globale Bild ein ganz anderes Bild: Die Waldbrandaktivität nimmt ab und nicht zu!
[Hervorhebung im Original]
Die Daten liegen alle vor, Alarmisten – konsumiert Fakten statt Propaganda zu verbreiten!
———————————
Hurrikane: Der Atlantik ist eine GeisterstadtWir befinden uns nun mitten in der Atlantik-Hurrikansaison – der Zeit also, in der die Aktivität normalerweise zunimmt. Dennoch sieht das Becken karg aus. Abgesehen von einer Welle vor Afrika, deren Wahrscheinlichkeit gering ist, herrscht in den Tropen Ruhe:
Während der Hochsaison gibt es in der Karibik, im Golf von Mexiko und im westlichen Atlantik keine Stürme. Die Saison dauert natürlich noch einige Wochen, aber Ende August ist es dort praktisch wie ausgestorben. Drücken wir die Daumen, dass es so bleibt.
Wie die Trends bei Waldbränden weigern sich auch die Hurrikandaten, mitzuspielen – ein weiteres hartnäckiges Problem für die Klimaille:
Zusammengestellt und übersetzt von Christian Freuer für das EIKE
Der Beitrag Kurzbeiträge zu neuen Forschungs-Ergebnissen aus Klima und Energie – Ausgabe 30 / 2025 erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
Weitere neue Studie: Der größte Teil des derzeitigen CO₂-Anstiegs – 80% – war natürlichen Ursprungs
Der Anstieg der CO₂-Konzentration ist nicht die Ursache für den Temperaturanstieg, sondern eine Folge davon.
Ein unabhängiger Forscher (Robbins, 2025) hat aktuelle Forschungsergebnisse ausgewertet, die darauf hindeuten, dass mindestens „80 % oder mehr des Anstiegs [des modernen CO₂] natürlichen Ursprungs sind”.
Der Grund dafür ist, dass „Veränderungen der atmosphärischen Temperatur eine ‚Folge’ von Veränderungen der Meerestemperaturen sind und nicht, wie manche behaupten, deren ‚Ursache’”.
Quelle: Robbins, 2025
Inhalte:
Atmosphärisches CO₂: Untersuchung der Rolle der Meerestemperaturen und des Einflusses von anthropogenem CO₂Abbildung 16: Messungen des atmosphärischen CO₂ in Blau (chemische Messungen bis 1960 und Mauna Loa-Messungen ab 1960) und globale SSTs (in Violett). Die Fehlermargen und Konfidenzintervalle entsprechen denen der chemischen CO₂- und SST-Datensätze.
Die Abbildung zeigt weitgehend übereinstimmende Spitzenwerte, die sich um die 1940er Jahre konzentrieren. Die Vergänglichkeit des CO₂-Spitzenwerts würde eine kurze Verweildauer in der Atmosphäre bedeuten: Die Meinungen hierzu reichen von weniger als fünf Jahren bis zu mehr als fünf Jahren. Der Spitzenwert der globalen Temperaturen ist sowohl in den SST- als auch in den terrestrischen Aufzeichnungen dokumentiert.
Trotz Becks größter Bemühungen bei der Analyse der zusammengetragenen chemischen Messungen ist das Vorhandensein (und möglicherweise auch das Ausmaß) eines CO₂-Peaks um die 1940er Jahre herum nach wie vor umstritten. Sollte das CO₂-Profil in dieser Abbildung die Realität angemessen wiedergeben, dann deutet die Übereinstimmung der beiden Peaks erneut darauf hin, dass die Natur daran arbeitet, ein Gleichgewicht zwischen Oberfläche und CO₂ aufrechtzuerhalten.
Bernard Robbins: Sea Surface Temperatures and Recent Increases in Atmospheric CO₂, Science of Climate Change https://scienceofclimatechange.org
SchlussfolgerungenAnalysen der seit 1995 erfassten Daten zu Meerestemperaturen (SST) und atmosphärischem CO₂ ergeben einen geschätzten Anstieg des atmosphärischen CO₂ um etwa 20 % oder weniger des Gesamtanstiegs seit der industriellen Revolution, der möglicherweise auf menschliche Emissionen zurückzuführen ist. Daraus lässt sich schließen, dass etwa 80 % oder mehr des Anstiegs natürlichen Ursprungs sind.
Weitere Datenauswertungen deuten auf einen fast linearen langfristigen Zusammenhang zwischen SST und atmosphärischem CO₂ seit mindestens Ende der 1950er Jahre hin und lassen vermuten, dass die Natur daran arbeitet, ein temperaturabhängiges Gleichgewicht zwischen Atmosphäre und Oberflächen-CO₂ aufrechtzuerhalten. Aktuelle historische Belege für ein solches Gleichgewicht könnten chemische Messungen liefern, die auf einen kurzen Anstieg der CO₂-Konzentration in der Atmosphäre um die 1940er Jahre hinweisen, der mit einem Anstieg der globalen SSTs zusammenfiel.
Die vom Menschen verursachten CO₂-Emissionen machen etwa 1/20 des natürlichen Umsatzes aus, und die Ergebnisse der hier vorgestellten Analysen deuten darauf hin, dass dieser relativ geringe Beitrag des Menschen leicht in die Kohlenstoffkreisläufe der Natur integriert wird, passen sich diese doch kontinuierlich an unser sich ständig veränderndes Klima an.
Was die Temperaturen betrifft, so kam die Forschung von Humlum et al. zu dem Schluss, dass Veränderungen der atmosphärischen Temperatur eine „Auswirkung” von Veränderungen der Meerestemperaturen sind und nicht, wie manche behaupten, deren „Ursache”. Und Humlums Kernaussage aus einem kürzlich gehaltenen Vortrag lautete: „Was die Meerestemperatur steuert, steuert auch das globale Klima” [33]. Er schlägt vor, dass die Sonne ein guter Kandidat wäre, moduliert durch die Wolkendecke.
Ähnliche Schlussfolgerungen finden sich in einem Artikel, der letztes Jahr in der gleichen Fachzeitschrift veröffentlicht worden ist. (Ato, 2024).
„Die Meerestemperatur (SST) war der entscheidende Faktor für die jährlichen Veränderungen der CO₂-Konzentrationen in der Atmosphäre, und […] anthropogene Emissionen spielten in diesem Prozess keine Rolle …“
Quelle: Ato, 2024
Quelle: Ato, 2024
Übersetzt von Christian Freuer für das EIKE
Der Beitrag Weitere neue Studie: Der größte Teil des derzeitigen CO₂-Anstiegs – 80% – war natürlichen Ursprungs erschien zuerst auf EIKE - Europäisches Institut für Klima & Energie.
