Folly of Forecasting   –  Die Torheit von Prognosen

Den Anstoss zu folgender Darlegung gab mir der Blogbeitrag von Johannis Nöggerath vom 3. März 2025 „Raus aus dem Klimaabkommen, Klimaziel Netto Null bis 2050 ist unerreichbar und unbezahlbar“.

In letzter Zeit habe ich mich wieder einmal vertieft mit der Thematik „Energiehandel“ beschäftigt. Grund dazu war ein Vorlesungsmandat, welches ich für eine „Post Graduate“ Weiterbildung von Juristen im Energierecht angenommen hatte. Das mir aufgetragene Thema war Energiehandel, besonders betreffend Strom und Gas.

Das Abschätzen von kurzfristigen, mittelfristigen und auch langfristigen Markterwartungen und besonders auch die daraus abzuleitenden Preisentwicklungen sowie Risiko-Analysen sind Kernelemente einer solchen Geschäftstätigkeit. Dabei nutzen die dazu zuständigen Stellen einer Handelsorganisation komplexe Algorithmen der Mathematik im Umgang mit statistischen Analysen und Werten[1].

Dabei bin ich auch auf eine Graphik gestossen, welche das Titelthema vorzüglich darstellt (Abbildung 1).

Abbildung 1:   Die Torheit von Prognosen

Gemäss der Analyse wächst der Streubereich einer Prognose entsprechend einer zeitabhängigen Wurzelfunktion. Grundsätzlich ist diese divergierende Tendenz auch einleuchtend und wie ich weiter darlegen werde, gilt dies allgemein.

Ich war am Anfang meiner Berufskarriere in der Forschung und Entwicklung von thermischen Maschinen tätig. Der Fokus und die Verantwortung meiner Arbeit war der Themenbereich thermische Prozess-Auslegung. Dazu benutzten wir unter anderem auch komplexe Prozess-Simulationsprogramme, gemäss heutiger Terminologie „Modellierungen“. Komplex insofern, als dieser Simulation thermodynamische und strömungsmechanische Erkenntnisse wie auch theoretische Erkenntnisse über Verbrennung (Wärmeentwicklung als Funktion der Zeit), Wärmeübergang, Reibungsgesetze, etc. hinterlegt waren. Zudem kam ein sehr erschwerender Parameter dazu, dass nämlich die Prozesse instationär ablaufen, d.h. jeder Prozesszustand ist auch zyklisch zeitabhängig. Für eine Modellierung (d.h. Prozessimulation) war die Annahme einer grossen Zahl an teilweise unabhängiger, teilweise miteinander verkoppelter Parameter notwendig. 

Brauchbare Resultate liefert eine derartige Simulation nur dann, wenn das Programm vorerst mittels realen, d.h. gemessenen Eingabewerten kalibriert wird. Dabei war das Vorgehen so, dass man zuerst die Messwerte mindestens zweier Betriebszustände (einer bestehenden Anlage) zu simulieren versuchte und anschliessend mit derselben Kalibrierung zwei weitere, bekannte Betriebszustände nachrechnete. Fand man so eine genügend präzise Darstellung der Messwerte, war das Simulationsprogramm bereit für Extrapolationen. 

Dabei verhielt sich die Prognosegenauigkeit jeweils nach Abbildung 1, d.h. je weiter man vom Eingabezustand entfernt war, desto grösser wurde die Unschärfe. Wir konnten dies anschliessend auch überprüfen, denn die Simulationen dienten als Grundlage der Weiterentwicklung für eine neue Generation der thermischen Maschinen. Womit auch gesagt wird, dass das, was simuliert wurde, sich später in der Realität bewähren musste.  

Jetzt mag man mit der Herleitung der Charakteristik gemäss Abbildung 1 argumentieren, dass da Grundlagen der Ökonomie dahinter liegen, d. h. nicht grundsätzlich naturwissenschaftliche Erkenntnisse, sondern solche statistisch-mathematischer Natur. Dies spielt m. E. eine untergeordnete Rolle. Wichtig bei Simulationen sind jeweils die Annahmen für die Eingabedaten, sowie die Kalibrierung des Systems.  

Seit Jahren werden wir bombardiert mit den Modellierungs-Erkenntnissen einiger Klimawissenschaftler. Da wird die mittlere, globale Temperatur auf einen Bruchteil eines Grades im Jahr 2100 prognostiziert! Das heisst, in der Klimawissenschaft gilt, entgegen aller Logik, die Unschärfe einer Prognose als Extrapolation des aktuellen Ist-Zustandes nicht. Im Gegenteil, Konvergenz ist angesagt.

Man muss allen Ernstes Zweifel an derartigen Prognosen haben. Die ökonomischen- wie auch die thermodynamisch-strömungsmechanischen Modelle haben bereits eine hohe Komplexität.  Und wie erläutert, bedürfen zur Durchführung einer Simulation eine grosse Zahl von Iterationen mit unterschiedlichen Annahmen, die teilweise voneinander völlig unabhängig sind, teilweise jedoch auch miteinander verkoppelt sind. Auch müssen die Annahmen einer inneren Logik folgen, d. h. sie dürfen nicht im Widerspruch zueinanderstehen.

Abbildung 2: Konvergenz der Klimamodelle?

Ich bin kein Klimaforscher, ich kann mir jedoch sehr gut vorstellen, dass für eine modellmässige Abbildung von klimatischen Vorgängen unendlich viel mehr Annahmen getroffen werden müssen als in oben erwähnten Beispielen. Annahmen einerseits über erdgebundene Phänomene, wie zum Beispiel Meeresströmungen, andrerseits auch über nicht erdgebundene Phänomene, beispielsweise die Sonnenaktivität. Die grosse Unbekannte ist unter anderem auch die Kenntnis der Zusammenhänge unter den Einflussgrössen, welche als Annahmen in eine Modellierung einfliessen sollen.

Würde man das alles so genau wissen, dann könnte auch ein Simulationsmodell erstellt werden das die Börsenkurse im Jahr 2100 prognostiziert. Als Leser dieses Beitrags werden sie dies als Absurdität abtun. Damit bin ich völlig einverstanden. Niemand würde nach solchen Modellen seine Investitionen einsetzen. Die Allgemeinheit, d. h. der Staat soll dies jedoch auf Grund von zweifelhaften Klimamodellen?


[1] z. B. Black-Scholes Formeln – F-Black und M. Scholes 1973

Facebooktwitterlinkedinmail

Dies ist ein Blog von Autoren, deren Meinungen nicht mit denen von CCN übereinstimmen müssen.

4 thoughts on “Folly of Forecasting   –  Die Torheit von Prognosen”

  1. Projektionen in die Zukunft sind spekulative Ansätze. Auch wenn sie auf wissenschaftlichen Erkenntnissen beruhen, handelt es sich dabei doch nicht um wissenschaftliche Arbeiten. Auch die Wahl der Szenarien, aus denen sich diese Spekulationen speisen, verzerrt die Ergebnisse.
    Bei Klimafragen lassen sich vielleicht erst nach mehreren Jahrzehnten Trends erkennen, die die Modelle, die zur Erstellung von Projektionen verwendet werden, validieren oder nicht.
    Zu diesem Thema wurde kürzlich eine umfassende Übersicht veröffentlicht, die in meinem MR’s Blog kommentiert wurde: https://blog.mr-int.ch/?p=11819.
    Es ist nicht nur eine schwache Präzision, die jede Projektion immer unwahrscheinlicher macht. Sobald sich eine systematische Ungenauigkeit in den Modellen eingenistet hat, kann sie sich in den Projektionen nur noch vervielfachen.
    Je weiter man extrapoliert, desto fehlerhafter wird es.

  2. Die sicherste und verlässlichste Prognose ist diejenige unserer Vergangenheit – das war schon immer so!

    1. Auch in diesem Fall haben Klimamodelle Mühe, die Gegenwart ausgehend einer Startsituation zu replizieren (Hindcasting).
      Es gibt nur ein Experiment, nämlich das mit unserem Planeten und seiner Geschichte, keine Wiederholungen und kein Kontrolllabor.

  3. Absolut richtiger Artikel. Die heutigen Klimamodelle aus IPCC AR6 produzieren ziemlich unplausible Vorhersagen zur zukünftigen Erwärmung in 50 Jahren oder mehr. Immer wieder stosse ich auf Veröffentlichungen die klar zeigen, dass die derzeitigen Klimamodelle einseitig höhere Temperaturen projizieren als die gemessene Realität erwarten lässt.
    Vergleiche von tatsächlich gemessenen atmosphärischen Temperaturdaten mit Modellvorhersagen zeigen eine Diskrepanz von bis zu 200 % zwischen den Temperaturergebnissen der Modelle und den beobachteten Temperaturen.

Schreiben Sie einen Kommentar

Bitte beachten Sie: Kommentare sind auf 2000 Zeichen begrenzt.