Frage:
Wie gut konnten Klimamodelle der 90er Jahre die globalen Temperaturtrends der 2000er / 2010er Jahre vorhersagen?
InquilineKea
2014-06-25 09:37:12 UTC
view on stackexchange narkive permalink

Gab es eine signifikante Verzerrung zwischen dem Ensemble von Klimamodellen und den langfristigen Temperaturtrends?

Was ist mit räumlichen Mustern?

Klima ist die Statistik der Atmosphäre über einen Zeitraum von ~ 30 Jahren. Es ist also etwas zu früh, um es zu sagen.
Zusätzlich zu den Beobachtungen von @gerrit's sollten die Modelle der neunziger Jahre nicht in der Lage sein, das Klima auf dekadischer Ebene vorherzusagen, da dies die Vorhersage interner Variabilitätsquellen wie ENSO erfordert. Soweit ich weiß, erreicht die aktuelle Modellgeneration gerade erst den Punkt, an dem dekadische Projektionen eine Bewertung wert sind (CMIP5?).
Selbst die Modelle von 2014, die viel besser sind als die Modelle von 1990, können 10 bis 20 Jahre in der Zukunft nicht sehr gut vorhersagen, da der Klimawandel in 10 bis 20 Jahren nur unwesentlich größer ist als die natürliche Variation. Statistisches Rauschen erschwert kurzfristige Vorhersagen. Mein Verständnis der 90er-Jahre-Modelle ist jedoch, dass sie nicht absichtlich zu aggressiv waren, aber es war eine neue Wissenschaft. Sie wussten nicht, wie gut die Ozeane die von Treibhausgasen eingeschlossene Wärme absorbieren würden. Ich glaube nicht, dass es Voreingenommenheit gab, obwohl bei einigen Personen vielleicht. Es war eine neue und komplizierte Wissenschaft.
Bei Interesse ist dieser Artikel verwandt und geht auf einige Details ein. http://www.skepticalscience.com/ipcc-overestimate-global-warming.htm
Drei antworten:
farrenthorpe
2014-06-26 01:01:36 UTC
view on stackexchange narkive permalink

Sie können sich die technische Zusammenfassung des neuesten IPCC-Bewertungsberichts (5) ansehen.

Das thematische Fokuselement Nr. 3 lautet "Vergleichen von Projektionen aus früheren IPCC-Bewertungen" mit Beobachtungen "

Es heißt:

Globale mittlere Temperaturanomalie

Im Vergleich zum Mittelwert von 1961–1990 war die GMST-Anomalie positiv und größer als Seit 2001 0,25 ° C. Die Beobachtungen liegen im Allgemeinen gut im Bereich des Ausmaßes der früheren IPCC-Projektionen (TFE.3, Abbildung 1, Mitte links). Dies gilt auch für die Ergebnisse des Coupled ModelIntercomparison Project Phase 5 (CMIP5) (TFE.3, Abbildung 1; Mitte rechts) in dem Sinne, dass die beobachtete Aufzeichnung innerhalb des Bereichs der Modellprojektionen liegt, jedoch am unteren Ende der Wolke. MtPinatubo brach 1991 aus (siehe FAQ 11.2 für eine Diskussion darüber, wie Vulkane das Klimasystem beeinflussen), was zu einer kurzen Periode relativ globaler mittlerer Abkühlung in den frühen 1990er Jahren führte. Die ersten, zweiten und dritten IPCC-Bewertungsberichte (FAR, SAR und TAR) enthielten keine Auswirkungen auf Vulkanausbrüche und enthielten daher keine Berücksichtigung der mit dem Pinatubo-Ausbruch verbundenen Abkühlung. AR4 und AR5 schlossen jedoch die Auswirkungen von Vulkanen ein und simulierten erfolgreich die damit verbundene Abkühlung. In den Jahren 1995–2000 war die globale mittlere Temperaturanomalie recht unterschiedlich - ein erheblicher Teil dieser Variabilität war auf den großen El Niño in den Jahren 1997–1998 und den starken Rücken an Rücken La Niñas in den Jahren 1999–2001 zurückzuführen. Die mit diesen Bewertungsberichten verbundenen Projektionen versuchen nicht, die tatsächliche Entwicklung dieser Ereignisse in El Niño und La Niña zu erfassen, sondern schließen sie als Quelle der Unsicherheit aufgrund natürlicher Variabilität ein, die beispielsweise durch den Bereich der einzelnen CMIP3- und CMIP5-Simulationen umfasst wird und Projektion (TFE.3, Abbildung 1). Der graue Keil in TFE.3, Abbildung 1 (Mitte rechts) entspricht dem indikativen wahrscheinlichen Bereich für Jahrestemperaturen, der vom Vertreter bestimmt wird Der von Concentration Pathways (RCPs) ermittelte Wert für den 20-Jahres-Mittelwert 2016–2035 (Einzelheiten siehe Abbildung TS.14 und Abschnitt 11.3.6). Von 1998 bis 2012 lagen die Beobachtungsschätzungen weitgehend am unteren Ende des Bereichs, der allein durch die Szenarien in früheren Bewertungsberichten und CMIP3- und CMIP5-Projektionen vorgegeben wurde. {2,4; Box9.2}

Ich habe auch ein Bild aus dieser Zusammenfassung angehängt:

previous IPCC temperature performance

Geschätzte Änderungen in Die seit 1950 beobachteten globalen und jährlich gemittelten Oberflächentemperaturen bezogen auf 1961–1990 (in ° C) im Vergleich zu den Projektionen aus den vorherigen IPCC-Bewertungen. Die Werte werden harmonisiert, um mit dem gleichen Wert von 1990 zu beginnen. Beobachtete globale Jahrestemperaturanomalie im Vergleich zu 1961–1990 anhand von drei Datensätzen, die als Quadrate und geglättete Zeitreihen als durchgezogene Linien aus dem Gitteroberflächentemperaturdatensatz 4 des Hadley Center / Climatic Research Unit (HadCRUT4) angezeigt werden ; hellgrün), zusammengeführte Land-Ozean-Oberflächentemperaturanalyse (MLOST; warmer Senf) und Goddard Institute for Space Studies (GISTEMP; dunkelblau) -Datensätze. Die farbige Schattierung zeigt den projizierten Bereich der globalen jährlichen mittleren Änderung der oberflächennahen Temperatur von 1990 bis 2035 für Modelle, die in FAR (Abbildung 6.11), SAR (Abbildung 19 in der TS von IPCC 1996), TAR (vollständiger Bereich von TAR, Abbildung 9.13 (b) verwendet wurden. ). Die TAR-Ergebnisse basieren auf den in dieser Bewertung vorgestellten einfachen Klimamodellanalysen und nicht auf den einzelnen dreidimensionalen Klimamodellsimulationen. Für die AR4-Ergebnisse werden einzelne Modellläufe des CMIP3-Ensembles für den historischen Zeitraum von 1950 bis 2000 (hellgraue Linien) und für drei SRES-Szenarien (A2, A1B und B1) von 2001 bis 2035 dargestellt. Für die drei SRES-Szenarien zeigen die Balken das CMIP3 Ensemble-Mittelwert und der wahrscheinliche Bereich von –40% bis + 60% des Mittelwerts, wie in Kapitel 10 von AR4 bewertet.

War das ein Ja oder ein Nein?
Die langfristigen Temperaturtrends lagen im Bereich der Ensembles, wie in der Grafik zu sehen ist.
Balinus
2014-08-08 22:42:50 UTC
view on stackexchange narkive permalink

Klimaprojektionen sollten nicht als deterministische Projektion des Klimas angesehen werden. Da das Erdsystem nicht linear (d. H. Chaotisch) ist, sind für die nächsten Jahrzehnte viele Wege möglich. Mit anderen Worten, die Statistik des Klimas (d. H. Trend, Variabilität zwischen den Jahren, räumliche Muster) der nächsten drei Jahrzehnte könnte näher an den Klimaprojektionen 2060-2090 liegen als an der Klimaprojektion 2020-2050.

Diese Art des Vergleichs liegt im dekadischen Vorhersagerahmen. Dies ist eine aufstrebende Wissenschaft für sich. Eine, die weit davon entfernt ist, für die Hauptsendezeit bereit zu sein. Die in den neunziger Jahren durchgeführten Simulationen zielten nicht auf eine solche zeitliche (dekadische) Vorhersage ab.

Ich beantworte die Frage nicht direkt, sondern weise lediglich darauf hin, dass solche Vergleiche irreführend sein könnten. P. >

Während viele Möglichkeiten, die Vergleiche durchzuführen, irreführend sein werden, sollten wir doch einige Tests der Vorhersagekraft des Modells erwarten? Woher wissen wir sonst, dass die Modelle keinen schwerwiegenden Fehler verbergen?
@matt_black, Ich denke, Balinus weist darauf hin, dass eine Projektion, die im hundertjährigen Maßstab genau ist, im dekadischen Maßstab möglicherweise nicht sehr genau ist, da Quellen interner Klimavariabilität (z. B. ENSO) im dekadischen Maßstab immer noch einen großen Einfluss auf den erwarteten haben Erwärmung, aber dies ist im Durchschnitt viel mehr auf einer hundertjährigen Skala. Der Punkt ist: "Wie genau können wir vernünftigerweise erwarten, dass die Modelle dekadisch sind?". Ein Hinweis ist die Verteilung der einzelnen Modellläufe, die das Ensemble bilden.
matt_black
2015-09-21 15:13:31 UTC
view on stackexchange narkive permalink

Einige Vergleiche deuten darauf hin, dass historische Modelle die beobachteten Temperaturen schlecht simulieren.

Dieses Bild aus einem Naturartikel ist die klarste Analyse, die es gibt vermeidet die verschiedenen Verschleierungen, die beim Betrachten von verrauschten Zeitreihendaten möglich sind:

nature chart

Die von diesen Autoren getroffene Wahl besteht darin, nur das durchschnittliche Ausmaß zu vergleichen der Erwärmung über einen Zeitraum anstatt der lauten Zeitreihen. Dies scheint einige der Entscheidungen zu vermeiden, die den Zeitreihenvergleich so verschleiert und kontrovers machen (tatsächlich stimmen ihre Ergebnisse nicht sehr mit denen überein, die in der vorherigen Antwort des IPCC gezeigt wurden, sie wählen lediglich eine Präsentationsmethode, die den Vergleich hervorhebt zwischen Modellen und Beobachtungen). Ihr Ergebnis scheint zu zeigen, dass die meisten Modelle die tatsächliche Erwärmung in den letzten Jahren tatsächlich überschätzen. In ihren Worten:

Die kürzlich beobachtete globale Erwärmung ist deutlich geringer als die von Klimamodellen simulierte.

Etwas ausführlicher sprechen die Autoren über Statistiken wie dies (meine Highlights):

Die Evidenz zeigt daher, dass die aktuelle Generation von Klimamodellen (wenn sie als Gruppe mit den von CMIP5 vorgeschriebenen Antrieben betrieben werden) die beobachtete globale Erwärmung in den letzten 20 Jahren oder die Verlangsamung der globalen nicht reproduziert Erwärmung in den letzten fünfzehn Jahren . Diese Interpretation wird durch statistische Tests der Nullhypothese gestützt, dass die beobachteten und die mittleren Modelltrends gleich sind, vorausgesetzt, dass entweder: (1) die Modelle untereinander austauschbar sind (dh die Ansicht „Wahrheit plus Fehler“); oder (2) die Modelle sind untereinander und mit den Beobachtungen austauschbar (siehe ergänzende Informationen). Unterschiede zwischen beobachteten und simulierten 20-Jahres-Trends weisen p-Werte (ergänzende Informationen) auf, die zwischen 1993 und 2012 unter Annahme (1) auf nahe Null und unter Annahme (2) auf 0,04 fallen (Abb. 2c). Hier stellen wir fest, dass je kleiner der p-Wert ist, desto stärker die Beweise gegen die Nullhypothese sind. Auf dieser Grundlage ist die Seltenheit der Trenddifferenz 1993–2012 unter Annahme (1) offensichtlich. Unter der Annahme (2) impliziert dies, dass eine solche Inkonsistenz nur einmal in 500 Jahren zufällig auftritt, wenn 20-Jahres-Zeiträume als statistisch unabhängig angesehen werden. Ähnliche Ergebnisse gelten für Trends für 1998–2012. Zusammenfassend lehnen wir die Nullhypothese ab, dass die beobachteten und die mittleren Modelltrends gleich sind.

Die Schlussfolgerung ist, dass die meisten Modelle (oder möglicherweise die meisten Ergebnisse aus dem Ensemble von Modellen) mehr vorhersagen Erwärmung, die tatsächlich passiert ist. Ob dies ein erhebliches Problem für Modelle darstellt, wird in den nächsten Jahren mit der Anhäufung von Beobachtungsdaten deutlicher. Die Autoren schließen einige Vorbehalte ein:

Andere Faktoren, die zur Diskrepanz beitragen, könnten eine fehlende Abnahme des stratosphärischen Wasserdampfs (dessen Prozesse sind) sein in aktuellen Klimamodellen nicht gut vertreten), Fehler beim Aerosolantrieb in den CMIP5-Modellen, eine Verzerrung des vorgeschriebenen Trends der Sonneneinstrahlung, die Möglichkeit, dass die vorübergehende Klimasensitivität der CMIP5-Modelle im Durchschnitt zu hoch sein könnte oder eine mögliche ungewöhnliche Episode von interne Klimavariabilität oben nicht berücksichtigt. Letztendlich werden die Ursachen dieser Inkonsistenz erst nach einem sorgfältigen Vergleich der simulierten internen Klimavariabilität und der Klimamodellkräfte mit Beobachtungen aus den letzten zwei Jahrzehnten und durch Warten auf die Reaktion der globalen Temperatur in den kommenden Jahrzehnten verstanden.

Andere Autoren haben die Frage mit einem etwas anderen und weniger direkten Ansatz behandelt. Sie neigen dazu, die implizite Klimasensitivität (grob gesagt: wie viel Erwärmung wir von einer kurz- oder langfristigen Verdoppelung der CO 2 -Niveaus erwarten) anhand von Beobachtungen und Modellen zu vergleichen. Mehrere neuere Veröffentlichungen haben niedrigere Schätzungen (insbesondere für die vorübergehende Klimareaktion) als die Werte in Klimamodellen gezeigt (siehe Lewis & Curry; Aldrin et al.; Otto et al.; Skeie et al..

Zusammenfassung Die Frage war, ob Modelle die tatsächliche Leistung gut simulieren zukünftiges Klima. Diese Ergebnisse deuten darauf hin, dass dies nicht der Fall ist. Es besteht jedoch eine große wissenschaftliche Unsicherheit darüber, ob dieses Versagen signifikant ist.

Ein Hauptproblem bei diesem Artikel besteht darin, dass die Modellvariabilität verwendet wird, um die erwartete Variabilität der Beobachtungen (effektiv) abzuschätzen. Dies bedeutet, dass Sie nicht behaupten können, dass die Modelle zu warm laufen, sondern nur, dass sie entweder zu warm laufen oder Sie simulieren die natürliche Variabilität oder ein bisschen von beidem zu wenig. Meiner Meinung nach ist es ein bisschen von beidem. Das Papier ist nicht so kontrovers, das Problem ist die Überbewertung der Bedeutung in Klima-Blogs (z. B. die erste Zeile Ihrer Antwort, die fett geschrieben ist).
"Zusammenfassend lehnen wir die Nullhypothese ab, dass die beobachteten und Modellmitteltrends gleich sind." was wir sowieso nicht erwarten würden. Der Ensemble-Mittelwert ist eine Schätzung der erzwungenen Reaktion des Klimasystems, während der beobachtete Trend das Ergebnis der erzwungenen Reaktion UND einer Realisierung der ungezwungenen Reaktion (dh des Wetterrauschens) ist, sodass die beiden nur dann gleich sind, wenn die Wettergeräusche sind sehr gering. Der richtige Test besteht darin, festzustellen, ob der beobachtete Trend in die Streuung der modellierten Trends fällt, was anscheinend der Fall ist.
@DikranMarsupial Die Frage, die sie zu beantworten versuchten, war, ob es vernünftig war, dass das Rauschen im System dazu führen würde, dass das tatsächliche Wetter über einen längeren Zeitraum weit vom vorhergesagten Wetter entfernt ist. Sie kamen zu dem Schluss, dass dies unwahrscheinlich war. Sie sind anderer Meinung. Welchen Test würden Sie für die Gültigkeit von Modellen vorschlagen?
Natürlich ist es eine vernünftige Frage, zu versuchen, sie zu beantworten. Es gab eine Reihe von Untersuchungen dazu. Wir sprechen hier auch über das Klima, nicht über das Wetter. Der geeignete Test der Konsistenz der Modellbeobachtung (die Gültigkeit des Modells kann nicht durch einen einzigen statistischen Test beantwortet werden - siehe die entsprechenden Kapitel in den IPCC-Berichten) besteht darin, zu bestimmen, ob die Beobachtungen innerhalb der Streuung der Modellläufe liegen, und zwar nach einer angemessenen Basislinie. Beachten Sie, dass niemand erwartet, dass die einzelnen Modelle korrekt sind. Das Ensemble mit mehreren Modellen versucht, die Unsicherheit in Bezug auf die Physik darzustellen.
„Es war vernünftig, dass das Rauschen im System dazu führen würde, dass das tatsächliche Wetter über einen längeren Zeitraum weit vom vorhergesagten Wetter entfernt ist.“ Klimaprojektionen basieren nicht auf Wettervorhersagen, sondern auf der Simulation von Wetter. Es gibt einen großen Unterschied zwischen den beiden.
Beachten Sie jedoch, dass die Verbreitung des Ensembles wahrscheinlich die wahre Unsicherheit unterrepräsentiert. Siehe diesen recht aktuellen Blog-Beitrag von http://variable-variability.blogspot.co.uk/2015/09/model-spread-is-not -uncertainty-nwp.html (nb der Autor ist ein Klimatologe).
@DikranMarsupial Mein unachtsamer Sprachgebrauch (Simulation gegen Vorhersage und Wetter gegen Klima) beeinträchtigt nicht den zentralen Punkt: Wir können nur dann erkennen, dass Modelle gut sind, wenn wir sie mit der Realität vergleichen, wie es das Papier tut.
Es gibt sehr große Unterschiede zwischen diesen beiden Paaren. Es ist eine gute Idee, sicherzustellen, dass Sie den Unterschied verstehen, wenn Sie Modelle und Beobachtungen vergleichen möchten. Trotzdem ist es bemerkenswert, dass Ihre Antwort nicht die vielen Vorbehalte enthält, die im Fyfe-Papier enthalten waren, und die Schlussfolgerungen überbewertet. Beachten Sie, dass das Papier endet. "Letztendlich werden die Ursachen dieser Inkonsistenz erst nach einem sorgfältigen Vergleich der simulierten internen Klimavariabilität und der Klimamodellkräfte mit Beobachtungen aus den letzten zwei Jahrzehnten verstanden.
... und indem sie abwarten, wie die globale Temperatur in den kommenden Jahrzehnten reagiert. "Mit anderen Worten, sie weisen darauf hin, dass nicht unbedingt die Modelle falsch sind, sondern dass die modellierte Variabilität falsch sein könnte oder die Probleme mit dem Modellzwänge. Wenn Sie die Antwort neu schreiben, die Vorbehalte einbeziehen, sie in den Kontext der anderen Studien zu diesem Thema stellen und ihre Schlussfolgerungen nicht überbewerten, würde ich diese Antwort gerne positiv bewerten (und die "nicht entlassen" lassen of hand "Rhetorik am Ende, es hilft nicht, Ihren Standpunkt zu machen).


Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...