論文の概要: Long-Range Distillation: Distilling 10,000 Years of Simulated Climate into Long Timestep AI Weather Models
- arxiv url: http://arxiv.org/abs/2512.22814v1
- Date: Sun, 28 Dec 2025 07:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.237718
- Title: Long-Range Distillation: Distilling 10,000 Years of Simulated Climate into Long Timestep AI Weather Models
- Title(参考訳): ロングレンジ蒸留:1万年分の気候を長期AI気象モデルに蒸留する
- Authors: Scott A. Martin, Noah Brenowitz, Dale Durran, Michael Pritchard,
- Abstract要約: 長距離蒸留(Long-range distillation)は、長距離で直接予測するために、長期確率的「学生」モデルを訓練する手法である。
私たちは、さまざまな時間スケールで予測するモデルをトレーニングするために、1万年以上のシミュレーションされた気候を生成します。
完全モデル実験では、蒸留されたモデルは気候学を上回り、自己回帰教師のスキルに近づいた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate long-range weather forecasting remains a major challenge for AI models, both because errors accumulate over autoregressive rollouts and because reanalysis datasets used for training offer a limited sample of the slow modes of climate variability underpinning predictability. Most AI weather models are autoregressive, producing short lead forecasts that must be repeatedly applied to reach subseasonal-to-seasonal (S2S) or seasonal lead times, often resulting in instability and calibration issues. Long-timestep probabilistic models that generate long-range forecasts in a single step offer an attractive alternative, but training on the 40-year reanalysis record leads to overfitting, suggesting orders of magnitude more training data are required. We introduce long-range distillation, a method that trains a long-timestep probabilistic "student" model to forecast directly at long-range using a huge synthetic training dataset generated by a short-timestep autoregressive "teacher" model. Using the Deep Learning Earth System Model (DLESyM) as the teacher, we generate over 10,000 years of simulated climate to train distilled student models for forecasting across a range of timescales. In perfect-model experiments, the distilled models outperform climatology and approach the skill of their autoregressive teacher while replacing hundreds of autoregressive steps with a single timestep. In the real world, they achieve S2S forecast skill comparable to the ECMWF ensemble forecast after ERA5 fine-tuning. The skill of our distilled models scales with increasing synthetic training data, even when that data is orders of magnitude larger than ERA5. This represents the first demonstration that AI-generated synthetic training data can be used to scale long-range forecast skill.
- Abstract(参考訳): 自動回帰的なロールアウトにエラーが蓄積するのと、トレーニングに使用される分析データセットは、予測可能性を支える遅いモードの限られたサンプルを提供するため、AIモデルにとって正確な長距離天気予報は依然として大きな課題である。
ほとんどのAI気象モデルは自己回帰的であり、シーズンごとのリードタイム(S2S)や季節ごとのリードタイムに何度も適用する必要がある短いリード予測を生成し、しばしば不安定とキャリブレーションの問題を引き起こす。
長距離予測を単一ステップで生成する長期確率モデルは、魅力的な代替手段を提供するが、40年間のリアナリシス記録のトレーニングは過度に適合し、さらに多くのトレーニングデータが必要になることを示唆している。
本稿では,短時間の自己回帰型「教師」モデルによって生成された巨大な合成学習データセットを用いて,長期確率的「学生」モデルを長距離で直接予測するために,長距離蒸留を導入する。
深層学習地球系モデル (DLESyM) を教師として用い, 1万年以上のシミュレーション気候を発生させ, 留学生モデルを訓練し, 様々な時間スケールで予測する。
完璧なモデル実験では、蒸留されたモデルは気候学より優れており、数百の自己回帰的なステップを1つの時間ステップで置き換えながら、自己回帰的な教師のスキルに近づきます。
実世界では、ERA5微調整後のECMWFアンサンブル予測に匹敵するS2S予測技術を達成する。
蒸留モデルのスキルは、データがERA5よりも桁違いに大きい場合でも、合成トレーニングデータの増加とともにスケールする。
これは、AIが生成した合成トレーニングデータが長距離予測スキルのスケールアップに使用できる最初のデモンストレーションである。
関連論文リスト
- AtmosMJ: Revisiting Gating Mechanism for AI Weather Forecasting Beyond the Year Scale [4.8951183832371]
本研究では,ERA5データを球面再マッピングなしで直接操作する深層畳み込みネットワークを提案する。
以上の結果から,AtmosMJは約500日間,安定かつ物理的に妥当な予測が得られた。
論文 参考訳(メタデータ) (2025-06-11T13:38:56Z) - A Hybrid Deep-Learning Model for El Niño Southern Oscillation in the Low-Data Regime [0.0]
エルニーニョ南部振動(en:El Nino Southern Oscillation,ENSO)予測は1年間前倒しできる。
ディープラーニングモデルは、何千年ものトレーニングデータを提供する気候モデルシミュレーションに基づいて、主にトレーニングされている。
これにより、LIMのモデストデータと、LIMのディープラーニング非マルコフ補正を組み合わせたハイブリッドなアプローチが実現される。
O(100 yr)データセットの場合、得られたHybridモデルはLIMよりも熟練しているが、完全なディープラーニングモデルのスキルを超えている。
論文 参考訳(メタデータ) (2024-12-04T22:23:17Z) - Long-term drought prediction using deep neural networks based on geospatial weather data [75.38539438000072]
農業計画や保険には1年前から予測される高品質の干ばつが不可欠だ。
私たちは、体系的なエンドツーエンドアプローチを採用するエンドツーエンドアプローチを導入することで、干ばつデータに取り組みます。
主な発見は、TransformerモデルであるEarthFormerが、正確な短期(最大6ヶ月)の予測を行う際の例外的なパフォーマンスである。
論文 参考訳(メタデータ) (2023-09-12T13:28:06Z) - ClimaX: A foundation model for weather and climate [51.208269971019504]
ClimaXは気象と気候科学のディープラーニングモデルである。
気候データセットの自己教師型学習目標で事前トレーニングすることができる。
気候や気候の様々な問題に対処するために、微調整が可能である。
論文 参考訳(メタデータ) (2023-01-24T23:19:01Z) - Long-term stability and generalization of observationally-constrained
stochastic data-driven models for geophysical turbulence [0.19686770963118383]
ディープラーニングモデルは、現在の最先端の気象モデルにおける特定のバイアスを軽減することができる。
データ駆動モデルは、再分析(観測データ)製品から利用できない多くのトレーニングデータを必要とします。
決定論的データ駆動予測モデルは、長期的な安定性と非物理的気候の漂流の問題に悩まされる。
本稿では,不完全な気候モデルシミュレーションに基づいて事前学習した畳み込み変分自動エンコーダに基づくデータ駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-09T23:52:37Z) - A generative adversarial network approach to (ensemble) weather
prediction [91.3755431537592]
本研究では,500hPaの圧力レベル,2m温度,24時間の総降水量を予測するために,条件付き深部畳み込み生成対向ネットワークを用いた。
提案されたモデルは、2019年に関連する気象分野を予測することを目的として、2015年から2018年までの4年間のERA5の再分析データに基づいて訓練されている。
論文 参考訳(メタデータ) (2020-06-13T20:53:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。