論文の概要: OmniCast: A Masked Latent Diffusion Model for Weather Forecasting Across Time Scales
- arxiv url: http://arxiv.org/abs/2510.18707v1
- Date: Mon, 20 Oct 2025 17:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.749264
- Title: OmniCast: A Masked Latent Diffusion Model for Weather Forecasting Across Time Scales
- Title(参考訳): OmniCast: 時間スケールで天気予報を行うためのマスク付き潜在拡散モデル
- Authors: Tung Nguyen, Tuan Pham, Troy Arcomano, Veerabhadra Kotamarthi, Ian Foster, Sandeep Madireddy, Aditya Grover,
- Abstract要約: OmniCastはスケーラブルで熟練した確率モデルで、時間スケールで天気予報を統一する。
中距離の時間スケールで10倍から20倍高速に動作します。
これは、精度、物理ベース、確率的メトリクスにわたって、サブシーズンとシーズンのスケールで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 31.2102435696238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate weather forecasting across time scales is critical for anticipating and mitigating the impacts of climate change. Recent data-driven methods based on deep learning have achieved significant success in the medium range, but struggle at longer subseasonal-to-seasonal (S2S) horizons due to error accumulation in their autoregressive approach. In this work, we propose OmniCast, a scalable and skillful probabilistic model that unifies weather forecasting across timescales. OmniCast consists of two components: a VAE model that encodes raw weather data into a continuous, lower-dimensional latent space, and a diffusion-based transformer model that generates a sequence of future latent tokens given the initial conditioning tokens. During training, we mask random future tokens and train the transformer to estimate their distribution given conditioning and visible tokens using a per-token diffusion head. During inference, the transformer generates the full sequence of future tokens by iteratively unmasking random subsets of tokens. This joint sampling across space and time mitigates compounding errors from autoregressive approaches. The low-dimensional latent space enables modeling long sequences of future latent states, allowing the transformer to learn weather dynamics beyond initial conditions. OmniCast performs competitively with leading probabilistic methods at the medium-range timescale while being 10x to 20x faster, and achieves state-of-the-art performance at the subseasonal-to-seasonal scale across accuracy, physics-based, and probabilistic metrics. Furthermore, we demonstrate that OmniCast can generate stable rollouts up to 100 years ahead. Code and model checkpoints are available at https://github.com/tung-nd/omnicast.
- Abstract(参考訳): 正確な気象予報は、気候変動の影響を予測し緩和するために重要である。
近年, 深層学習に基づくデータ駆動方式は中規模で大きな成功を収めているが, 自己回帰アプローチにおける誤りの蓄積により, S2Sの長期化に苦慮している。
本研究は,気象予報を時間スケールで統一する,スケーラブルで熟練した確率モデルであるOmniCastを提案する。
OmniCastは、生の気象データを連続的で低次元の潜伏空間にエンコードするVAEモデルと、初期条件付きトークンが与えられた後続の潜伏トークン列を生成する拡散ベースのトランスフォーマーモデルである。
トレーニング中、ランダムな未来のトークンをマスクし、トランスフォーマーをトレーニングし、与えられた条件と可視なトークンの分布を、トーケン拡散ヘッドを用いて推定する。
推論中、トランスフォーマーはトークンのランダムな部分集合を反復的に解き放つことによって、将来のトークンの完全なシーケンスを生成する。
この結合サンプリングは、空間と時間にわたって、自己回帰的アプローチからの複合的なエラーを緩和する。
低次元の潜伏空間は将来の潜伏状態の長い列をモデル化することができ、変圧器は初期条件を超える気象力学を学習することができる。
OmniCastは10倍から20倍の速度で、中距離の時間スケールで主要な確率的手法と競合し、精度、物理ベース、確率的メトリクスにわたって、サブシーズンからシーズンスケールで最先端のパフォーマンスを達成する。
さらに,OmniCastが100年以上前に安定したロールアウトを発生可能であることも実証した。
コードとモデルチェックポイントはhttps://github.com/tung-nd/omnicast.comで入手できる。
関連論文リスト
- OmniTraj: Pre-Training on Heterogeneous Data for Adaptive and Zero-Shot Human Trajectory Prediction [62.385417528148224]
OmniTrajは、大規模な異種データセットで事前トレーニングされたトランスフォーマーベースのモデルである。
実験によると、フレームレートを明示的に条件付けすることで、OmniTrajは最先端のゼロショット転送性能を実現することができる。
論文 参考訳(メタデータ) (2025-07-31T15:37:09Z) - LaDCast: A Latent Diffusion Model for Medium-Range Ensemble Weather Forecasting [1.2277343096128712]
我々は中距離アンサンブル予測のための最初のグローバル潜在拡散フレームワークであるLaDCastを紹介する。
LaDCastは学習された潜在空間で、時間ごとのアンサンブル予測を生成する。
LaDCastはEuropean Centre for Medium-Range Forecast IFS-ENSに近い決定的および確率的スキルを達成している。
論文 参考訳(メタデータ) (2025-06-10T19:17:14Z) - Sundial: A Family of Highly Capable Time Series Foundation Models [64.6322079384575]
Sundialはネイティブでフレキシブルでスケーラブルな時系列基盤モデルのファミリーです。
我々のモデルは、事前の分布を指定せずに事前訓練されており、複数の確率予測を生成することができる。
Sundialは、ジャスト・イン・タイムの推論速度で、ポイントと確率予測ベンチマークの両方で最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-02-02T14:52:50Z) - CoDiCast: Conditional Diffusion Model for Global Weather Prediction with Uncertainty Quantification [23.605859261510407]
従来のアンサンブルの数値天気予報は計算集約的である。
既存の機械学習ベースの天気予報アプローチは効率的で正確である。
正確なグローバル気象予測を生成する条件拡散モデルであるCoDiCastを提案する。
論文 参考訳(メタデータ) (2024-09-09T18:18:47Z) - Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion [61.03681839276652]
拡散強制(Diffusion Forcing)は、拡散モデルをトレーニングし、トークンの集合に独立した音レベルを付与する、新たなトレーニングパラダイムである。
因果的次トーケン予測モデルを訓練して1つまたは複数の未来のトークンを生成することで、シーケンス生成モデルに拡散強制を適用する。
論文 参考訳(メタデータ) (2024-07-01T15:43:25Z) - Precipitation nowcasting with generative diffusion models [0.0]
降水処理における拡散モデルの有効性について検討した。
本研究は, 確立されたU-Netモデルの性能と比較したものである。
論文 参考訳(メタデータ) (2023-08-13T09:51:16Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。