論文の概要: Finetuning AI Foundation Models to Develop Subgrid-Scale Parameterizations: A Case Study on Atmospheric Gravity Waves
- arxiv url: http://arxiv.org/abs/2509.03816v1
- Date: Thu, 04 Sep 2025 02:05:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.018134
- Title: Finetuning AI Foundation Models to Develop Subgrid-Scale Parameterizations: A Case Study on Atmospheric Gravity Waves
- Title(参考訳): サブグリッドスケールパラメータ化を開発するためのAIファンデーションモデル:大気重力波のケーススタディ
- Authors: Aman Gupta, Aditi Sheshadri, Sujit Roy, Johannes Schmude, Vishal Gaur, Wei Ji Leong, Manil Maskey, Rahul Ramachandran,
- Abstract要約: 我々は、訓練済みAI基礎モデル(FM)を微調整することで、小規模気候プロセスの機械学習パラメータ化を開発するための新しいアプローチを提案する。
2.3億パラメータFMからの事前学習エンコーダデコーダを微調整し、大気重力波(GW)の深層学習パラメータ化を行う。
月平均値と機械学習モデルベースラインとの即時進化の比較により、FMパラメータ化の大気中における優れた予測性能が示された。
- 参考スコア(独自算出の注目度): 1.936101328226204
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Global climate models parameterize a range of atmospheric-oceanic processes like gravity waves, clouds, moist convection, and turbulence that cannot be sufficiently resolved. These subgrid-scale closures for unresolved processes are a leading source of model uncertainty. Here, we present a new approach to developing machine learning parameterizations of small-scale climate processes by fine-tuning a pre-trained AI foundation model (FM). FMs are largely unexplored in climate research. A pre-trained encoder-decoder from a 2.3 billion parameter FM (NASA and IBM Research's Prithvi WxC) -- which contains a latent probabilistic representation of atmospheric evolution -- is fine-tuned (or reused) to create a deep learning parameterization for atmospheric gravity waves (GWs). The parameterization captures GW effects for a coarse-resolution climate model by learning the fluxes from an atmospheric reanalysis with 10 times finer resolution. A comparison of monthly averages and instantaneous evolution with a machine learning model baseline (an Attention U-Net) reveals superior predictive performance of the FM parameterization throughout the atmosphere, even in regions excluded from pre-training. This performance boost is quantified using the Hellinger distance, which is 0.11 for the baseline and 0.06 for the fine-tuned model. Our findings emphasize the versatility and reusability of FMs, which could be used to accomplish a range of atmosphere- and climate-related applications, leading the way for the creation of observations-driven and physically accurate parameterizations for more earth-system processes.
- Abstract(参考訳): 地球温暖化モデルでは、重力波、雲、湿潤対流、乱流など、十分に解決できない様々な大気-海洋過程をパラメータ化している。
未解決プロセスに対するこれらのサブグリッドスケールの閉包は、モデルの不確実性の主要な原因である。
本稿では,事前学習型AI基盤モデル(FM)を微調整することで,小規模気候プロセスの機械学習パラメータ化を開発するための新しいアプローチを提案する。
FMは、主に気候研究で探索されていない。
2.3億のパラメータFM(NASAとIBM ResearchのPrithvi WxC)からトレーニング済みのエンコーダデコーダは、大気重力波(GW)の深層学習パラメータ化を作成するために微調整(または再利用)されている。
パラメータ化は、10倍の微細な分解能で大気のリアナリシスからフラックスを学習することにより、粗い分解能気候モデルに対するGW効果を捉える。
月平均値と機械学習モデルベースライン(注意 U-Net)との即時進化の比較では、事前学習から除外された領域においても、大気中におけるFMパラメータ化の予測性能が優れていることが示されている。
この性能向上はHellinger距離を用いて定量化され、ベースラインは0.11、微調整モデルは0.06である。
その結果,FMの汎用性と再利用性が強調され,大気や気候に関する様々な応用が可能となり,より地球系プロセスのための観測駆動および物理的に正確なパラメータ化の創出に繋がった。
関連論文リスト
- MambaDS: Near-Surface Meteorological Field Downscaling with Topography Constrained Selective State Space Modeling [68.69647625472464]
気象予測において重要な課題であるダウンスケーリングは、ターゲット領域に対する高解像度気象状態の再構築を可能にする。
以前のダウンスケーリング手法には気象学のための調整された設計が欠けており、構造的な限界に遭遇した。
本稿では,多変数相関と地形情報の利用性を高める新しいモデルであるMambaDSを提案する。
論文 参考訳(メタデータ) (2024-08-20T13:45:49Z) - Machine Learning Global Simulation of Nonlocal Gravity Wave Propagation [1.3108798582758452]
WINDSETデータセットを用いて学習した機械学習(ML)モデルを用いて,大気中規模プロセスのグローバルシミュレーションを行った。
グローバルに解決されたGW運動量に基づいて訓練された意図的U-Netアーキテクチャを用いて、グローバルな非局所性の重要性と有効性を説明する。
論文 参考訳(メタデータ) (2024-06-20T22:57:38Z) - FengWu-GHR: Learning the Kilometer-scale Medium-range Global Weather
Forecasting [56.73502043159699]
この研究は、データ駆動型世界天気予報モデルであるFengWu-GHRを、0.09$circ$水平解像度で実行した。
低解像度モデルから事前知識を継承することにより、MLベースの高解像度予測を操作するための扉を開く新しいアプローチを導入する。
2022年の天気予報は、FengWu-GHRがIFS-HRESよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-28T13:23:25Z) - Observation-Guided Meteorological Field Downscaling at Station Scale: A
Benchmark and a New Method [66.80344502790231]
気象学的ダウンスケーリングを任意の散乱ステーションスケールに拡張し、新しいベンチマークとデータセットを確立する。
データ同化技術にインスパイアされた我々は、観測データをダウンスケーリングプロセスに統合し、マルチスケールの観測先行情報を提供する。
提案手法は、複数の曲面変数上で、他の特別に設計されたベースラインモデルよりも優れている。
論文 参考訳(メタデータ) (2024-01-22T14:02:56Z) - Residual Corrective Diffusion Modeling for Km-scale Atmospheric Downscaling [58.456404022536425]
気象・気候からの物理的危険予知技術の現状には、粗い解像度のグローバルな入力によって駆動される高価なkmスケールの数値シミュレーションが必要である。
ここでは、コスト効率のよい機械学習代替手段として、このようなグローバルな入力をkmスケールにダウンスケールするために、生成拡散アーキテクチャを探索する。
このモデルは、台湾上空の地域気象モデルから2kmのデータを予測するために訓練され、世界25kmの再解析に基づいている。
論文 参考訳(メタデータ) (2023-09-24T19:57:22Z) - ClimaX: A foundation model for weather and climate [51.208269971019504]
ClimaXは気象と気候科学のディープラーニングモデルである。
気候データセットの自己教師型学習目標で事前トレーニングすることができる。
気候や気候の様々な問題に対処するために、微調整が可能である。
論文 参考訳(メタデータ) (2023-01-24T23:19:01Z) - Climate-Invariant Machine Learning [0.8831201550856289]
現在の気候モデルは、モデルグリッドサイズよりも小さなスケールで発生するプロセスの表現を必要とする。
最近の機械学習(ML)アルゴリズムは、そのようなプロセス表現を改善することを約束するが、訓練されていない気候体制に悪影響を及ぼす傾向がある。
我々は、気候プロセスの知識をMLアルゴリズムに取り入れた「気候不変」MLと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-14T07:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。