論文の概要: Adjoint-Matching Neural Network Surrogates for Fast 4D-Var Data
Assimilation
- arxiv url: http://arxiv.org/abs/2111.08626v1
- Date: Tue, 16 Nov 2021 17:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 16:11:47.430744
- Title: Adjoint-Matching Neural Network Surrogates for Fast 4D-Var Data
Assimilation
- Title(参考訳): 高速4次元データ同化のためのアジョイントマッチングニューラルネットワーク
- Authors: Austin Chennault, Andrey A. Popov, Amit N. Subrahmanya, Rachel Cooper,
Anuj Karpatne, Adrian Sandu
- Abstract要約: ニューラルネットワークサロゲートの構築にデリバティブ情報を取り入れたアプローチを定式化し分析する。
2つの手法は,隣接情報なしで訓練した代理ネットワークと比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 1.7416597120949546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The data assimilation procedures used in many operational numerical weather
forecasting systems are based around variants of the 4D-Var algorithm. The cost
of solving the 4D-Var problem is dominated by the cost of forward and adjoint
evaluations of the physical model. This motivates their substitution by fast,
approximate surrogate models. Neural networks offer a promising approach for
the data-driven creation of surrogate models. The accuracy of the surrogate
4D-Var problem's solution has been shown to depend explicitly on accurate
modeling of the forward and adjoint for other surrogate modeling approaches and
in the general nonlinear setting. We formulate and analyze several approaches
to incorporating derivative information into the construction of neural network
surrogates. The resulting networks are tested on out of training set data and
in a sequential data assimilation setting on the Lorenz-63 system. Two methods
demonstrate superior performance when compared with a surrogate network trained
without adjoint information, showing the benefit of incorporating adjoint
information into the training process.
- Abstract(参考訳): 多くの運用数値天気予報システムで使用されるデータ同化手順は、4D-Varアルゴリズムの変種に基づいている。
4D-Var問題を解くコストは、物理モデルの前進および随伴評価のコストに支配される。
これは、高速で近似的なサロゲートモデルによる置換を動機付ける。
ニューラルネットワークは、代理モデルのデータ駆動生成に有望なアプローチを提供する。
サロゲート4d-var問題の解の精度は、他のサロゲートモデリングアプローチと一般的な非線形設定のフォワードと随伴の正確なモデリングに依存することが示されている。
ニューラルネットワークサロゲートの構築にデリバティブ情報を組み込むためのいくつかのアプローチを定式化し分析する。
得られたネットワークは、トレーニングセットデータセットと、Lorenz-63システム上のシーケンシャルデータ同化設定でテストされる。
2つの手法は、随伴情報のない訓練されたサロゲートネットワークと比較して優れた性能を示し、訓練プロセスに随伴情報を組み込むことの利点を示す。
関連論文リスト
- Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Online model error correction with neural networks in the incremental
4D-Var framework [0.0]
我々は,オンラインモデル誤り訂正のためのニューラルネットワークのトレーニングに使用できる,新しい弱制約4D-Varの定式化を開発した。
本手法はECMWFオブジェクト指向予測システムに実装されている。
その結果,オンライン学習が有効であることが確認され,オフライン学習よりも精度の高いモデル誤差補正が得られた。
論文 参考訳(メタデータ) (2022-10-25T07:45:33Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Leveraging Intrinsic Gradient Information for Machine Learning Model
Training [4.682734815593623]
入力に対する対象変数の微分を利用して、微分可能な機械学習モデルの精度を向上させることができる。
1)線形回帰モデルとフィードフォワードニューラルネットワーク(NN)の予測精度の向上,(2)勾配情報と非勾配情報との差を利用してNNの複雑さを調整すること,(4)勾配情報を用いて生成画像モデルを改善すること。
論文 参考訳(メタデータ) (2021-11-30T20:50:45Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。