論文の概要: A comparison of combined data assimilation and machine learning methods
for offline and online model error correction
- arxiv url: http://arxiv.org/abs/2107.11114v1
- Date: Fri, 23 Jul 2021 09:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 14:02:11.658423
- Title: A comparison of combined data assimilation and machine learning methods
for offline and online model error correction
- Title(参考訳): オフラインおよびオンラインモデル誤り訂正のためのデータ同化法と機械学習法の比較
- Authors: Alban Farchi, Marc Bocquet, Patrick Laloyaux, Massimo Bonavita,
Quentin Malartic
- Abstract要約: 機械学習手法とデータ同化を併用して動的システムを再構築することは可能であることを示す。
同じアプローチは、知識ベースのモデルのエラーを修正するために使用することができる。
傾向補正がオンラインモデル誤り訂正の可能性を開放することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that it is possible to combine machine learning
methods with data assimilation to reconstruct a dynamical system using only
sparse and noisy observations of that system. The same approach can be used to
correct the error of a knowledge-based model. The resulting surrogate model is
hybrid, with a statistical part supplementing a physical part. In practice, the
correction can be added as an integrated term (i.e. in the model resolvent) or
directly inside the tendencies of the physical model. The resolvent correction
is easy to implement. The tendency correction is more technical, in particular
it requires the adjoint of the physical model, but also more flexible. We use
the two-scale Lorenz model to compare the two methods. The accuracy in
long-range forecast experiments is somewhat similar between the surrogate
models using the resolvent correction and the tendency correction. By contrast,
the surrogate models using the tendency correction significantly outperform the
surrogate models using the resolvent correction in data assimilation
experiments. Finally, we show that the tendency correction opens the
possibility to make online model error correction, i.e. improving the model
progressively as new observations become available. The resulting algorithm can
be seen as a new formulation of weak-constraint 4D-Var. We compare online and
offline learning using the same framework with the two-scale Lorenz system, and
show that with online learning, it is possible to extract all the information
from sparse and noisy observations.
- Abstract(参考訳): 近年の研究では、機械学習手法とデータ同化を組み合わせることで、そのシステムのスパースでノイズの多い観測のみを用いて動的システムを再構築できることが示されている。
同じアプローチで、知識ベースのモデルのエラーを修正することができる。
結果として得られるサロゲートモデルは、物理的部分を補う統計的な部分を持つハイブリッドである。
実際には、補正は統合項(すなわち)として追加することができる。
モデル分解剤において)または物理的モデルの傾向の内部で直接的に。
解決剤の修正は容易に実装できる。
傾向補正はより技術的であり、特に物理的モデルの随伴を必要とするが、より柔軟である。
2次元ロレンツモデルを用いて2つの手法を比較する。
長距離予測実験の精度は, リゾルベント補正と傾向補正を用いたサロゲートモデルと幾分似ている。
対照的に,傾向補正を用いたサロゲートモデルは,データ同化実験における解法補正を用いたサロゲートモデルを大きく上回っている。
最後に,傾向補正がオンラインモデル誤り訂正の可能性を開放することを示す。
新しい観測が利用可能になると モデルを徐々に改善します
結果として得られるアルゴリズムは、弱い 4d-var の新しい定式化と見なすことができる。
同じフレームワークを使ったオンラインとオフラインの学習を2スケールのlorenzシステムと比較し、オンライン学習では、スパースとノイズの少ない観察からすべての情報を抽出できることを示した。
関連論文リスト
- Towards Aligned Data Removal via Twin Machine Unlearning [30.070660418732807]
現代のプライバシー規制は、機械学習の進化を刺激している。
本稿では,2つの未学習問題を元の未学習問題に対応付けて定義する,TMU(Twin Machine Unlearning)アプローチを提案する。
提案手法は未学習モデルと金モデルとのアライメントを著しく向上させる。
論文 参考訳(メタデータ) (2024-08-21T08:42:21Z) - LARA: A Light and Anti-overfitting Retraining Approach for Unsupervised
Time Series Anomaly Detection [49.52429991848581]
深部変分自動エンコーダに基づく時系列異常検出手法(VAE)のための光・反オーバーフィット学習手法(LARA)を提案する。
本研究の目的は,1) 再学習過程を凸問題として定式化し, 過度に収束できること,2) 履歴データを保存せずに活用するルミネートブロックを設計すること,3) 潜在ベクトルと再構成データの微調整を行うと, 線形形成が基底真実と微調整されたブロックとの誤りを最小に調整できることを数学的に証明することである。
論文 参考訳(メタデータ) (2023-10-09T12:36:16Z) - Analysis of Interpolating Regression Models and the Double Descent
Phenomenon [3.883460584034765]
ノイズの多いトレーニングデータを補間するモデルは、一般化に乏しいと一般的に推測されている。
得られた最良のモデルは過度にパラメータ化され、テストエラーはモデル順序が増加するにつれて二重降下挙動を示す。
回帰行列の最小特異値の振舞いに基づいて、テスト誤差のピーク位置と二重降下形状をモデル順序の関数として説明する。
論文 参考訳(メタデータ) (2023-04-17T09:44:33Z) - Online model error correction with neural networks in the incremental
4D-Var framework [0.0]
我々は,オンラインモデル誤り訂正のためのニューラルネットワークのトレーニングに使用できる,新しい弱制約4D-Varの定式化を開発した。
本手法はECMWFオブジェクト指向予測システムに実装されている。
その結果,オンライン学習が有効であることが確認され,オフライン学習よりも精度の高いモデル誤差補正が得られた。
論文 参考訳(メタデータ) (2022-10-25T07:45:33Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Positive-Congruent Training: Towards Regression-Free Model Updates [87.25247195148187]
画像分類において、サンプルワイドの不整合は「負のフリップ」として現れる
新しいモデルは、古い(参照)モデルによって正しく分類されたテストサンプルの出力を誤って予測する。
そこで本研究では,PC トレーニングのための簡易なアプローチである Focal Distillation を提案する。
論文 参考訳(メタデータ) (2020-11-18T09:00:44Z) - Using machine learning to correct model error in data assimilation and
forecast applications [0.0]
本稿では,既存の知識ベースモデルの誤りを訂正するために,この手法を提案する。
結果として得られるサロゲートモデルは、元の(知識ベース)モデルとMLモデルとのハイブリッドモデルである。
DAのハイブリッドサロゲートモデルを用いることで、元のモデルよりもはるかに優れた分析が得られる。
論文 参考訳(メタデータ) (2020-10-23T18:30:45Z) - Factual Error Correction for Abstractive Summarization Models [41.77317902748772]
本稿では,生成した要約の事実誤りを訂正するための編集後修正モジュールを提案する。
本モデルでは,他の神経要約モデルによって生成された要約の事実誤りを補正できることが示されている。
また、人工的なエラー訂正から下流の設定への移行は依然として非常に困難であることもわかりました。
論文 参考訳(メタデータ) (2020-10-17T04:24:16Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。