論文の概要: Mitigating loss of variance in ensemble data assimilation: machine learning-based and distance-free localizations for better covariance estimation
- arxiv url: http://arxiv.org/abs/2506.13362v1
- Date: Mon, 16 Jun 2025 11:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.20717
- Title: Mitigating loss of variance in ensemble data assimilation: machine learning-based and distance-free localizations for better covariance estimation
- Title(参考訳): アンサンブルデータ同化における分散損失の軽減:機械学習と距離自由な局所化によるより良い共分散推定
- Authors: Vinicius L. S. Silva, Gabriel S. Seabra, Alexandre A. Emerick,
- Abstract要約: アンサンブルデータ同化における共分散推定を改善するための2つの新しい手法を提案する。
主な目的は、サンプリングエラーによるばらつきの損失を軽減し、データ同化結果を強化することである。
これらのメソッドは、Multiple Data Assimilation (ES-MDA)フレームワークでEnsemble Smootherに統合される。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose two new methods based/inspired by machine learning for tabular data and distance-free localization to enhance the covariance estimations in an ensemble data assimilation. The main goal is to enhance the data assimilation results by mitigating loss of variance due to sampling errors. We also analyze the suitability of several machine learning models and the balance between accuracy and computational cost of the covariance estimations. We introduce two distance-free localization techniques leveraging machine learning methods specifically tailored for tabular data. The methods are integrated into the Ensemble Smoother with Multiple Data Assimilation (ES-MDA) framework. The results show that the proposed localizations improve covariance accuracy and enhance data assimilation and uncertainty quantification results. We observe reduced variance loss for the input variables using the proposed methods. Furthermore, we compare several machine learning models, assessing their suitability for the problem in terms of computational cost, and quality of the covariance estimation and data match. The influence of ensemble size is also investigated, providing insights into balancing accuracy and computational efficiency. Our findings demonstrate that certain machine learning models are more suitable for this problem. This study introduces two novel methods that mitigate variance loss for model parameters in ensemble-based data assimilation, offering practical solutions that are easy to implement and do not require any additional numerical simulation or hyperparameter tuning.
- Abstract(参考訳): 本研究では,グラフデータに対する機械学習/インスパイアされた2つの新しい手法と,アンサンブルデータ同化における共分散推定を強化するための距離自由な局所化を提案する。
主な目的は、サンプリングエラーによるばらつきの損失を軽減し、データ同化結果を強化することである。
また、複数の機械学習モデルの適合性や、共分散推定の精度と計算コストのバランスを解析する。
本研究では,グラフデータに適した機械学習手法を活用する2つの距離自由なローカライゼーション手法を提案する。
これらのメソッドは、Multiple Data Assimilation (ES-MDA)フレームワークでEnsemble Smootherに統合される。
その結果,提案手法は共分散精度を向上し,データの同化や不確実な定量化結果の向上を図っている。
提案手法を用いて,入力変数の分散損失の低減を観測した。
さらに,複数の機械学習モデルを比較し,計算コスト,共分散推定およびデータマッチングの品質の観点から問題に対する適合性を評価する。
アンサンブルサイズの影響についても検討し,精度と計算効率のバランスについて考察した。
以上の結果から,特定の機械学習モデルの方がこの問題に適していることが示唆された。
本研究では、アンサンブルに基づくデータ同化におけるモデルパラメータの分散損失を緩和する2つの新しい手法を紹介し、実装が容易で、追加の数値シミュレーションやハイパーパラメータチューニングを必要としない実用的なソリューションを提供する。
関連論文リスト
- Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [41.50816120270017]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Assumption-Lean Post-Integrated Inference with Negative Control Outcomes [0.0]
負の制御結果を用いて遅延不均一性を調整する頑健なポストインテグレート推論(PII)手法を提案する。
提案手法は,予測された直接効果推定値,隠された仲介者,共同設立者,モデレーターまで拡張する。
提案された二重頑健な推定器は、最小の仮定と潜在的な不特定性の下で一貫性があり、効率的である。
論文 参考訳(メタデータ) (2024-10-07T12:52:38Z) - Minimal Variance Model Aggregation: A principled, non-intrusive, and versatile integration of black box models [0.2455468619225742]
様々なモデルから予測を統合するデータ駆動型フレームワークであるMEVA(Minimal Empirical Variance Aggregation)を紹介する。
この非侵襲的モデルに依存しないアプローチは、貢献するモデルをブラックボックスとして扱い、多様な方法論からの出力を許容する。
論文 参考訳(メタデータ) (2024-09-25T18:33:21Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Observation Error Covariance Specification in Dynamical Systems for Data
assimilation using Recurrent Neural Networks [0.5330240017302621]
長期記憶(LSTM)リカレントニューラルネットワーク(RNN)に基づくデータ駆動型アプローチを提案する。
提案手法では,事前の誤差分布に関する知識や仮定は不要である。
提案手法を,DI01とD05という2つの最先端共分散チューニングアルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-11-11T20:23:00Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Evaluating representations by the complexity of learning low-loss
predictors [55.94170724668857]
下流タスクの解決に使用されるデータの表現を評価することの問題点を考察する。
本稿では,関心のあるタスクにおける低損失を実現する表現の上に,予測器を学習する複雑性によって表現の質を測定することを提案する。
論文 参考訳(メタデータ) (2020-09-15T22:06:58Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。