論文の概要: Balancing Accuracy and Speed: A Multi-Fidelity Ensemble Kalman Filter with a Machine Learning Surrogate Model
- arxiv url: http://arxiv.org/abs/2512.12276v1
- Date: Sat, 13 Dec 2025 10:38:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.195314
- Title: Balancing Accuracy and Speed: A Multi-Fidelity Ensemble Kalman Filter with a Machine Learning Surrogate Model
- Title(参考訳): 精度と速度のバランシング:機械学習サロゲートモデルを用いた多要素アンサンブルカルマンフィルタ
- Authors: Jeffrey van der Voort, Martin Verlaan, Hanne Kekkonen,
- Abstract要約: 本稿では,MF-EnKF(Multi-Fidelity Ensemble Kalman Filter)を用いて,低忠実度モデルがそのような機械学習サロゲートモデルであることを示す。
MF-EnKFは同じ計算予算内で精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, more and more machine learning (ML) surrogates are being developed for computationally expensive physical models. In this work we investigate the use of a Multi-Fidelity Ensemble Kalman Filter (MF-EnKF) in which the low-fidelity model is such a machine learning surrogate model, instead of a traditional low-resolution or reduced-order model. The idea behind this is to use an ensemble of a few expensive full model runs, together with an ensemble of many cheap but less accurate ML model runs. In this way we hope to reach increased accuracy within the same computational budget. We investigate the performance by testing the approach on two common test problems, namely the Lorenz-2005 model and the Quasi-Geostrophic model. By keeping the original physical model in place, we obtain a higher accuracy than when we completely replace it by the ML model. Furthermore, the MF-EnKF reaches improved accuracy within the same computational budget. The ML surrogate has similar or improved accuracy compared to the low-resolution one, but it can provide a larger speed-up. Our method contributes to increasing the effective ensemble size in the EnKF, which improves the estimation of the initial condition and hence accuracy of the predictions in fields such as meteorology and oceanography.
- Abstract(参考訳): 現在、計算コストの高い物理モデルのための機械学習サロゲートがますます多く開発されている。
本研究では,MF-EnKF(Multi-Fidelity Ensemble Kalman Filter)を用いて,従来の低解像度・低次モデルではなく,低忠実度モデルがそのような機械学習サロゲートモデルであることを示す。
その背景には、高価なフルモデルのランニングのアンサンブルと、安価だが精度の低いMLモデルランニングのアンサンブルを使用する、というアイデアがある。
このようにして、我々は同じ計算予算内で精度を高めることを望んでいます。
本研究は,ローレンツ-2005モデルと準地栄養モデルという2つの一般的なテスト問題に対するアプローチを検証し,その性能について検討する。
元の物理モデルを配置しておくことで、MLモデルで完全に置き換えた場合よりも高い精度が得られる。
さらに、MF-EnKFは同じ計算予算内で精度が向上した。
MLサロゲートは低解像度のサロゲートと似ているか改善されているが、より大きなスピードアップを提供できる。
本手法は,EnKFにおける有効アンサンブルサイズの増大に寄与し,初期状態の推定が向上し,気象学や海洋学などの分野における予測精度が向上する。
関連論文リスト
- Investigating Data Hierarchies in Multifidelity Machine Learning for Excitation Energies [0.0]
本研究では,QeMFiベンチマークを用いた鉛直励起エネルギー予測におけるモデル効率と精度に対する$gamma$の修正の影響について検討した。
MFMLの新たな誤差距離、誤差輪郭は、各忠実度からのモデル誤差寄与の包括的ビューを提供するために提案される。
実験結果から, 対象忠実度が低い場合, 目標忠実度において2つのトレーニングサンプルのみを用いて, モデル精度を向上できることが示唆された。
論文 参考訳(メタデータ) (2024-10-15T08:35:00Z) - A Multi-Grained Symmetric Differential Equation Model for Learning Protein-Ligand Binding Dynamics [73.35846234413611]
薬物発見において、分子動力学(MD)シミュレーションは、結合親和性を予測し、輸送特性を推定し、ポケットサイトを探索する強力なツールを提供する。
我々は,数値MDを容易にし,タンパク質-リガンド結合ダイナミクスの正確なシミュレーションを提供する,最初の機械学習サロゲートであるNeuralMDを提案する。
従来の数値MDシミュレーションと比較して1K$times$ Speedupを実現することにより,NeuralMDの有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-01-26T09:35:17Z) - Variational Monte Carlo on a Budget -- Fine-tuning pre-trained Neural
Wavefunctions [5.145741425164946]
深層学習に基づく変分モンテカルロ(DL-VMC)は、最近、精度の点で従来の手法よりも優れているが、計算コストが大きい。
本稿では,大規模かつ化学的に多様な分子集合上での自己教師付き波動関数最適化を用いたDL-VMCモデルを提案する。
このモデルを最適化せずに新しい分子に適用すると、波動関数や絶対エネルギーが得られ、CCSD(T)-2Zのような確立された手法よりも優れる。
論文 参考訳(メタデータ) (2023-07-15T09:56:22Z) - A novel corrective-source term approach to modeling unknown physics in
aluminum extraction process [0.5257115841810257]
本研究では,データ駆動モデルを用いて物理モデルの不特定性を補正する補正元項アプローチ(CoSTA)について検討する。
これにより、基礎となる物理が十分に理解されていない場合でも、正確な予測を行うモデルを開発することができる。
本手法は精度と予測安定性を両立させ,総合的に信頼性の高いモデルが得られることを示した。
論文 参考訳(メタデータ) (2022-09-22T08:45:50Z) - Model soups: averaging weights of multiple fine-tuned models improves
accuracy without increasing inference time [69.7693300927423]
複数モデルの重み付けを異なるパラメータ構成で微調整することにより,精度とロバスト性が向上することを示す。
モデルスープ手法は,複数の画像分類や自然言語処理タスクにまで拡張されている。
論文 参考訳(メタデータ) (2022-03-10T17:03:49Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。