論文の概要: Model aggregation: minimizing empirical variance outperforms minimizing
empirical error
- arxiv url: http://arxiv.org/abs/2409.17267v1
- Date: Wed, 25 Sep 2024 18:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:52:34.773913
- Title: Model aggregation: minimizing empirical variance outperforms minimizing
empirical error
- Title(参考訳): モデルアグリゲーション:経験的分散の最小化と最小化
empirical + -al
- Authors: Th\'eo Bourdais and Houman Owhadi
- Abstract要約: 多様なモデルからの予測を単一のより正確な出力に集約する,データ駆動型フレームワークを提案する。
モデルはブラックボックス関数として扱う、モデルに依存しない、最小限の仮定を必要とする、広範囲のモデルからの出力を組み合わせることができる。
従来の解法と機械学習モデルをうまく統合して、堅牢性と精度の両方を改善する方法を示す。
- 参考スコア(独自算出の注目度): 0.29008108937701327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whether deterministic or stochastic, models can be viewed as functions
designed to approximate a specific quantity of interest. We propose a
data-driven framework that aggregates predictions from diverse models into a
single, more accurate output. This aggregation approach exploits each model's
strengths to enhance overall accuracy. It is non-intrusive - treating models as
black-box functions - model-agnostic, requires minimal assumptions, and can
combine outputs from a wide range of models, including those from machine
learning and numerical solvers. We argue that the aggregation process should be
point-wise linear and propose two methods to find an optimal aggregate: Minimal
Error Aggregation (MEA), which minimizes the aggregate's prediction error, and
Minimal Variance Aggregation (MVA), which minimizes its variance. While MEA is
inherently more accurate when correlations between models and the target
quantity are perfectly known, Minimal Empirical Variance Aggregation (MEVA), an
empirical version of MVA - consistently outperforms Minimal Empirical Error
Aggregation (MEEA), the empirical counterpart of MEA, when these correlations
must be estimated from data. The key difference is that MEVA constructs an
aggregate by estimating model errors, while MEEA treats the models as features
for direct interpolation of the quantity of interest. This makes MEEA more
susceptible to overfitting and poor generalization, where the aggregate may
underperform individual models during testing. We demonstrate the versatility
and effectiveness of our framework in various applications, such as data
science and partial differential equations, showing how it successfully
integrates traditional solvers with machine learning models to improve both
robustness and accuracy.
- Abstract(参考訳): 決定論的でも確率的でも、モデルは特定の量の興味を近似するように設計された関数と見なすことができる。
多様なモデルからの予測を単一のより正確な出力に集約する,データ駆動型フレームワークを提案する。
このアグリゲーションアプローチは、各モデルの強度を利用して全体的な精度を高める。
モデルはブラックボックス関数として扱う、モデルに依存しない、最小限の仮定を必要とし、機械学習や数値解法など、幅広いモデルの出力を組み合わせることができる。
集約プロセスは点次線形であるべきであり,その分散を最小化する最小誤差集約(MEA)と最小変数集約(MVA)の2つの手法を提案する。
MEAは、モデルと対象量の相関関係が完全に知られている場合、本質的にはより正確であるが、MVAの実証版であるMEVA(Minimmal Empirical Variance Aggregation)は、データからこれらの相関を推定する必要がある場合、MEEAの実証版であるMEEA(Minimmal Empirical Error Aggregation)より一貫して優れている。
重要な違いは、MEVAがモデルエラーを推定して集約を構築するのに対して、MEEAは関心の量を直接補間するための特徴としてモデルを扱います。
これにより、MEEAはオーバーフィッティングや一般化の貧弱さにより敏感になり、アグリゲーションはテスト中に個々のモデルを過小評価する可能性がある。
データサイエンスや偏微分方程式などの様々な応用におけるフレームワークの汎用性と有効性を示し、従来の解法を機械学習モデルとうまく統合し、堅牢性と精度を両立させる方法を示した。
関連論文リスト
- EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Towards Understanding Variants of Invariant Risk Minimization through the Lens of Calibration [0.6906005491572401]
本稿では,Information BottleneckをベースとしたITMが,異なる環境における一貫したキャリブレーションを実現することを示す。
私たちの経験的証拠は、環境全体にわたって一貫した校正を示すモデルも十分に校正されていることを示している。
論文 参考訳(メタデータ) (2024-01-31T02:08:43Z) - Maintaining Stability and Plasticity for Predictive Churn Reduction [8.971668467496055]
我々は,累積モデル組合せ (AMC) という解を提案する。
AMCは一般的な手法であり、モデルやデータ特性に応じてそれぞれ独自の利点を持ついくつかの事例を提案する。
論文 参考訳(メタデータ) (2023-05-06T20:56:20Z) - A prediction and behavioural analysis of machine learning methods for
modelling travel mode choice [0.26249027950824505]
我々は、モデル選択に影響を及ぼす可能性のある重要な要因の観点から、複数のモデリング問題に対して異なるモデリングアプローチを体系的に比較する。
その結果,非凝集性予測性能が最も高いモデルでは,行動指標やアグリゲーションモードのシェアが低下することが示唆された。
MNLモデルは様々な状況において堅牢に機能するが、ML手法はWillingness to Payのような行動指標の推定を改善することができる。
論文 参考訳(メタデータ) (2023-01-11T11:10:32Z) - Building Robust Machine Learning Models for Small Chemical Science Data:
The Case of Shear Viscosity [3.4761212729163313]
我々はLennard-Jones (LJ)流体のせん断粘度を予測するために、いくつかの機械学習モデルを訓練する。
具体的には,モデル選択,性能評価,不確実性定量化に関する課題について検討した。
論文 参考訳(メタデータ) (2022-08-23T07:33:14Z) - Optimal Model Averaging: Towards Personalized Collaborative Learning [0.0]
連合学習では、参加ノード間のデータや目的の違いが、各ノードに対してパーソナライズされた機械学習モデルをトレーニングするためのアプローチを動機付けている。
そのようなアプローチの1つは、局所的に訓練されたモデルとグローバルモデルの間の重み付き平均化である。
局所モデルと比較して予測される2乗誤差を減少させるモデル平均化の正の量が常に存在することがわかった。
論文 参考訳(メタデータ) (2021-10-25T13:33:20Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。