論文の概要: System-Level Uncertainty Quantification with Multiple Machine Learning Models: A Theoretical Framework
- arxiv url: http://arxiv.org/abs/2509.16663v1
- Date: Sat, 20 Sep 2025 12:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.912663
- Title: System-Level Uncertainty Quantification with Multiple Machine Learning Models: A Theoretical Framework
- Title(参考訳): 複数の機械学習モデルを用いたシステムレベル不確かさの定量化:理論的枠組み
- Authors: Xiaoping Du,
- Abstract要約: 複数のMLモデルが同じトレーニングポイントを使用してトレーニングされる場合、それらのモデルの不確実性は統計的に依存する可能性がある。
実際、モデル入力は入力の不確実性とともにランダムである。
本研究では,複数のML予測の連立分布を生成する理論的枠組みを開発する。
- 参考スコア(独自算出の注目度): 1.1083514956613383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ML models have errors when used for predictions. The errors are unknown but can be quantified by model uncertainty. When multiple ML models are trained using the same training points, their model uncertainties may be statistically dependent. In reality, model inputs are also random with input uncertainty. The effects of these types of uncertainty must be considered in decision-making and design. This study develops a theoretical framework that generates the joint distribution of multiple ML predictions given the joint distribution of model uncertainties and the joint distribution of model inputs. The strategy is to decouple the coupling between the two types of uncertainty and transform them as independent random variables. The framework lays a foundation for numerical algorithm development for various specific applications.
- Abstract(参考訳): MLモデルは予測に使用するとエラーが発生する。
誤りは不明だが、モデルの不確実性によって定量化することができる。
複数のMLモデルが同じトレーニングポイントを使用してトレーニングされる場合、それらのモデルの不確実性は統計的に依存する可能性がある。
実際、モデル入力は入力の不確実性とともにランダムである。
これらのタイプの不確実性の影響は、意思決定と設計において考慮されなければならない。
本研究では,モデル不確実性の連成分布とモデル入力の連成分布から複数のML予測の連成分布を生成する理論的枠組みを開発する。
その戦略は、二つのタイプの不確実性の間の結合を分離し、それらを独立した確率変数として変換することである。
このフレームワークは、様々な特定のアプリケーションのための数値アルゴリズム開発の基礎を成している。
関連論文リスト
- Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - How to Combine Variational Bayesian Networks in Federated Learning [0.0]
フェデレートラーニングにより、複数のデータセンターが機密データを公開することなく、協力的に中央モデルをトレーニングできる。
決定論的モデルは高い予測精度を達成することができ、キャリブレーションの欠如と不確実性を定量化する能力は、安全クリティカルなアプリケーションには問題となる。
変分ベイズニューラルネットワークに対する様々なアグリゲーションスキームの効果について検討する。
論文 参考訳(メタデータ) (2022-06-22T07:53:12Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z) - Considering discrepancy when calibrating a mechanistic electrophysiology
model [41.77362715012383]
不確実性定量化(英: Uncertainty Quantification、UQ)は、数学的モデルとシミュレーションを用いて決定を行うための重要なステップである。
この記事では、モデル構造や方程式自体における不確実性という、我々の予測における重要かつ未適応な不確実性の源に注意を向ける。
論文 参考訳(メタデータ) (2020-01-13T13:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。