論文の概要: On the Calibration of Epistemic Uncertainty: Principles, Paradoxes and Conflictual Loss
- arxiv url: http://arxiv.org/abs/2407.12211v1
- Date: Tue, 16 Jul 2024 23:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:58:45.412186
- Title: On the Calibration of Epistemic Uncertainty: Principles, Paradoxes and Conflictual Loss
- Title(参考訳): 疫学不確かさの校正について--原理・パラドックス・紛争損失
- Authors: Mohammed Fellaji, Frédéric Pennerath, Brieuc Conan-Guez, Miguel Couceiro,
- Abstract要約: 証拠不確実性は、Deep Ensembles、Bayesian Deep Networks、Evidential Deep Networksによって生成される。
測定可能ではあるが、この形の不確実性は客観的に校正することは困難である。
以上の要件に則った競合損失という,深層アンサンブルの正規化関数を提案する。
- 参考スコア(独自算出の注目度): 3.8248583585487155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The calibration of predictive distributions has been widely studied in deep learning, but the same cannot be said about the more specific epistemic uncertainty as produced by Deep Ensembles, Bayesian Deep Networks, or Evidential Deep Networks. Although measurable, this form of uncertainty is difficult to calibrate on an objective basis as it depends on the prior for which a variety of choices exist. Nevertheless, epistemic uncertainty must in all cases satisfy two formal requirements: first, it must decrease when the training dataset gets larger and, second, it must increase when the model expressiveness grows. Despite these expectations, our experimental study shows that on several reference datasets and models, measures of epistemic uncertainty violate these requirements, sometimes presenting trends completely opposite to those expected. These paradoxes between expectation and reality raise the question of the true utility of epistemic uncertainty as estimated by these models. A formal argument suggests that this disagreement is due to a poor approximation of the posterior distribution rather than to a flaw in the measure itself. Based on this observation, we propose a regularization function for deep ensembles, called conflictual loss in line with the above requirements. We emphasize its strengths by showing experimentally that it restores both requirements of epistemic uncertainty, without sacrificing either the performance or the calibration of the deep ensembles.
- Abstract(参考訳): 予測分布の校正は、ディープラーニングにおいて広く研究されてきたが、Deep Ensembles、Bayesian Deep Networks、Evidential Deep Networksによって生み出されたより具体的な疫学的な不確実性については、同じことは言えない。
測定可能ではあるが、この不確実性は、様々な選択肢が存在する事前に依存するため、客観的に校正することは困難である。
それにもかかわらず、すべてのケースにおいて、疫学的不確実性は2つの形式的要件を満たす必要がある: 第一に、トレーニングデータセットが大きくなると減少し、第二に、モデル表現性が大きくなると増大しなければならない。
これらの期待にもかかわらず、いくつかの基準データセットやモデルにおいて、疫学的不確実性の尺度がこれらの要件に違反し、時には予想とは全く逆の傾向を示すことが実験的に示されている。
これらの期待と現実の間のパラドックスは、これらのモデルによって推定されるてんかんの不確実性の真の有用性に関する疑問を提起する。
公式な議論は、この不一致は測度自体の欠陥ではなく、後部分布の近似が不十分なためであることを示している。
そこで本研究では,これらの要求に則った競合損失という,深層アンサンブルの正規化関数を提案する。
我々は,深層アンサンブルの性能や校正を犠牲にすることなく,疫学的不確実性の要件の双方を修復できることを実験的に示すことで,その強度を強調した。
関連論文リスト
- (Implicit) Ensembles of Ensembles: Epistemic Uncertainty Collapse in Large Models [3.0539022029583953]
疫学的な不確実性は、安全クリティカルなアプリケーションとアウト・オブ・ディストリビューション検出タスクに不可欠である。
深層学習モデルのパラドックス現象を明らかにする。
論文 参考訳(メタデータ) (2024-09-04T11:45:55Z) - The Epistemic Uncertainty Hole: an issue of Bayesian Neural Networks [0.6906005491572401]
モデルのサイズとトレーニングセットのサイズに関する「最新の不確実性指標」の進化は、理論的な期待に反することを示します。
と呼ぶこの現象は、BDLの適用可能性全体を損なうというよりは、より問題となる。
論文 参考訳(メタデータ) (2024-07-02T06:54:46Z) - Quantification of Uncertainty with Adversarial Models [6.772632213236167]
不確実性の定量化は、現実のアプリケーションにおいて実行可能な予測にとって重要である。
逆数モデル(QUAM)による不確かさの定量化を提案する。
QUAM は積分の下にある積全体が大きい領域を識別する。
論文 参考訳(メタデータ) (2023-07-06T17:56:10Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Monotonicity and Double Descent in Uncertainty Estimation with Gaussian
Processes [52.92110730286403]
限界確率はクロスバリデーションの指標を思い起こさせるべきであり、どちらもより大きな入力次元で劣化すべきである、と一般的に信じられている。
我々は,ハイパーパラメータをチューニングすることにより,入力次元と単調に改善できることを証明した。
また、クロスバリデーションの指標は、二重降下の特徴である質的に異なる挙動を示すことも証明した。
論文 参考訳(メタデータ) (2022-10-14T08:09:33Z) - Uncertainty Quantification for Traffic Forecasting: A Unified Approach [21.556559649467328]
不確実性は時系列予測タスクに不可欠な考慮事項である。
本研究では,交通予測の不確かさの定量化に焦点をあてる。
STUQ(Deep S-Temporal Uncertainity Quantification)を開発した。
論文 参考訳(メタデータ) (2022-08-11T15:21:53Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。