論文の概要: Quantifying Aleatoric and Epistemic Uncertainty in Machine Learning: Are
Conditional Entropy and Mutual Information Appropriate Measures?
- arxiv url: http://arxiv.org/abs/2209.03302v2
- Date: Sun, 25 Jun 2023 09:49:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 00:58:42.629698
- Title: Quantifying Aleatoric and Epistemic Uncertainty in Machine Learning: Are
Conditional Entropy and Mutual Information Appropriate Measures?
- Title(参考訳): 機械学習におけるアレタリックおよびエピステミック不確かさの定量化:条件付きエントロピーと相互情報適切な対策か?
- Authors: Lisa Wimmer and Yusuf Sale and Paul Hofman and Bern Bischl and Eyke
H\"ullermeier
- Abstract要約: 条件エントロピーと相互情報の観点から、アレタリックおよびてんかんの不確実性を定量化する。
我々はその適切さを疑問視する様々な不整合を識別する。
コンピュータビジョンタスクの異なる実験は、理論的な発見を支援する。
- 参考スコア(独自算出の注目度): 2.1655448059430222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quantification of aleatoric and epistemic uncertainty in terms of
conditional entropy and mutual information, respectively, has recently become
quite common in machine learning. While the properties of these measures, which
are rooted in information theory, seem appealing at first glance, we identify
various incoherencies that call their appropriateness into question. In
addition to the measures themselves, we critically discuss the idea of an
additive decomposition of total uncertainty into its aleatoric and epistemic
constituents. Experiments across different computer vision tasks support our
theoretical findings and raise concerns about current practice in uncertainty
quantification.
- Abstract(参考訳): コンディションエントロピーと相互情報の両面でのアレタリック不確実性の定量化は,近年,機械学習において極めて一般的になっている。
情報理論に根ざしたこれらの尺度の特性は一見すると魅力的に思えるが、その妥当性を疑問視する様々な不整合を識別する。
尺度自体に加えて,全不確かさの加法分解をアレエータ成分と認識成分に加法分解するという考え方を批判的に論じる。
コンピュータビジョンタスクの異なる実験は、我々の理論的発見を支援し、不確実性定量化における現在の実践に関する懸念を提起する。
関連論文リスト
- Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - To Believe or Not to Believe Your LLM [51.2579827761899]
大規模言語モデル(LLM)における不確実性定量化について検討する。
疫学的な不確実性が大きい場合にのみ確実に検出できる情報理論の指標を導出する。
定式化の利点を実証する一連の実験を行う。
論文 参考訳(メタデータ) (2024-06-04T17:58:18Z) - Is the Volume of a Credal Set a Good Measure for Epistemic Uncertainty? [2.658812114255374]
不確実性対策は様々な分野、特に機械学習や知性において欠かせないものとなっている。
不確実性の尺度の代替として、クレダル集合を考える。
干潟集合は分類において有意義な不確実性尺度であるが,多クラス分類ではそうでないことを示す。
論文 参考訳(メタデータ) (2023-06-16T02:17:45Z) - Sources of Uncertainty in Machine Learning -- A Statisticians' View [3.1498833540989413]
本論文は,機械学習に関連する2種類の不確実性について定式化することを目的とする。
機械学習における統計的概念と不確実性の間の類似性を引き合いに出し、データの役割とその不確実性への影響を実証する。
論文 参考訳(メタデータ) (2023-05-26T07:44:19Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Disturbance Enhanced Uncertainty Relations [2.075038010521211]
1つの測定値がその後の測定値に乱れを生じさせることで,不確実性が低下することを示す。
得られた関係は外乱強化不確実性関係と呼ばれ、直ちに量子情報の分野における様々な応用を見出す。
我々は、この新たな不確実性原理のツイストが量子基盤に新たな光を与え、量子情報分野のさらなる応用を刺激するかもしれないと予測している。
論文 参考訳(メタデータ) (2022-02-15T08:37:24Z) - Ensemble-based Uncertainty Quantification: Bayesian versus Credal
Inference [0.0]
我々は、不確実性定量化に対するアンサンブルに基づくアプローチを検討する。
具体的には,いわゆる干潟集合に基づくベイズ的手法とアプローチに着目する。
拒否オプションを用いた分類に関する実証的研究において, 対応する尺度の有効性を評価し, 比較した。
論文 参考訳(メタデータ) (2021-07-21T22:47:24Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Uncertainty Quantification in Extreme Learning Machine: Analytical
Developments, Variance Estimates and Confidence Intervals [0.0]
不確かさの定量化は、機械学習モデルの予測品質を評価するために不可欠である。
文献で提案されるほとんどの手法は、データに対して強い仮定を行い、入力重みのランダム性を無視したり、信頼区間推定におけるバイアス寄与を無視したりする。
本稿では,これらの制約を克服し,EMMの多様性の理解を向上させる新しい推定法を提案する。
論文 参考訳(メタデータ) (2020-11-03T13:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。