論文の概要: A Cautionary Tale of Decorrelating Theory Uncertainties
- arxiv url: http://arxiv.org/abs/2109.08159v1
- Date: Thu, 16 Sep 2021 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 08:57:11.245635
- Title: A Cautionary Tale of Decorrelating Theory Uncertainties
- Title(参考訳): 矛盾した理論の不確かさの注意物語
- Authors: Aishik Ghosh and Benjamin Nachman
- Abstract要約: 与えられた特徴に依存しない機械学習分類器を訓練する技術について議論する。
統計的起源を持たない理論の不確実性について検討する。
本稿では,2点(フラグメンテーション・モデリング)と連続(高次補正)の不確実性の明確な例を示す。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A variety of techniques have been proposed to train machine learning
classifiers that are independent of a given feature. While this can be an
essential technique for enabling background estimation, it may also be useful
for reducing uncertainties. We carefully examine theory uncertainties, which
typically do not have a statistical origin. We will provide explicit examples
of two-point (fragmentation modeling) and continuous (higher-order corrections)
uncertainties where decorrelating significantly reduces the apparent
uncertainty while the actual uncertainty is much larger. These results suggest
that caution should be taken when using decorrelation for these types of
uncertainties as long as we do not have a complete decomposition into
statistically meaningful components.
- Abstract(参考訳): 与えられた特徴に依存しない機械学習分類器を訓練するための様々な技術が提案されている。
これは背景推定を可能にするために不可欠な技術であるが、不確実性を減らすのにも役立つかもしれない。
統計的起源を持たない理論の不確実性について慎重に検討する。
2点(フラグメンテーション・モデリング)と連続的(高階修正)の不確かさの明示的な例を提供し、この不確実性は実際の不確実性がはるかに大きい間に明らかな不確実性を大幅に減少させる。
これらの結果は,統計的に有意な成分への完全分解がなければ,これらの不確実性に対してデコレーションを用いることには注意が必要であることを示唆している。
関連論文リスト
- One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - A Data-Driven Measure of Relative Uncertainty for Misclassification
Detection [25.947610541430013]
誤分類検出のための観測者に対して,不確実性に関するデータ駆動測度を導入する。
ソフト予測の分布パターンを学習することにより,不確実性を測定することができる。
複数の画像分類タスクに対する経験的改善を示し、最先端の誤分類検出方法より優れていることを示す。
論文 参考訳(メタデータ) (2023-06-02T17:32:03Z) - Uncertainty Estimates of Predictions via a General Bias-Variance
Decomposition [7.811916700683125]
本稿では,適切なスコアに対するバイアス分散分解を導入し,分散項としてブレグマン情報を導出する。
モデルアンサンブルや信頼領域を含む下流タスクにおけるこの分解の実践的妥当性を示す。
論文 参考訳(メタデータ) (2022-10-21T21:24:37Z) - On the Difficulty of Epistemic Uncertainty Quantification in Machine
Learning: The Case of Direct Uncertainty Estimation through Loss Minimisation [8.298716599039501]
不確かさの定量化は機械学習で注目を集めている。
後者は学習者の知識(知識の欠如)を指し、特に測定と定量化が難しいようである。
損失最小化は2次予測器では有効でないことを示す。
論文 参考訳(メタデータ) (2022-03-11T17:26:05Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Multi-label Chaining with Imprecise Probabilities [0.0]
本稿では,古典的マルチラベル連鎖法を拡張し,不正確な確率推定を行うための2つの戦略を提案する。
このような推定に利用できる主な理由は、(1)連鎖において高い不確実性が検出された場合に慎重な予測を行うこと、(2)連鎖の初期決定におけるバイアスを回避し、より正確な予測を行うことである。
両手法の信頼性を検証したラベルの欠落に関する実験結果から,精度の高いモデルが故障した場合の予測が困難である事例に対して,本手法が関連する注意を喚起することを示す。
論文 参考訳(メタデータ) (2021-07-15T16:43:31Z) - Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals [27.569681578957645]
深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
論文 参考訳(メタデータ) (2021-04-27T02:58:20Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Don't Just Blame Over-parametrization for Over-confidence: Theoretical
Analysis of Calibration in Binary Classification [58.03725169462616]
理論上は、過剰パラメトリゼーションは過剰信頼の唯一の理由ではない。
我々は、ロジスティック回帰は本質的に信頼過剰であり、実現可能で、非パラメータな設定であることを示す。
おそらく驚くことに、過剰な信頼が常にそうであるとは限らないことも示します。
論文 参考訳(メタデータ) (2021-02-15T21:38:09Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。