論文の概要: Energy-Based Open-World Uncertainty Modeling for Confidence Calibration
- arxiv url: http://arxiv.org/abs/2107.12628v1
- Date: Tue, 27 Jul 2021 06:52:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 23:42:16.333072
- Title: Energy-Based Open-World Uncertainty Modeling for Confidence Calibration
- Title(参考訳): 信頼度校正のためのエネルギーベースオープンワールド不確実性モデリング
- Authors: Yezhen Wang, Bo Li, Tong Che, Kaiyang Zhou, Dongsheng Li, Ziwei Liu
- Abstract要約: エネルギーベースのOpen-World Softmax(EOW-Softmax)は、信頼性校正を改善する既存の最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 27.415700052977925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Confidence calibration is of great importance to the reliability of decisions
made by machine learning systems. However, discriminative classifiers based on
deep neural networks are often criticized for producing overconfident
predictions that fail to reflect the true correctness likelihood of
classification accuracy. We argue that such an inability to model uncertainty
is mainly caused by the closed-world nature in softmax: a model trained by the
cross-entropy loss will be forced to classify input into one of $K$ pre-defined
categories with high probability. To address this problem, we for the first
time propose a novel $K$+1-way softmax formulation, which incorporates the
modeling of open-world uncertainty as the extra dimension. To unify the
learning of the original $K$-way classification task and the extra dimension
that models uncertainty, we propose a novel energy-based objective function,
and moreover, theoretically prove that optimizing such an objective essentially
forces the extra dimension to capture the marginal data distribution. Extensive
experiments show that our approach, Energy-based Open-World Softmax
(EOW-Softmax), is superior to existing state-of-the-art methods in improving
confidence calibration.
- Abstract(参考訳): 信頼性校正は、機械学習システムによる決定の信頼性において非常に重要である。
しかし、ディープニューラルネットワークに基づく識別的分類器は、分類精度の真の正しさの可能性を反映しない過信予測を生成するためにしばしば批判される。
このような不確実性をモデル化できないのは、softmaxのクローズドワールドの性質に主に起因していると主張する: クロスエントロピー損失によって訓練されたモデルは、高い確率で、入力を$k$事前定義されたカテゴリの1つに分類しなければならない。
この問題に対処するために、我々は初めてオープンワールドの不確実性のモデリングを余剰次元として組み込んだ新しい$k$+1-way softmax定式法を提案する。
従来の$K$-wayの分類課題の学習と不確実性をモデル化する余剰次元を統一するために、我々は新しいエネルギーベースの目的関数を提案し、さらに、そのような目的を最適化することが本質的に余剰次元に限界データ分布を捕捉させることを理論的に証明する。
EOW-Softmax (Energy-based Open-World Softmax) は, 従来の信頼性校正手法よりも優れていることを示す。
関連論文リスト
- Integrating uncertainty quantification into randomized smoothing based robustness guarantees [18.572496359670797]
ディープニューラルネットワークは、安全クリティカルなアプリケーションにおいて有害な誤った予測を引き起こす可能性のある敵攻撃に対して脆弱である。
ランダムな滑らか化による認証されたロバスト性は、スムーズ化された分類器の予測が与えられた入力の周りの$ell$-ball内では変化しないという確率的保証を与える。
不確実性に基づく拒絶は、しばしば敵の攻撃からモデルを守るために実践的に適用される技法である。
新たなフレームワークは,ネットワークアーキテクチャや不確実性評価の体系的な評価を可能にすることを実証する。
論文 参考訳(メタデータ) (2024-10-27T13:07:43Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
大規模実験により, 提案手法は, 最先端の深層クラスタリング手法を10倍に越えるだけでなく, クラスタリング精度も大幅に向上した。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Uncertainty Estimation for Safety-critical Scene Segmentation via
Fine-grained Reward Maximization [12.79542334840646]
不確実性推定は、安全クリティカルなシナリオにおけるディープセグメンテーションモデルの将来の信頼性の高い展開において重要な役割を果たす。
本研究では,不確実性推定に対処する新たな微粒化報酬(FGRM)フレームワークを提案する。
本手法は,不確実性推定のキャリブレーション指標のすべてに対して,最先端の手法よりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2023-11-05T17:43:37Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - On Uncertainty Calibration and Selective Generation in Probabilistic
Neural Summarization: A Benchmark Study [14.041071717005362]
要約のための最新のディープモデルは、優れたベンチマーク性能を得るが、誤校正された予測の不確実性を生成する傾向にある。
これは、低品質の予測に高い信頼性を割り当て、現実世界のアプリケーションにおける信頼性と信頼性を損なうことを意味する。
確率的深層学習法は誤校正問題の一般的な解法であるが, 複雑な自己回帰的要約タスクにおける相対的有効性はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-17T23:06:28Z) - Reliable Multimodal Trajectory Prediction via Error Aligned Uncertainty
Optimization [11.456242421204298]
よく校正されたモデルでは、不確実性推定はモデル誤差と完全に相関する。
本稿では,モデル誤差に整合した品質不確実性推定を導出するための,新しい誤差整合不確実性最適化手法を提案する。
本研究では, 平均変位誤差を1.69%, 4.69%, モデル誤差との不確実性相関を17.22%, 19.13%, ピアソン相関係数で定量化することにより, 平均変位誤差を1.69%, 4.69%改善することを示した。
論文 参考訳(メタデータ) (2022-12-09T12:33:26Z) - $f$-Cal: Calibrated aleatoric uncertainty estimation from neural
networks for robot perception [9.425514903472545]
既存のアプローチでは、ネットワークアーキテクチャ、推論手順、損失関数を変更することで、ニューラルネットワークの知覚スタックから不確実性を推定する。
私たちの重要な洞察は、キャリブレーションはミニバッチのような複数の例に制約を課すことでのみ達成できるということです。
ニューラルネットワークの出力分布を、$f$-divergenceを最小にすることで、ターゲット分布に類似させることにより、従来のアプローチに比べてはるかに優れた校正モデルが得られる。
論文 参考訳(メタデータ) (2021-09-28T17:57:58Z) - Approaching Neural Network Uncertainty Realism [53.308409014122816]
自動運転車などの安全クリティカルなシステムには、定量化または少なくとも上限の不確実性が不可欠です。
マハラノビス距離に基づく統計的テストにより、厳しい品質基準である不確実性リアリズムを評価します。
自動車分野に採用し、プレーンエンコーダデコーダモデルと比較して、不確実性リアリズムを大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-01-08T11:56:12Z) - Providing reliability in Recommender Systems through Bernoulli Matrix
Factorization [63.732639864601914]
本稿では,予測値と信頼性値の両方を提供するためにBernoulli Matrix Factorization (BeMF)を提案する。
BeMFはメモリベースのフィルタリングではなく、モデルベースの協調フィルタリングに作用する。
予測の信頼性が高ければ高いほど、それが間違っているという責任は少なくなる。
論文 参考訳(メタデータ) (2020-06-05T14:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。