論文の概要: Improving the Reliability for Confidence Estimation
- arxiv url: http://arxiv.org/abs/2210.06776v1
- Date: Thu, 13 Oct 2022 06:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:18:33.670749
- Title: Improving the Reliability for Confidence Estimation
- Title(参考訳): 信頼度推定の信頼性向上
- Authors: Haoxuan Qu, Yanchao Li, Lin Geng Foo, Jason Kuen, Jiuxiang Gu, Jun Liu
- Abstract要約: 信頼度推定は、デプロイ中のモデルの予測出力の信頼性を評価することを目的としたタスクである。
これまでの研究は、信頼度推定モデルが持つべき2つの重要な特性を概説してきた。
信頼度推定モデルにおいて、両方の品質を同時に改善できるメタラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.952133489480776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Confidence estimation, a task that aims to evaluate the trustworthiness of
the model's prediction output during deployment, has received lots of research
attention recently, due to its importance for the safe deployment of deep
models. Previous works have outlined two important qualities that a reliable
confidence estimation model should possess, i.e., the ability to perform well
under label imbalance and the ability to handle various out-of-distribution
data inputs. In this work, we propose a meta-learning framework that can
simultaneously improve upon both qualities in a confidence estimation model.
Specifically, we first construct virtual training and testing sets with some
intentionally designed distribution differences between them. Our framework
then uses the constructed sets to train the confidence estimation model through
a virtual training and testing scheme leading it to learn knowledge that
generalizes to diverse distributions. We show the effectiveness of our
framework on both monocular depth estimation and image classification.
- Abstract(参考訳): デプロイメント時のモデルの予測アウトプットの信頼性を評価することを目的としたタスクである信頼度推定は、深層モデルの安全なデプロイの重要性から、近年多くの研究の注目を集めている。
以前の研究では、信頼性の高い信頼度推定モデルが保持すべき2つの重要な性質、すなわちラベルの不均衡下でうまく実行する能力と、さまざまな分散データ入力を処理する能力について概説している。
本研究では,信頼度推定モデルにおいて,両方の品質を同時に向上できるメタラーニングフレームワークを提案する。
具体的には,まず仮想トレーニングとテストセットを構築し,それら間の分散を意図的に設計した。
このフレームワークは構築された集合を用いて、仮想的なトレーニングとテストスキームを通じて信頼度推定モデルを訓練し、多様な分布に一般化する知識を学習する。
単眼深度推定と画像分類におけるフレームワークの有効性を示す。
関連論文リスト
- Confidence Under the Hood: An Investigation into the Confidence-Probability Alignment in Large Language Models [14.5291643644017]
信頼性・確率アライメントの概念を紹介します。
モデルの内部と信頼感の一致を調査する。
分析したモデルのうち、OpenAIのGPT-4は信頼性と信頼性のアライメントが最強であった。
論文 参考訳(メタデータ) (2024-05-25T15:42:04Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Uncertainty-sensitive Activity Recognition: a Reliability Benchmark and
the CARING Models [37.60817779613977]
本稿では,現代の行動認識アーキテクチャの信頼度が,正しい結果の確率を反映していることを示す最初の研究を行う。
新たなキャリブレーションネットワークを通じて、モデル出力を現実的な信頼性推定に変換する新しいアプローチを紹介します。
論文 参考訳(メタデータ) (2021-01-02T15:41:21Z) - Confidence Estimation via Auxiliary Models [47.08749569008467]
モデル信頼のための新しいターゲット基準、すなわち真のクラス確率(TCP)を紹介します。
標準最大クラス確率 (MCP) よりも TCP が信頼度推定に優れた特性を提供することを示す。
論文 参考訳(メタデータ) (2020-12-11T17:21:12Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。