論文の概要: Birds of a Feather Trust Together: Knowing When to Trust a Classifier
via Adaptive Neighborhood Aggregation
- arxiv url: http://arxiv.org/abs/2211.16466v1
- Date: Tue, 29 Nov 2022 18:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 14:34:04.786244
- Title: Birds of a Feather Trust Together: Knowing When to Trust a Classifier
via Adaptive Neighborhood Aggregation
- Title(参考訳): フェザートラストの鳥たち:適応的近隣集合による分類器の信頼の時を知る
- Authors: Miao Xiong, Shen Li, Wenjie Feng, Ailin Deng, Jihai Zhang, Bryan Hooi
- Abstract要約: 我々は、NeighborAggがアダプティブ近隣アグリゲーションを介して2つの重要な情報を利用する方法を示す。
また, 誤り検出の密接な関連課題へのアプローチを拡張し, 偽陰性境界に対する理論的カバレッジを保証する。
- 参考スコア(独自算出の注目度): 30.34223543030105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How do we know when the predictions made by a classifier can be trusted? This
is a fundamental problem that also has immense practical applicability,
especially in safety-critical areas such as medicine and autonomous driving.
The de facto approach of using the classifier's softmax outputs as a proxy for
trustworthiness suffers from the over-confidence issue; while the most recent
works incur problems such as additional retraining cost and accuracy versus
trustworthiness trade-off. In this work, we argue that the trustworthiness of a
classifier's prediction for a sample is highly associated with two factors: the
sample's neighborhood information and the classifier's output. To combine the
best of both worlds, we design a model-agnostic post-hoc approach NeighborAgg
to leverage the two essential information via an adaptive neighborhood
aggregation. Theoretically, we show that NeighborAgg is a generalized version
of a one-hop graph convolutional network, inheriting the powerful modeling
ability to capture the varying similarity between samples within each class. We
also extend our approach to the closely related task of mislabel detection and
provide a theoretical coverage guarantee to bound the false negative.
Empirically, extensive experiments on image and tabular benchmarks verify our
theory and suggest that NeighborAgg outperforms other methods, achieving
state-of-the-art trustworthiness performance.
- Abstract(参考訳): 分類器による予測がいつ信頼できるのか、どうやってわかるのか?
これは、特に医療や自動運転といった安全上重要な分野において、非常に実用的な適用性を持つ基本的な問題である。
分類器のソフトマックス出力を信頼性の代理人として使用するというデファクトなアプローチは、信頼性の過剰な問題に苦しめられている。
本研究では,サンプルに対する分類器の予測の信頼性は,サンプルの近傍情報と分類器の出力の2つの要因と高い相関関係にあると主張する。
両世界のベストを組み合わせるために,我々は,適応型近傍アグリゲーションによる2つの必須情報を活用するために,モデル非依存なneighneagg アプローチを設計した。
理論的には、NeighborAggはワンホップグラフ畳み込みネットワークの一般化版であり、各クラス内のサンプル間の様々な類似性を捉える強力なモデリング能力を継承している。
また,誤ラベル検出の密接なタスクにもアプローチを拡張し,偽陰性のバウンドに関する理論的カバレッジを提供する。
画像および表のベンチマークに関する広範な実験は、我々の理論を検証し、NeighborAggが他の手法よりも優れ、最先端の信頼性性能を達成することを示唆している。
関連論文リスト
- Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Transformer Uncertainty Estimation with Hierarchical Stochastic
Attention [8.95459272947319]
本稿では,変圧器に不確実性推定機能を持たせるための新しい手法を提案する。
これは、価値と学習可能なセントロイドのセットに付随する階層的な自己注意を学ぶことで達成される。
我々は、ドメイン内(ID)とドメイン外(OOD)の両方のデータセットを用いて、2つのテキスト分類タスクでモデルを実証的に評価する。
論文 参考訳(メタデータ) (2021-12-27T16:43:31Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - Reachable Sets of Classifiers and Regression Models: (Non-)Robustness
Analysis and Robust Training [1.0878040851638]
分類器と回帰モデルの両方の頑健性特性を解析・拡張する。
具体的には、(非)難易度を検証し、堅牢なトレーニング手順を提案し、我々のアプローチが敵攻撃よりも優れていることを示す。
第2に、ラベル付けされていない入力に対する信頼できない予測と信頼できない予測を区別し、各特徴が予測に与える影響を定量化し、特徴ランキングを計算する技術を提供する。
論文 参考訳(メタデータ) (2020-07-28T10:58:06Z) - Knowing what you know: valid and validated confidence sets in multiclass
and multilabel prediction [0.8594140167290097]
マルチクラスおよびマルチラベル問題において、有効な信頼セットを構築するための共形予測手法を開発する。
量子レグレッションのアイデアを活用することで、常に正しいカバレッジを保証すると同時に、マルチクラスとマルチラベルの予測問題に対して条件付きカバレッジを提供する手法を構築する。
論文 参考訳(メタデータ) (2020-04-21T17:45:38Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。