論文の概要: GAFD-CC: Global-Aware Feature Decoupling with Confidence Calibration for OOD Detection
- arxiv url: http://arxiv.org/abs/2511.02335v1
- Date: Tue, 04 Nov 2025 07:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.841149
- Title: GAFD-CC: Global-Aware Feature Decoupling with Confidence Calibration for OOD Detection
- Title(参考訳): GAFD-CC:OOD検出のための信頼度校正によるグローバルな特徴分離
- Authors: Kun Zou, Yongheng Xu, Jianxing Yu, Yan Pan, Jian Yin, Hanjiang Lai,
- Abstract要約: 現実世界のアプリケーションにおける学習モデルの信頼性と堅牢性を確保するために、アウト・オブ・ディストリビューション(OOD)検出が最重要である。
既存のポストホックなOOD検出手法は、その特徴とログ情報を再トレーニングせずに活用することで、OODサンプルを検出する。
本稿では,GAFD-CC(Global-Aware Feature Decoupling with Confidence)を提案する。
- 参考スコア(独自算出の注目度): 23.24843065154377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is paramount to ensuring the reliability and robustness of learning models in real-world applications. Existing post-hoc OOD detection methods detect OOD samples by leveraging their features and logits information without retraining. However, they often overlook the inherent correlation between features and logits, which is crucial for effective OOD detection. To address this limitation, we propose Global-Aware Feature Decoupling with Confidence Calibration (GAFD-CC). GAFD-CC aims to refine decision boundaries and increase discriminative performance. Firstly, it performs global-aware feature decoupling guided by classification weights. This involves aligning features with the direction of global classification weights to decouple them. From this, GAFD-CC extracts two types of critical information: positively correlated features that promote in-distribution (ID)/OOD boundary refinement and negatively correlated features that suppress false positives and tighten these boundaries. Secondly, it adaptively fuses these decoupled features with multi-scale logit-based confidence for comprehensive and robust OOD detection. Extensive experiments on large-scale benchmarks demonstrate GAFD-CC's competitive performance and strong generalization ability compared to those of state-of-the-art methods.
- Abstract(参考訳): 現実世界のアプリケーションにおける学習モデルの信頼性と堅牢性を確保するために、アウト・オブ・ディストリビューション(OOD)検出が最重要である。
既存のポストホックなOOD検出手法は、その特徴とログ情報を再トレーニングせずに活用することで、OODサンプルを検出する。
しかし、彼らはしばしば、OOD検出に不可欠な特徴とロジットの固有の相関を見落としている。
この制限に対処するため,GAFD-CC(Global-Aware Feature Decoupling with Confidence Calibration)を提案する。
GAFD-CCは、決定境界を洗練し、差別的性能を向上させることを目的としている。
まず、分類重みによって導かれるグローバル・アウェア機能デカップリングを実行する。
これは、特徴をグローバルな分類の重みの方向と整合させ、それらを分離することを含む。
このことから、GAFD-CCは、分布内(ID)/OOD境界の洗練を促進する正の相関特徴と、偽陽性を抑制し、これらの境界を締め付ける負の相関特徴の2つの批判情報を抽出する。
第二に、これらの分離された特徴を、包括的で堅牢なOOD検出のためのマルチスケールロジットベースの信頼性で適応的に融合させる。
大規模ベンチマークでの大規模な実験は、GAFD-CCの競合性能と最先端の手法と比較して強力な一般化能力を示している。
関連論文リスト
- Revisiting Logit Distributions for Reliable Out-of-Distribution Detection [73.9121001113687]
アウト・オブ・ディストリビューション(OOD)検出は、オープンワールドアプリケーションにおけるディープラーニングモデルの信頼性を保証するために重要である。
LogitGapは、最大ロジットと残りのロジットの関係を利用する、ポストホックなOOD検出手法である。
我々は、LogitGapが様々なOOD検出シナリオとベンチマークにわたって、最先端のパフォーマンスを一貫して達成していることを示す。
論文 参考訳(メタデータ) (2025-10-23T02:16:45Z) - GOOD: Training-Free Guided Diffusion Sampling for Out-of-Distribution Detection [61.96025941146103]
GOODは,オフザシェルフ内分布(ID)分類器を用いて,OOD領域へのサンプリングトラジェクトリを誘導する新しいフレームワークである。
入力可能性を減らすためにログパーティションの勾配に基づいた画像レベルのガイダンスは、ピクセル空間内の低密度領域に向けてサンプルを駆動する。
我々は、画像と特徴の相違を適応的に組み合わせ、検出の堅牢性を向上する統一OODスコアを導入する。
論文 参考訳(メタデータ) (2025-10-20T03:58:46Z) - Source-Free Object Detection with Detection Transformer [59.33653163035064]
Source-Free Object Detection (SFOD) は、ソースデータにアクセスすることなく、ソースドメインから教師なしのターゲットドメインへの知識転送を可能にする。
ほとんどの既存のSFODアプローチは、より高速なR-CNNのような従来のオブジェクト検出(OD)モデルに限られるか、新しいODアーキテクチャ、特に検出変換器(DETR)に適合しない一般的なソリューションとして設計されている。
本稿では,DTRのクエリ中心の機能強化を特化して設計された新しいSFODフレームワークであるFeature Reweighting ANd Contrastive Learning NetworK(FRANCK)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T07:35:04Z) - DCV-ROOD Evaluation Framework: Dual Cross-Validation for Robust Out-of-Distribution Detection [2.9726444682922897]
アウト・オブ・ディストリビューション(OOD)検出は、人工知能システムの堅牢性を高める上で重要な役割を果たしている。
クロスバリデーション(CV)は、学習アルゴリズムの性能を合理的に推定するための、非常に効果的なツールであることが証明されている。
本研究はOOD検出モデルのロバストな評価のための二重CVフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-06T17:20:09Z) - CADRef: Robust Out-of-Distribution Detection via Class-Aware Decoupled Relative Feature Leveraging [5.356623181327855]
CARef(Class-Aware Relative Feature-based Method)とCADRef(Class-Aware Decoupled Relative Feature-based Method)を提案する。
両手法は, 最先端手法と比較してOOD検出の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2025-03-01T03:23:10Z) - Detecting Out-of-Distribution Through the Lens of Neural Collapse [7.04686607977352]
Out-of-Distribution (OOD) 検出は安全なデプロイメントに不可欠である。
ニューラル・コラプス現象に触発されて,我々は多目的かつ効率的なOOD検出法を提案する。
論文 参考訳(メタデータ) (2023-11-02T05:18:28Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Boosting Out-of-distribution Detection with Typical Features [22.987563801433595]
オフ・オブ・ディストリビューション(OOD)検出は、現実世界のシナリオにおけるディープニューラルネットワークの信頼性と安全性を保証するための重要なタスクである。
本稿では,その特徴を定式化してOODスコアを定式化して,信頼性の高い不確実性推定を実現することを提案する。
一般的なベンチマーク(CIFAR)と大きなラベル空間を持つ高解像度ベンチマーク(ImageNet)の両方において,本手法の優位性を評価する。
論文 参考訳(メタデータ) (2022-10-09T08:44:22Z) - Exploring Covariate and Concept Shift for Detection and Calibration of
Out-of-Distribution Data [77.27338842609153]
キャラクタリゼーションにより、OODデータの検出と信頼性校正には、それぞれのシフトに対する感度が重要であることが明らかになった。
分布内データのみを用いて両シフトでのOOD検出を改善するために,幾何学的に着想を得た手法を提案する。
我々は,OOD検出とキャリブレーションの両面で,異なるタイプのシフトの下でうまく機能する手法を最初に提案する。
論文 参考訳(メタデータ) (2021-10-28T15:42:55Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。