論文の概要: DCAC: Dynamic Class-Aware Cache Creates Stronger Out-of-Distribution Detectors
- arxiv url: http://arxiv.org/abs/2601.12468v1
- Date: Sun, 18 Jan 2026 16:16:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.642633
- Title: DCAC: Dynamic Class-Aware Cache Creates Stronger Out-of-Distribution Detectors
- Title(参考訳): DCAC: 動的クラスアウェアキャッシュは、より強力なアウト・オブ・ディストリビューション・ディテクタを生成する
- Authors: Yanqi Wu, Qichao Chen, Runhe Lai, Xinhua Lu, Jia-Xin Zhuang, Zhilin Zhao, Wei-Shi Zheng, Ruixuan Wang,
- Abstract要約: 深いニューラルネットワークでは、アウト・オブ・ディストリビューション(OOD)検出が依然として根本的な課題である。
我々は,各IDクラスごとに個別のキャッシュを保持して高エントロピーサンプルを収集する,トレーニングフリーでテストタイムのキャリブレーションモジュールであるDCAC(Dynamic Class-Aware Cache)を提案する。
- 参考スコア(独自算出の注目度): 43.8920190045364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection remains a fundamental challenge for deep neural networks, particularly due to overconfident predictions on unseen OOD samples during testing. We reveal a key insight: OOD samples predicted as the same class, or given high probabilities for it, are visually more similar to each other than to the true in-distribution (ID) samples. Motivated by this class-specific observation, we propose DCAC (Dynamic Class-Aware Cache), a training-free, test-time calibration module that maintains separate caches for each ID class to collect high-entropy samples and calibrate the raw predictions of input samples. DCAC leverages cached visual features and predicted probabilities through a lightweight two-layer module to mitigate overconfident predictions on OOD samples. This module can be seamlessly integrated with various existing OOD detection methods across both unimodal and vision-language models while introducing minimal computational overhead. Extensive experiments on multiple OOD benchmarks demonstrate that DCAC significantly enhances existing methods, achieving substantial improvements, i.e., reducing FPR95 by 6.55% when integrated with ASH-S on ImageNet OOD benchmark.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、特にテスト中の未確認OODサンプルの過度な予測のために、ディープニューラルネットワークの基本的な課題である。
OODサンプルは同じクラス、あるいは高い確率で予測されたOODサンプルは、真のin-distribution(ID)サンプルよりも視覚的に互いに類似している。
このクラス固有の観測から得られたDCAC(Dynamic Class-Aware Cache)は、各IDクラスごとに個別のキャッシュを保持し、高エントロピーサンプルを収集し、入力サンプルの生の予測をキャリブレーションするトレーニングフリーでテストタイムのキャリブレーションモジュールである。
DCACは、OODサンプルの過信予測を軽減するために、軽量な2層モジュールを通じてキャッシュされた視覚的特徴と予測確率を活用する。
このモジュールは、計算オーバーヘッドを最小限に抑えつつ、単言語モデルと視覚言語モデルの両方にわたる既存のOOD検出手法とシームレスに統合することができる。
複数のOODベンチマークに対する大規模な実験により、DCACは既存のメソッドを大幅に改善し、FPR95をImageNet OODベンチマーク上でASH-Sと統合すると6.55%削減することに成功した。
関連論文リスト
- Predictive Sample Assignment for Semantically Coherent Out-of-Distribution Detection [62.1052001316508]
セマンティック・コヒーレント・アウト・オブ・ディストリビューション検出(SCOOD)は、最近提案された現実的なOOD検出設定である。
予測サンプル割当て(PSA)に基づく簡潔SCOODフレームワークを提案する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2025-12-15T01:18:38Z) - GOOD: Training-Free Guided Diffusion Sampling for Out-of-Distribution Detection [61.96025941146103]
GOODは,オフザシェルフ内分布(ID)分類器を用いて,OOD領域へのサンプリングトラジェクトリを誘導する新しいフレームワークである。
入力可能性を減らすためにログパーティションの勾配に基づいた画像レベルのガイダンスは、ピクセル空間内の低密度領域に向けてサンプルを駆動する。
我々は、画像と特徴の相違を適応的に組み合わせ、検出の堅牢性を向上する統一OODスコアを導入する。
論文 参考訳(メタデータ) (2025-10-20T03:58:46Z) - Towards More Trustworthy Deep Code Models by Enabling Out-of-Distribution Detection [12.141246816152288]
コードに対する非教師付きOOD検出と弱教師付きOOD検出の2種類のSE固有OOD検出モデルを開発した。
提案手法は, 4つのシナリオからOODサンプルを同時に検出する上で, ベースラインを著しく上回り, コード理解タスクに肯定的な影響を与えている。
論文 参考訳(メタデータ) (2025-02-26T06:59:53Z) - DPU: Dynamic Prototype Updating for Multimodal Out-of-Distribution Detection [10.834698906236405]
機械学習モデルの堅牢性を保証するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
マルチモーダルモデルの最近の進歩は、検出性能を高めるために複数のモダリティを活用する可能性を示している。
マルチモーダルOOD検出のための新しいプラグイン・アンド・プレイフレームワークであるDynamic Prototype Updating (DPU)を提案する。
論文 参考訳(メタデータ) (2024-11-12T22:43:16Z) - A Mixture of Exemplars Approach for Efficient Out-of-Distribution Detection with Foundation Models [0.0]
本稿では, 高品質で凍結, 事前訓練された基礎モデルを用いて, バックボーンをトレーニングする利点を最大化するためのOOD検出への効率的なアプローチを提案する。
MoLARは、OODサンプルの類似性と、データセットを表すために選択された小さなイメージの例を比較するだけで、強力なOOD検出性能を提供する。
論文 参考訳(メタデータ) (2023-11-28T06:12:28Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Towards Consistent Predictive Confidence through Fitted Ensembles [6.371992222487036]
本稿では,OOD実例が存在する場合に,分類器の性能を測定するための分離可能な概念学習フレームワークを提案する。
我々は、より一貫した深層モデルの予測信頼度を高めるために、より強力なベースラインを新たに提示する。
論文 参考訳(メタデータ) (2021-06-22T21:32:31Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。