論文の概要: Feature Bank Enhancement for Distance-based Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2507.14178v1
- Date: Fri, 11 Jul 2025 13:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-27 08:26:15.944125
- Title: Feature Bank Enhancement for Distance-based Out-of-Distribution Detection
- Title(参考訳): 距離に基づくアウト・オブ・ディストリビューション検出のための特徴バンクの強化
- Authors: Yuhang Liu, Yuefei Wu, Bin Shi, Bo Dong,
- Abstract要約: ディープラーニングアプリケーションの信頼性を確保するためには,アウト・オブ・ディストリビューション検出が重要である。
ディープラーニングはデータ機能のバイアスのある分布につながることが多く、極端な機能は避けられない。
本稿では,データセットから統計特性を用いて極端な特徴を識別・制約する簡易かつ効果的な特徴バンク拡張法(FBE)を提案する。
- 参考スコア(独自算出の注目度): 14.383098320129225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is critical to ensuring the reliability of deep learning applications and has attracted significant attention in recent years. A rich body of literature has emerged to develop efficient score functions that assign high scores to in-distribution (ID) samples and low scores to OOD samples, thereby helping distinguish OOD samples. Among these methods, distance-based score functions are widely used because of their efficiency and ease of use. However, deep learning often leads to a biased distribution of data features, and extreme features are inevitable. These extreme features make the distance-based methods tend to assign too low scores to ID samples. This limits the OOD detection capabilities of such methods. To address this issue, we propose a simple yet effective method, Feature Bank Enhancement (FBE), that uses statistical characteristics from dataset to identify and constrain extreme features to the separation boundaries, therapy making the distance between samples inside and outside the distribution farther. We conducted experiments on large-scale ImageNet-1k and CIFAR-10 respectively, and the results show that our method achieves state-of-the-art performance on both benchmark. Additionally, theoretical analysis and supplementary experiments are conducted to provide more insights into our method.
- Abstract(参考訳): ディープラーニングアプリケーションの信頼性を確保するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠であり、近年は大きな注目を集めている。
豊富な文献が出現し、高いスコアを分布内(ID)サンプルに割り当て、低いスコアをOODサンプルに割り当てる効率的なスコア関数が開発され、OODサンプルの識別に役立っている。
これらの手法の中で、距離に基づくスコア関数は、その効率性と使いやすさのために広く使われている。
しかし、ディープラーニングはデータ機能のバイアスのある分布につながることが多く、極端な特徴は避けられない。
これらの極端な特徴により、距離ベースの手法はIDサンプルに低得点を割り当てる傾向にある。
これにより、OOD検出能力は制限される。
この問題に対処するため,本研究では,データセットからの統計的特徴を用いて,分離境界に対する極端な特徴を識別・制約し,分布内外のサンプル間距離を治療する,簡易で効果的な機能バンク拡張法(FBE)を提案する。
大規模 ImageNet-1k と CIFAR-10 をそれぞれ実験した結果,両ベンチマークで評価結果が得られた。
さらに,理論解析と補足実験を行い,本手法についてさらなる知見を得た。
関連論文リスト
- Leveraging Perturbation Robustness to Enhance Out-of-Distribution Detection [15.184096796229115]
本稿では, インディストリビューション(IND)インプットよりも, 摂動下でのOODインプットの予測信頼度が高いという知見に基づいて, ポストホック法であるPRO(Perturbation-Rectified OOD Detection)を提案する。
CIFAR-10モデルでは、POPは、最先端の手法と比較して、FPR@95において10%以上の削減を実現し、近似OOD入力を効果的に検出する。
論文 参考訳(メタデータ) (2025-03-24T15:32:33Z) - Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - GROOD: Gradient-Aware Out-of-Distribution Detection [11.862922321532817]
現実世界のアプリケーションにおけるディープラーニングモデルの信頼性を確保するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
In-distriion (ID) トレーニングデータから直接 OOD プロトタイプを抽出し,クラスプロトタイプを演算する GRADient-Aware Out-Of-Distribution Detection (GROOD) を提案する。
人工OODプロトタイプに関する最寄りのクラス-プロトタイプ損失関数の勾配を解析することにより,本手法は分布内とOOD試料の明確な分離を実現する。
論文 参考訳(メタデータ) (2023-12-22T04:28:43Z) - Fast Decision Boundary based Out-of-Distribution Detector [7.04686607977352]
アウト・オブ・ディストリビューション(OOD)検出は、AIシステムの安全なデプロイに不可欠である。
既存の特徴空間法は有効であるが、しばしば計算上のオーバーヘッドを生じさせる。
補助モデルを用いない計算効率の良いOOD検出器を提案する。
論文 参考訳(メタデータ) (2023-12-15T19:50:32Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [47.16254775587534]
本稿では,CLIP citeDBLP:conf/icml/RadfordKHRGASAM21を用いて,IDライクな外れ値を検出する新しいOOD検出フレームワークを提案する。
強力なCLIPから恩恵を受けるため、モデルのプロンプトを学習するためには、少数のIDサンプルしか必要ありません。
本手法は,様々な実世界の画像データセットにおいて,より優れた数ショット学習性能を実現する。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Diversified Outlier Exposure for Out-of-Distribution Detection via
Informative Extrapolation [110.34982764201689]
Out-of-Distribution(OOD)検出は、現実のアプリケーションに信頼性の高い機械学習モデルをデプロイするために重要である。
近年, 外部曝露によるOOD検出に有意な結果が得られた。
本稿では,補助外乱量に基づく情報外挿による効果的なOOD検出のための新しい枠組み,すなわちDivOE(Diversified Outlier Exposure)を提案する。
論文 参考訳(メタデータ) (2023-10-21T07:16:09Z) - Beyond AUROC & co. for evaluating out-of-distribution detection
performance [50.88341818412508]
安全(r)AIとの関連性を考えると,OOD検出法の比較の基礎が実用的ニーズと整合しているかどうかを検討することが重要である。
我々は,IDとOODの分離が不十分なことを明示する新しい指標であるAUTC(Area Under the Threshold Curve)を提案する。
論文 参考訳(メタデータ) (2023-06-26T12:51:32Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。