論文の概要: AdaNeg: Adaptive Negative Proxy Guided OOD Detection with Vision-Language Models
- arxiv url: http://arxiv.org/abs/2410.20149v1
- Date: Sat, 26 Oct 2024 11:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:19:02.536770
- Title: AdaNeg: Adaptive Negative Proxy Guided OOD Detection with Vision-Language Models
- Title(参考訳): AdaNeg:視覚言語モデルを用いた適応的負のプロキシ誘導OOD検出
- Authors: Yabin Zhang, Lei Zhang,
- Abstract要約: 事前学習された視覚言語モデルは、負のラベルをガイダンスとして使用することにより、配布外サンプル(OOD)を特定するのに効果的である。
我々は,実際のOOD画像の探索により,テスト中に動的に生成されるテクスタダプティブな負のプロキシを提案する。
AUROCは2.45%増加し,FPR95は6.48%低下した。
- 参考スコア(独自算出の注目度): 15.754054667010468
- License:
- Abstract: Recent research has shown that pre-trained vision-language models are effective at identifying out-of-distribution (OOD) samples by using negative labels as guidance. However, employing consistent negative labels across different OOD datasets often results in semantic misalignments, as these text labels may not accurately reflect the actual space of OOD images. To overcome this issue, we introduce \textit{adaptive negative proxies}, which are dynamically generated during testing by exploring actual OOD images, to align more closely with the underlying OOD label space and enhance the efficacy of negative proxy guidance. Specifically, our approach utilizes a feature memory bank to selectively cache discriminative features from test images, representing the targeted OOD distribution. This facilitates the creation of proxies that can better align with specific OOD datasets. While task-adaptive proxies average features to reflect the unique characteristics of each dataset, the sample-adaptive proxies weight features based on their similarity to individual test samples, exploring detailed sample-level nuances. The final score for identifying OOD samples integrates static negative labels with our proposed adaptive proxies, effectively combining textual and visual knowledge for enhanced performance. Our method is training-free and annotation-free, and it maintains fast testing speed. Extensive experiments across various benchmarks demonstrate the effectiveness of our approach, abbreviated as AdaNeg. Notably, on the large-scale ImageNet benchmark, our AdaNeg significantly outperforms existing methods, with a 2.45\% increase in AUROC and a 6.48\% reduction in FPR95. Codes are available at \url{https://github.com/YBZh/OpenOOD-VLM}.
- Abstract(参考訳): 近年の研究では、事前学習された視覚言語モデルは、負のラベルをガイダンスとして使用することによって、配布外サンプル(OOD)を特定するのに有効であることが示されている。
しかし、異なるOODデータセットに一貫した負のラベルを用いると、それらのテキストラベルがOODイメージの実際の空間を正確に反映しないため、意味的なミスアライメントが発生することが多い。
この問題を解決するために,実際のOOD画像の探索によって動的に生成される‘textit{adaptive negative proxies’を導入し,基礎となるOODラベル空間とより緊密に連携し,負のプロキシガイダンスの有効性を高める。
具体的には,特徴記憶バンクを用いて,対象のOOD分布を表すテスト画像から識別的特徴を選択的にキャッシュする。
これによりプロキシの作成が容易になり、特定のOODデータセットとの整合性が向上する。
タスク適応プロキシは、各データセットのユニークな特徴を反映する平均的な特徴を持つが、サンプル適応プロキシは、個々のテストサンプルと類似性に基づいて重みを特徴付け、詳細なサンプルレベルのニュアンスを探索する。
OODサンプルを同定するための最終スコアは、静的な負ラベルと適応的プロキシを統合し、テキストと視覚の知識を効果的に組み合わせて性能を向上させる。
本手法はトレーニングフリーかつアノテーションフリーであり,高速なテスト速度を維持している。
様々なベンチマークで大規模な実験を行い、AdaNegと略されるアプローチの有効性を実証した。
特に、大規模なImageNetベンチマークでは、AdaNegはAUROCが2.45 %、FPR95が6.48 %、既存の手法を大きく上回っている。
コードは \url{https://github.com/YBZh/OpenOOD-VLM} で公開されている。
関連論文リスト
- Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - AUTO: Adaptive Outlier Optimization for Online Test-Time OOD Detection [81.49353397201887]
オープンソースアプリケーションに機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠だ。
我々は、未ラベルのオンラインデータをテスト時に直接利用してOOD検出性能を向上させる、テスト時OOD検出と呼ばれる新しいパラダイムを導入する。
本稿では,入出力フィルタ,IDメモリバンク,意味的に一貫性のある目的からなる適応外乱最適化(AUTO)を提案する。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - Self-Supervised Anomaly Detection by Self-Distillation and Negative
Sampling [1.304892050913381]
また, 負の例と対照的に, 分散学習セットの自己蒸留はOOD検出を強く向上させることを示した。
低レベルの特徴の統計を高レベルのセマンティクスを変更しながら保持する負のサンプルを活用することにより、より高い平均検出性能が得られることを観察する。
論文 参考訳(メタデータ) (2022-01-17T12:33:14Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。