論文の概要: Enhancing Outlier Knowledge for Few-Shot Out-of-Distribution Detection with Extensible Local Prompts
- arxiv url: http://arxiv.org/abs/2409.04796v1
- Date: Sat, 7 Sep 2024 11:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 20:41:31.839408
- Title: Enhancing Outlier Knowledge for Few-Shot Out-of-Distribution Detection with Extensible Local Prompts
- Title(参考訳): 拡張型局所プロンプトを用いたFew-Shot Out-of-Distribution Detectionにおけるアウトリーチ知識の強化
- Authors: Fanhu Zeng, Zhen Cheng, Fei Zhu, Xu-Yao Zhang,
- Abstract要約: Out-of-Distribution (OOD) 検出は、既知のカテゴリとアウトリーチを区別することを目的としている。
本稿では,局所的なプロンプトによる局所的な拡張を強調するための新しいチューニングパラダイムを提案する。
提案手法は,ImageNet-1kデータセットを用いた4ショットチューニングにおいて,最先端手法に対して平均FPR95を5.17%削減する。
- 参考スコア(独自算出の注目度): 25.51735861729728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-Distribution (OOD) detection, aiming to distinguish outliers from known categories, has gained prominence in practical scenarios. Recently, the advent of vision-language models (VLM) has heightened interest in enhancing OOD detection for VLM through few-shot tuning. However, existing methods mainly focus on optimizing global prompts, ignoring refined utilization of local information with regard to outliers. Motivated by this, we freeze global prompts and introduce a novel coarse-to-fine tuning paradigm to emphasize regional enhancement with local prompts. Our method comprises two integral components: global prompt guided negative augmentation and local prompt enhanced regional regularization. The former utilizes frozen, coarse global prompts as guiding cues to incorporate negative augmentation, thereby leveraging local outlier knowledge. The latter employs trainable local prompts and a regional regularization to capture local information effectively, aiding in outlier identification. We also propose regional-related metric to empower the enrichment of OOD detection. Moreover, since our approach explores enhancing local prompts only, it can be seamlessly integrated with trained global prompts during inference to boost the performance. Comprehensive experiments demonstrate the effectiveness and potential of our method. Notably, our method reduces average FPR95 by 5.17% against state-of-the-art method in 4-shot tuning on challenging ImageNet-1k dataset, even outperforming 16-shot results of previous methods.
- Abstract(参考訳): オフ・オブ・ディストリビューション(OOD)検出は、既知のカテゴリとアウトリーチを区別することを目的としており、現実的なシナリオで注目されている。
近年,視覚言語モデル (VLM) の出現により,数ショットチューニングによるVLMのOOD検出向上への関心が高まっている。
しかし、既存の手法は主にグローバルなプロンプトの最適化に重点を置いており、アウトリーチに関するローカル情報の洗練された利用を無視している。
そこで我々は,グローバルなプロンプトを凍結し,局所的なプロンプトによる地域強化を強調するために,新しい粗大なチューニングパラダイムを導入する。
提案手法は,大域的プロンプト誘導陰性増大と局所的プロンプト強化地域正規化の2つの積分成分からなる。
前者は、凍った粗いグローバルプロンプトを、負の増強を組み込むための手がかりとして利用し、それによって局所的な外れ値の知識を活用する。
後者は、訓練可能なローカルプロンプトと、ローカル情報を効果的にキャプチャするための地域正規化を採用し、オフレイア識別を支援する。
また,OOD検出の強化を図るため,地域関連指標を提案する。
さらに,本手法では局所的なプロンプトのみの強化が検討されているため,推論中に訓練されたグローバルなプロンプトとシームレスに統合して性能を向上させることができる。
総合的な実験により,本手法の有効性と可能性を実証した。
特に,提案手法は,ImageNet-1kデータセットに挑戦する4ショットチューニングにおいて,平均FPR95を5.17%削減する。
関連論文リスト
- GalLoP: Learning Global and Local Prompts for Vision-Language Models [18.61218795834041]
Global-Local Prompts(GalLoP)は、グローバルとローカルの両方の視覚的特徴を活用する複数の多様なプロンプトを学習する新しいプロンプト学習手法である。
GalLoPは、ドメインの一般化とOOD検出の両方において強い堅牢性を示し、専用のOOD検出方法よりも優れている。
論文 参考訳(メタデータ) (2024-07-01T15:50:15Z) - LoDisc: Learning Global-Local Discriminative Features for
Self-Supervised Fine-Grained Visual Recognition [18.442966979622717]
本稿では,微妙な局所的きめ細かい特徴学習をグローバルな自己教師付きコントラスト学習に取り入れる。
局所的識別(LoDisc)と呼ばれる新しいプリテキストタスクは、局所的な中心領域に対する自己教師付きモデルの焦点を明示的に監督するために提案される。
そこで本稿では, 局所識別課題が重要な地域において, きめ細かな手掛かりを効果的に強化し, 画像のきめ細かな特徴表現をさらに洗練させることを実証する。
論文 参考訳(メタデータ) (2024-03-06T21:36:38Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Global Meets Local: Effective Multi-Label Image Classification via
Category-Aware Weak Supervision [37.761378069277676]
本稿では,効果的雑音・確率抑圧を実現するための統一的な枠組みを構築した。
我々はグローバルな特徴とローカルな特徴の相補的な情報を探るため、粒度横断型アテンションモジュールを開発した。
我々のフレームワークは最先端の手法よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2022-11-23T05:39:17Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Region-Based Semantic Factorization in GANs [67.90498535507106]
本稿では,任意の画像領域についてGAN(Generative Adversarial Networks)が学習した潜在意味を分解するアルゴリズムを提案する。
適切に定義された一般化されたレイリー商を通して、アノテーションや訓練なしにそのような問題を解く。
様々な最先端のGANモデルに対する実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-19T17:46:02Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Gait Recognition via Effective Global-Local Feature Representation and
Local Temporal Aggregation [28.721376937882958]
歩行認識は最も重要な生体計測技術の一つであり、多くの分野で応用されている。
近年の歩行認識フレームワークは、人間のグローバルな外観または地域から抽出された記述子によって各歩行フレームを表現している。
歩行認識のための識別的特徴表現を実現するための新しい特徴抽出・融合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-03T04:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。