論文の概要: Out-of-Distribution Detection with Positive and Negative Prompt Supervision Using Large Language Models
- arxiv url: http://arxiv.org/abs/2511.10923v1
- Date: Fri, 14 Nov 2025 03:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.412425
- Title: Out-of-Distribution Detection with Positive and Negative Prompt Supervision Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた正負のプロンプトスーパービジョンによる分布外検出
- Authors: Zhixia He, Chen Zhao, Minglai Shao, Xintao Wu, Xujiang Zhao, Dong Li, Qin Tian, Linlin Yu,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)とOOD画像の分類境界を規定する。
画像特徴とプロンプトコンテンツの相違を強調するために、負のプロンプトが導入される。
我々は,クラス間の特徴を捕捉するネガティブなプロンプトを奨励するポジティブ・ネガティブ・プロンプト・スーパービジョンを提案する。
- 参考スコア(独自算出の注目度): 33.39682202143465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is committed to delineating the classification boundaries between in-distribution (ID) and OOD images. Recent advances in vision-language models (VLMs) have demonstrated remarkable OOD detection performance by integrating both visual and textual modalities. In this context, negative prompts are introduced to emphasize the dissimilarity between image features and prompt content. However, these prompts often include a broad range of non-ID features, which may result in suboptimal outcomes due to the capture of overlapping or misleading information. To address this issue, we propose Positive and Negative Prompt Supervision, which encourages negative prompts to capture inter-class features and transfers this semantic knowledge to the visual modality to enhance OOD detection performance. Our method begins with class-specific positive and negative prompts initialized by large language models (LLMs). These prompts are subsequently optimized, with positive prompts focusing on features within each class, while negative prompts highlight features around category boundaries. Additionally, a graph-based architecture is employed to aggregate semantic-aware supervision from the optimized prompt representations and propagate it to the visual branch, thereby enhancing the performance of the energy-based OOD detector. Extensive experiments on two benchmarks, CIFAR-100 and ImageNet-1K, across eight OOD datasets and five different LLMs, demonstrate that our method outperforms state-of-the-art baselines.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)とOOD画像の分類境界を規定する。
近年の視覚言語モデル(VLM)の進歩は、視覚とテキストの両方のモダリティを統合することで、優れたOOD検出性能を示している。
この文脈では、画像特徴とプロンプトコンテンツとの相違を強調するために、負のプロンプトが導入された。
しかし、これらのプロンプトは多種多様な非ID特徴を含んでおり、重なり合う情報や誤解を招く情報のキャプチャーによって、最適以下の結果をもたらす可能性がある。
この問題に対処するため,私たちは,クラス間の特徴を捕捉し,その意味的知識を視覚的モダリティに伝達し,OOD検出性能を向上させる,正負および負のプロンプトスーパービジョンを提案する。
提案手法は,大規模言語モデル(LLM)によって初期化されるクラス固有の正および負のプロンプトから始まる。
これらのプロンプトはその後最適化され、各クラス内の機能に注目し、負のプロンプトはカテゴリ境界に関する機能を強調する。
さらに、グラフベースのアーキテクチャを用いて、最適化されたプロンプト表現からセマンティック・アウェア・インスペクションを集約し、それを視覚枝に伝播させ、エネルギーベースのOOD検出器の性能を向上させる。
CIFAR-100とImageNet-1Kという2つのベンチマークの大規模な実験は、8つのOODデータセットと5つの異なるLLMで行われ、我々の手法が最先端のベースラインより優れていることを示した。
関連論文リスト
- GOOD: Training-Free Guided Diffusion Sampling for Out-of-Distribution Detection [61.96025941146103]
GOODは,オフザシェルフ内分布(ID)分類器を用いて,OOD領域へのサンプリングトラジェクトリを誘導する新しいフレームワークである。
入力可能性を減らすためにログパーティションの勾配に基づいた画像レベルのガイダンスは、ピクセル空間内の低密度領域に向けてサンプルを駆動する。
我々は、画像と特徴の相違を適応的に組み合わせ、検出の堅牢性を向上する統一OODスコアを導入する。
論文 参考訳(メタデータ) (2025-10-20T03:58:46Z) - Knowledge Regularized Negative Feature Tuning of Vision-Language Models for Out-of-Distribution Detection [54.433899174017185]
信頼性の高い機械学習モデルを構築するには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
我々はKR-NFT(Knowledge Regularized Negative Feature Tuning)と呼ばれる新しい手法を提案する。
NFTは、事前訓練されたテキスト特徴に分布認識変換を適用し、正および負の特徴を異なる空間に効果的に分離する。
ImageNetデータセットから数発のサンプルをトレーニングすると、KR-NFTはID分類精度とOOD検出を改善するだけでなく、FPR95を5.44%削減する。
論文 参考訳(メタデータ) (2025-07-26T07:44:04Z) - Harnessing Large Language and Vision-Language Models for Robust Out-of-Distribution Detection [11.277049921075026]
Out-of-distribution (OOD) 検出はゼロショットアプローチで大幅に進歩した。
本稿では,Far-OODシナリオとNear-OODシナリオの両方において,ゼロショットOOD検出性能を向上させる新しい手法を提案する。
本稿では,提案フレームワークを目標分布に適合させるために,新しい数発のプロンプトチューニングと視覚的プロンプトチューニングを導入する。
論文 参考訳(メタデータ) (2025-01-09T13:36:37Z) - AdaNeg: Adaptive Negative Proxy Guided OOD Detection with Vision-Language Models [15.754054667010468]
事前学習された視覚言語モデルは、負のラベルをガイダンスとして使用することにより、配布外サンプル(OOD)を特定するのに効果的である。
我々は,実際のOOD画像の探索により,テスト中に動的に生成されるテクスタダプティブな負のプロキシを提案する。
AUROCは2.45%増加し,FPR95は6.48%低下した。
論文 参考訳(メタデータ) (2024-10-26T11:20:02Z) - TagOOD: A Novel Approach to Out-of-Distribution Detection via Vision-Language Representations and Class Center Learning [26.446233594630087]
視覚言語表現を用いたOOD検出のための新しいアプローチである textbfTagOOD を提案する。
TagOODは、抽出されたオブジェクトの特徴に基づいて軽量なネットワークをトレーニングし、代表的なクラスセンターを学習する。
これらの中心は、OOD検出における無関係な画像特徴の影響を最小限に抑え、INDオブジェクトクラスの中心的な傾向を捉えている。
論文 参考訳(メタデータ) (2024-08-28T06:37:59Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - How Does Fine-Tuning Impact Out-of-Distribution Detection for Vision-Language Models? [29.75562085178755]
数ショットダウンストリームタスクに対するOOD検出の微調整の影響について検討する。
以上の結果から,OODスコアの適切な選択はCLIPに基づく微調整に不可欠であることが示唆された。
また, 即時学習は, ゼロショットに比較して最先端のOOD検出性能を示すことを示す。
論文 参考訳(メタデータ) (2023-06-09T17:16:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。