論文の概要: Prompt Optimization Meets Subspace Representation Learning for Few-shot Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2509.18111v2
- Date: Sun, 12 Oct 2025 15:51:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 15:48:09.44772
- Title: Prompt Optimization Meets Subspace Representation Learning for Few-shot Out-of-Distribution Detection
- Title(参考訳): Prompt Optimizationがサブスペース表現学習と出会い, 数発のアウト・オブ・ディストリビューション検出が可能に
- Authors: Faizul Rakib Sayem, Shahana Ibrahim,
- Abstract要約: 本稿では,サブスペース表現学習と即時チューニングを統合した新しいフレームワークを提案する。
提案手法は,ID特徴をプロンプトベクトルに分散した部分空間に投影することで,ID-OOD分離性を向上する。
実世界のデータセットの実験では、我々のアプローチの有効性が示されています。
- 参考スコア(独自算出の注目度): 9.568142719582974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The reliability of artificial intelligence (AI) systems in open-world settings depends heavily on their ability to flag out-of-distribution (OOD) inputs unseen during training. Recent advances in large-scale vision-language models (VLMs) have enabled promising few-shot OOD detection frameworks using only a handful of in-distribution (ID) samples. However, existing prompt learning-based OOD methods rely solely on softmax probabilities, overlooking the rich discriminative potential of the feature embeddings learned by VLMs trained on millions of samples. To address this limitation, we propose a novel context optimization (CoOp)-based framework that integrates subspace representation learning with prompt tuning. Our approach improves ID-OOD separability by projecting the ID features into a subspace spanned by prompt vectors, while projecting ID-irrelevant features into an orthogonal null space. To train such OOD detection framework, we design an easy-to-handle end-to-end learning criterion that ensures strong OOD detection performance as well as high ID classification accuracy. Experiments on real-world datasets showcase the effectiveness of our approach.
- Abstract(参考訳): オープンワールド環境での人工知能(AI)システムの信頼性は、トレーニング中に目に見えないアウト・オブ・ディストリビューション(OOD)入力を通知する能力に大きく依存する。
大規模視覚言語モデル(VLM)の最近の進歩により、少数の内分布(ID)サンプルのみを用いて、有望な数発のOOD検出フレームワークが実現されている。
しかし、既存の素早い学習に基づくOOD法はソフトマックス確率のみに依存しており、数百万のサンプルで訓練されたVLMによって学習された特徴埋め込みの豊かな識別可能性を見越している。
この制限に対処するために,サブスペース表現学習と即時チューニングを統合したコンテキスト最適化(CoOp)ベースのフレームワークを提案する。
提案手法は,ID特徴をプロンプトベクトルに分散した部分空間に投影し,ID非関連特徴を直交ヌル空間に投影することにより,ID-OOD分離性を向上させる。
このようなOOD検出フレームワークをトレーニングするために、我々は、強力なOOD検出性能と高いID分類精度を保証する、エンドツーエンドの学習基準を設計する。
実世界のデータセットの実験では、我々のアプローチの有効性が示されています。
関連論文リスト
- Mind the Way You Select Negative Texts: Pursuing the Distance Consistency in OOD Detection with VLMs [80.03370593724422]
Out-of-Distribution (OOD) は未知のクラスからサンプルを識別する。
現在の手法では、否定的なテキストとIDラベルを比較するなど、OOD検出中にモード内距離を組み込むことが多い。
テキストおよび視覚的視点から一貫したモーダル距離拡張を体系的に利用するフレームワークであるInterNegを提案する。
論文 参考訳(メタデータ) (2026-03-03T05:44:47Z) - Revisiting Logit Distributions for Reliable Out-of-Distribution Detection [73.9121001113687]
アウト・オブ・ディストリビューション(OOD)検出は、オープンワールドアプリケーションにおけるディープラーニングモデルの信頼性を保証するために重要である。
LogitGapは、最大ロジットと残りのロジットの関係を利用する、ポストホックなOOD検出手法である。
我々は、LogitGapが様々なOOD検出シナリオとベンチマークにわたって、最先端のパフォーマンスを一貫して達成していることを示す。
論文 参考訳(メタデータ) (2025-10-23T02:16:45Z) - Pseudo-label Induced Subspace Representation Learning for Robust Out-of-Distribution Detection [6.5679810906772325]
擬似ラベルによる部分空間表現に基づく新しいOOD検出フレームワークを提案する。
さらに,クロスエントロピーに基づくID分類損失と部分空間距離に基づく正規化損失を統合し,ID-OOD分離性を向上する単純な学習基準を導入する。
論文 参考訳(メタデータ) (2025-08-05T05:38:00Z) - Knowledge Regularized Negative Feature Tuning of Vision-Language Models for Out-of-Distribution Detection [54.433899174017185]
信頼性の高い機械学習モデルを構築するには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
我々はKR-NFT(Knowledge Regularized Negative Feature Tuning)と呼ばれる新しい手法を提案する。
NFTは、事前訓練されたテキスト特徴に分布認識変換を適用し、正および負の特徴を異なる空間に効果的に分離する。
ImageNetデータセットから数発のサンプルをトレーニングすると、KR-NFTはID分類精度とOOD検出を改善するだけでなく、FPR95を5.44%削減する。
論文 参考訳(メタデータ) (2025-07-26T07:44:04Z) - FA: Forced Prompt Learning of Vision-Language Models for Out-of-Distribution Detection [25.015218537268115]
本稿では,In-Distribution (ID) の知識をフル活用するために,Forced prompt leArning (FA) に基づく革新的なCLIPベースのフレームワークを提案する。
FAは、外部補助データセットなしでトレーニングされた場合でも、OOD検出の顕著な改善を達成することができる。
論文 参考訳(メタデータ) (2025-07-06T19:16:03Z) - Enhancing OOD Detection Using Latent Diffusion [3.4899193297791054]
Out-of-Distribution(OOD)検出は、現実のシナリオにおけるマシンラーニングモデルの信頼性の高いデプロイに不可欠である。
近年の研究では、安定拡散のような生成モデルを用いて、画素空間の外部値データを合成する方法が検討されている。
我々は,潜伏空間内でOOD学習データを生成する新しいフレームワークであるOutlier-Aware Learning (OAL)を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - WeiPer: OOD Detection using Weight Perturbations of Class Projections [11.130659240045544]
入力のよりリッチな表現を生成する最終完全連結層にクラスプロジェクションの摂動を導入する。
我々はOpenOODフレームワークの複数のベンチマークで最先端のOOD検出結果を得る。
論文 参考訳(メタデータ) (2024-05-27T13:38:28Z) - Out-of-Distribution Detection Using Peer-Class Generated by Large Language Model [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、マシンラーニングモデルの信頼性とセキュリティを確保するための重要なタスクである。
本稿では,ODPCと呼ばれる新しい手法を提案し,大規模言語モデルを用いてOODピア・セマンティクスのクラスを生成する。
5つのベンチマークデータセットの実験により,提案手法は最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2024-03-20T06:04:05Z) - ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [47.16254775587534]
本稿では,CLIP citeDBLP:conf/icml/RadfordKHRGASAM21を用いて,IDライクな外れ値を検出する新しいOOD検出フレームワークを提案する。
強力なCLIPから恩恵を受けるため、モデルのプロンプトを学習するためには、少数のIDサンプルしか必要ありません。
本手法は,様々な実世界の画像データセットにおいて,より優れた数ショット学習性能を実現する。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Improving Out-of-Distribution Detection with Disentangled Foreground and Background Features [23.266183020469065]
本稿では,IDトレーニングサンプルから前景と背景の特徴を密接な予測手法によって切り離す新しいフレームワークを提案する。
これは、様々な既存のOOD検出メソッドとシームレスに組み合わせられる汎用フレームワークである。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - No Shifted Augmentations (NSA): compact distributions for robust
self-supervised Anomaly Detection [4.243926243206826]
教師なし異常検出(AD)は正規化の概念を構築し、分布内(ID)と分布外(OOD)データを区別する必要がある。
我々は,ID特徴分布のエンフ幾何学的コンパクト性によって,外乱の分離や検出が容易になるかを検討する。
我々は,IDデータのコンパクトな分布を学習可能にする自己教師型特徴学習ステップに,新たなアーキテクチャ変更を提案する。
論文 参考訳(メタデータ) (2022-03-19T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。