論文の概要: Prompt Optimization Meets Subspace Representation Learning for Few-shot Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2509.18111v1
- Date: Tue, 09 Sep 2025 21:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-28 15:30:14.368186
- Title: Prompt Optimization Meets Subspace Representation Learning for Few-shot Out-of-Distribution Detection
- Title(参考訳): Prompt Optimizationがサブスペース表現学習と出会い, 数発のアウト・オブ・ディストリビューション検出が可能に
- Authors: Faizul Rakib Sayem, Shahana Ibrahim,
- Abstract要約: 本稿では,サブスペース表現学習と即時チューニングを統合した新しいフレームワークを提案する。
提案手法は,ID特徴をプロンプトベクトルに分散した部分空間に投影することで,ID-OOD分離性を向上する。
実世界のデータセットの実験では、我々のアプローチの有効性が示されています。
- 参考スコア(独自算出の注目度): 9.568142719582974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The reliability of artificial intelligence (AI) systems in open-world settings depends heavily on their ability to flag out-of-distribution (OOD) inputs unseen during training. Recent advances in large-scale vision-language models (VLMs) have enabled promising few-shot OOD detection frameworks using only a handful of in-distribution (ID) samples. However, existing prompt learning-based OOD methods rely solely on softmax probabilities, overlooking the rich discriminative potential of the feature embeddings learned by VLMs trained on millions of samples. To address this limitation, we propose a novel context optimization (CoOp)-based framework that integrates subspace representation learning with prompt tuning. Our approach improves ID-OOD separability by projecting the ID features into a subspace spanned by prompt vectors, while projecting ID-irrelevant features into an orthogonal null space. To train such OOD detection framework, we design an easy-to-handle end-to-end learning criterion that ensures strong OOD detection performance as well as high ID classification accuracy. Experiments on real-world datasets showcase the effectiveness of our approach.
- Abstract(参考訳): オープンワールド環境での人工知能(AI)システムの信頼性は、トレーニング中に目に見えないアウト・オブ・ディストリビューション(OOD)入力を通知する能力に大きく依存する。
大規模視覚言語モデル(VLM)の最近の進歩により、少数の内分布(ID)サンプルのみを用いて、有望な数発のOOD検出フレームワークが実現されている。
しかし、既存の素早い学習に基づくOOD法はソフトマックス確率のみに依存しており、数百万のサンプルで訓練されたVLMによって学習された特徴埋め込みの豊かな識別可能性を見越している。
この制限に対処するために,サブスペース表現学習と即時チューニングを統合したコンテキスト最適化(CoOp)ベースのフレームワークを提案する。
提案手法は,ID特徴をプロンプトベクトルに分散した部分空間に投影し,ID非関連特徴を直交ヌル空間に投影することにより,ID-OOD分離性を向上させる。
このようなOOD検出フレームワークをトレーニングするために、我々は、強力なOOD検出性能と高いID分類精度を保証する、エンドツーエンドの学習基準を設計する。
実世界のデータセットの実験では、我々のアプローチの有効性が示されています。
関連論文リスト
- FA: Forced Prompt Learning of Vision-Language Models for Out-of-Distribution Detection [25.015218537268115]
本稿では,In-Distribution (ID) の知識をフル活用するために,Forced prompt leArning (FA) に基づく革新的なCLIPベースのフレームワークを提案する。
FAは、外部補助データセットなしでトレーニングされた場合でも、OOD検出の顕著な改善を達成することができる。
論文 参考訳(メタデータ) (2025-07-06T19:16:03Z) - Enhancing OOD Detection Using Latent Diffusion [3.4899193297791054]
Out-of-Distribution(OOD)検出は、現実のシナリオにおけるマシンラーニングモデルの信頼性の高いデプロイに不可欠である。
近年の研究では、安定拡散のような生成モデルを用いて、画素空間の外部値データを合成する方法が検討されている。
我々は,潜伏空間内でOOD学習データを生成する新しいフレームワークであるOutlier-Aware Learning (OAL)を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - WeiPer: OOD Detection using Weight Perturbations of Class Projections [11.130659240045544]
入力のよりリッチな表現を生成する最終完全連結層にクラスプロジェクションの摂動を導入する。
我々はOpenOODフレームワークの複数のベンチマークで最先端のOOD検出結果を得る。
論文 参考訳(メタデータ) (2024-05-27T13:38:28Z) - ID-like Prompt Learning for Few-Shot Out-of-Distribution Detection [47.16254775587534]
本稿では,CLIP citeDBLP:conf/icml/RadfordKHRGASAM21を用いて,IDライクな外れ値を検出する新しいOOD検出フレームワークを提案する。
強力なCLIPから恩恵を受けるため、モデルのプロンプトを学習するためには、少数のIDサンプルしか必要ありません。
本手法は,様々な実世界の画像データセットにおいて,より優れた数ショット学習性能を実現する。
論文 参考訳(メタデータ) (2023-11-26T09:06:40Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Improving Out-of-Distribution Detection with Disentangled Foreground and Background Features [23.266183020469065]
本稿では,IDトレーニングサンプルから前景と背景の特徴を密接な予測手法によって切り離す新しいフレームワークを提案する。
これは、様々な既存のOOD検出メソッドとシームレスに組み合わせられる汎用フレームワークである。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。