論文の概要: LoCoOp: Few-Shot Out-of-Distribution Detection via Prompt Learning
- arxiv url: http://arxiv.org/abs/2306.01293v2
- Date: Sat, 10 Jun 2023 07:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 23:26:26.221136
- Title: LoCoOp: Few-Shot Out-of-Distribution Detection via Prompt Learning
- Title(参考訳): LoCoOp: プロンプト学習による分布検出
- Authors: Atsuyuki Miyai, Qing Yu, Go Irie, Kiyoharu Aizawa
- Abstract要約: 本稿では,数発のアウト・オブ・ディストリビューション(OOD)検出のための新しい視覚言語プロンプト学習手法を提案する。
LoCoOpは、トレーニング中にCLIPローカル機能の一部をOOD機能として利用するOOD正規化を実行する。
LoCoOpは、既存のゼロショットと完全に教師付き検出方法より優れている。
- 参考スコア(独自算出の注目度): 45.82129477414505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel vision-language prompt learning approach for few-shot
out-of-distribution (OOD) detection. Few-shot OOD detection aims to detect OOD
images from classes that are unseen during training using only a few labeled
in-distribution (ID) images. While prompt learning methods such as CoOp have
shown effectiveness and efficiency in few-shot ID classification, they still
face limitations in OOD detection due to the potential presence of
ID-irrelevant information in text embeddings. To address this issue, we
introduce a new approach called Local regularized Context Optimization
(LoCoOp), which performs OOD regularization that utilizes the portions of CLIP
local features as OOD features during training. CLIP's local features have a
lot of ID-irrelevant nuisances (e.g., backgrounds), and by learning to push
them away from the ID class text embeddings, we can remove the nuisances in the
ID class text embeddings and enhance the separation between ID and OOD.
Experiments on the large-scale ImageNet OOD detection benchmarks demonstrate
the superiority of our LoCoOp over zero-shot, fully supervised detection
methods and prompt learning methods. Notably, even in a one-shot setting --
just one label per class, LoCoOp outperforms existing zero-shot and fully
supervised detection methods. The code will be available via
https://github.com/AtsuMiyai/LoCoOp.
- Abstract(参考訳): 本稿では,数発のアウト・オブ・ディストリビューション(OOD)検出のための新しい視覚言語プロンプト学習手法を提案する。
OOD検出は、トレーニング中に見つからないクラスから、少数のラベル付きIDイメージを使用してOOD画像を検出することを目的としている。
CoOpのような素早い学習手法は、数発のID分類において有効性と効率性を示しているが、テキスト埋め込みにおけるID関連情報の存在の可能性から、OOD検出の制限に直面している。
この問題を解決するために、トレーニング中にCLIPローカル機能の一部をOOD機能として利用するOOD正規化を行うLoCoOp(Local regularized Context Optimization)という新しいアプローチを導入する。
CLIPのローカル機能は、ID非関連なニュアンス(例えば、バックグラウンド)が多く、IDクラステキストの埋め込みからそれらを押し離すことで、IDクラステキストの埋め込みにあるニュアンスを取り除き、IDとOODの分離を強化することができる。
大規模なImageNet OOD検出ベンチマークの実験では、ゼロショットで完全に教師付き検出方法と迅速な学習方法よりも、LoCoOpの方が優れていることが示された。
特に、クラス毎に1つのラベルを持つワンショット設定であっても、LoCoOpは既存のゼロショットと完全に教師付き検出メソッドよりも優れています。
コードはhttps://github.com/AtsuMiyai/LoCoOp.comから入手できる。
関連論文リスト
- Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - Learning Transferable Negative Prompts for Out-of-Distribution Detection [22.983892817676495]
負のプロンプトを学習するための新しいOOD検出手法「NegPrompt」を提案する。
外部の外れ値データに依存することなく、IDデータのみでそのような負のプロンプトを学習する。
さまざまなImageNetベンチマークの実験では、NegPromptが最先端のプロンプトベースのOOD検出方法を上回ることが示されている。
論文 参考訳(メタデータ) (2024-04-04T07:07:34Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - CLIP-driven Outliers Synthesis for few-shot OOD detection [40.6496321698913]
OOD検出は、トレーニング中に見つからないクラスに属するOOD(out-of-distriion)画像を認識することに焦点を当てている。
今のところ、主要な戦略はCLIPのような大規模ビジョン言語モデルに基づいている。
信頼性の高いOOD監視情報の欠如を克服するために,CLIP-OS(CLIP-driven Outliers Synthesis)を提案する。
論文 参考訳(メタデータ) (2024-03-30T11:28:05Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - CLIPN for Zero-Shot OOD Detection: Teaching CLIP to Say No [12.869519519172275]
Out-of-distriion (OOD) 検出とは、入力画像が未知のクラスから来ているかどうかを分類するために、そのモデルをIn-distriion (ID)データセットでトレーニングすることである。
本稿では,CLIP内でのNoを論理的に活用する新しい手法であるCLIP saying noを提案する。
論文 参考訳(メタデータ) (2023-08-23T15:51:36Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Generalized Open-World Semi-Supervised Object Detection [22.058195650206944]
本稿では, アンサンブルをベースとしたOODエクスプローラーと, 適応型半教師付きオブジェクト検出フレームワークを提案する。
提案手法は最先端のOOD検出アルゴリズムと競合し,IDクラスとOODクラスの両方の半教師付き学習性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-07-28T17:59:03Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。