論文の概要: Learning Transferable Negative Prompts for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2404.03248v1
- Date: Thu, 4 Apr 2024 07:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:33:48.689359
- Title: Learning Transferable Negative Prompts for Out-of-Distribution Detection
- Title(参考訳): アウト・オブ・ディストリビューション検出のための伝達可能な負のプロンプトの学習
- Authors: Tianqi Li, Guansong Pang, Xiao Bai, Wenjun Miao, Jin Zheng,
- Abstract要約: 負のプロンプトを学習するための新しいOOD検出手法「NegPrompt」を提案する。
外部の外れ値データに依存することなく、IDデータのみでそのような負のプロンプトを学習する。
さまざまなImageNetベンチマークの実験では、NegPromptが最先端のプロンプトベースのOOD検出方法を上回ることが示されている。
- 参考スコア(独自算出の注目度): 22.983892817676495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing prompt learning methods have shown certain capabilities in Out-of-Distribution (OOD) detection, but the lack of OOD images in the target dataset in their training can lead to mismatches between OOD images and In-Distribution (ID) categories, resulting in a high false positive rate. To address this issue, we introduce a novel OOD detection method, named 'NegPrompt', to learn a set of negative prompts, each representing a negative connotation of a given class label, for delineating the boundaries between ID and OOD images. It learns such negative prompts with ID data only, without any reliance on external outlier data. Further, current methods assume the availability of samples of all ID classes, rendering them ineffective in open-vocabulary learning scenarios where the inference stage can contain novel ID classes not present during training. In contrast, our learned negative prompts are transferable to novel class labels. Experiments on various ImageNet benchmarks show that NegPrompt surpasses state-of-the-art prompt-learning-based OOD detection methods and maintains a consistent lead in hard OOD detection in closed- and open-vocabulary classification scenarios. Code is available at https://github.com/mala-lab/negprompt.
- Abstract(参考訳): 既存の素早い学習手法は、アウト・オブ・ディストリビューション(OOD)検出の特定の機能を示しているが、トレーニング中のターゲットデータセットにおけるOODイメージの欠如は、OODイメージとイン・ディストリビューション(ID)カテゴリのミスマッチを引き起こす可能性があるため、偽陽性率が高い。
この問題に対処するために,各クラスラベルの負の意味を表す負のプロンプトの集合を学習するために,新しいOOD検出手法「NegPrompt」を導入する。
外部の外れ値データに依存することなく、IDデータのみでそのような負のプロンプトを学習する。
さらに、現在の手法では、全てのIDクラスのサンプルが利用可能であると仮定し、推論段階がトレーニング中に存在しない新しいIDクラスを含むようなオープン語彙学習シナリオでは、それらが有効でないと仮定する。
対照的に、学習した負のプロンプトは、新しいクラスラベルに転送可能である。
さまざまなImageNetベンチマークの実験によると、NegPromptは最先端のプロンプトベースのOOD検出手法を超越し、クローズドおよびオープンボキャブラリ分類シナリオにおけるハードOOD検出において一貫したリードを維持している。
コードはhttps://github.com/mala-lab/negprompt.comで入手できる。
関連論文リスト
- Semantic or Covariate? A Study on the Intractable Case of Out-of-Distribution Detection [70.57120710151105]
ID分布のセマンティック空間をより正確に定義する。
また,OOD と ID の区別性を保証する "Tractable OOD" の設定も定義する。
論文 参考訳(メタデータ) (2024-11-18T03:09:39Z) - AdaNeg: Adaptive Negative Proxy Guided OOD Detection with Vision-Language Models [15.754054667010468]
事前学習された視覚言語モデルは、負のラベルをガイダンスとして使用することにより、配布外サンプル(OOD)を特定するのに効果的である。
我々は,実際のOOD画像の探索により,テスト中に動的に生成されるテクスタダプティブな負のプロキシを提案する。
AUROCは2.45%増加し,FPR95は6.48%低下した。
論文 参考訳(メタデータ) (2024-10-26T11:20:02Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - CLIPN for Zero-Shot OOD Detection: Teaching CLIP to Say No [12.869519519172275]
Out-of-distriion (OOD) 検出とは、入力画像が未知のクラスから来ているかどうかを分類するために、そのモデルをIn-distriion (ID)データセットでトレーニングすることである。
本稿では,CLIP内でのNoを論理的に活用する新しい手法であるCLIP saying noを提案する。
論文 参考訳(メタデータ) (2023-08-23T15:51:36Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - LoCoOp: Few-Shot Out-of-Distribution Detection via Prompt Learning [37.36999826208225]
本稿では,数発のアウト・オブ・ディストリビューション(OOD)検出のための新しい視覚言語プロンプト学習手法を提案する。
LoCoOpは、トレーニング中にCLIPローカル機能の一部をOOD機能として利用するOOD正規化を実行する。
LoCoOpは、既存のゼロショットと完全に教師付き検出方法より優れている。
論文 参考訳(メタデータ) (2023-06-02T06:33:08Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。