論文の概要: Dual-Adapter: Training-free Dual Adaptation for Few-shot Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2405.16146v1
- Date: Sat, 25 May 2024 09:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 00:50:39.536071
- Title: Dual-Adapter: Training-free Dual Adaptation for Few-shot Out-of-Distribution Detection
- Title(参考訳): Dual-Adapter:Few-shot Out-of-Distribution Detectionのためのトレーニング不要なDual Adaptation
- Authors: Xinyi Chen, Yaohui Li, Haoxing Chen,
- Abstract要約: 本研究では,未確認カテゴリからのOODサンプルを推定時間中に検出することを目的とした,数発のアウト・オブ・ディストリビューション(OOD)検出の問題について検討する。
既存の手法は主にOOD検出のためのタスク認識プロンプトの訓練に重点を置いている。
テキストと視覚の両方の観点からOODサンプルを検出するための事前学習自由度適応法(Dual-Adapter)を提案する。
- 参考スコア(独自算出の注目度): 6.210614254974212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of few-shot out-of-distribution (OOD) detection, which aims to detect OOD samples from unseen categories during inference time with only a few labeled in-domain (ID) samples. Existing methods mainly focus on training task-aware prompts for OOD detection. However, training on few-shot data may cause severe overfitting and textual prompts alone may not be enough for effective detection. To tackle these problems, we propose a prior-based Training-free Dual Adaptation method (Dual-Adapter) to detect OOD samples from both textual and visual perspectives. Specifically, Dual-Adapter first extracts the most significant channels as positive features and designates the remaining less relevant channels as negative features. Then, it constructs both a positive adapter and a negative adapter from a dual perspective, thereby better leveraging previously outlooked or interfering features in the training dataset. In this way, Dual-Adapter can inherit the advantages of CLIP not having to train, but also excels in distinguishing between ID and OOD samples. Extensive experimental results on four benchmark datasets demonstrate the superiority of Dual-Adapter.
- Abstract(参考訳): 提案手法は,数個のドメイン内サンプルをラベル付けしただけで,未知のカテゴリからOODサンプルを検出することを目的として,数発のアウト・オブ・ディストリビューション(OOD)検出の問題について検討する。
既存の手法は主にOOD検出のためのタスク認識プロンプトの訓練に重点を置いている。
しかし、少数ショットデータのトレーニングは過度なオーバーフィッティングを引き起こす可能性があり、テキストによるプロンプトだけでは効果的な検出には不十分である。
これらの問題に対処するために、テキストと視覚の両方の観点からOODサンプルを検出する事前学習自由度適応法(Dual-Adapter)を提案する。
具体的には、Dual-Adapterはまず、最も重要なチャネルを肯定的な特徴として抽出し、残りの非関連チャネルを否定的な特徴として指定する。
そして、デュアルパースペクティブから正のアダプタと負のアダプタの両方を構築し、トレーニングデータセットでこれまで見てきた機能や干渉機能をよりよく活用する。
このように、Dual-AdapterはCLIPの利点を継承することができる。
4つのベンチマークデータセットの大規模な実験結果は、Dual-Adapterの優位性を示している。
関連論文リスト
- Self-Calibrated Tuning of Vision-Language Models for Out-of-Distribution Detection [24.557227100200215]
オープンソースアプリケーションに信頼性の高い機械学習モデルをデプロイするには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
近年のCLIPによるOOD検出の進歩は,IDデータから抽出したOOD特徴に即時調整を施すことによって有望な結果を示した。
提案手法は,SCT(Self-Calibrated Tuning)と呼ばれる新しいフレームワークで,与えられた数ショットのIDデータのみを用いて効果的なOOD検出を行う。
論文 参考訳(メタデータ) (2024-11-05T02:29:16Z) - Resultant: Incremental Effectiveness on Likelihood for Unsupervised Out-of-Distribution Detection [63.93728560200819]
unsupervised out-of-distribution (U-OOD) は、未表示のin-distriion(ID)データのみに基づいて訓練された検出器でデータサンプルを識別することである。
近年の研究は、DGMに基づく様々な検出器を開発し、可能性を超えて移動している。
本研究では,各方向,特にポストホック前とデータセットエントロピー・ミューチュアルキャリブレーションの2つの手法を適用した。
実験の結果、結果が新しい最先端のU-OOD検出器になる可能性が示された。
論文 参考訳(メタデータ) (2024-09-05T02:58:13Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - OOD Aware Supervised Contrastive Learning [13.329080722482187]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルの安全なデプロイにおいて重要な問題である。
我々は、Supervised Contrastive (SupCon)トレーニングで学んだ強力な表現を活用し、OODデータに対する堅牢性を学ぶための総合的なアプローチを提案する。
我々の解は単純で効率的であり、閉集合教師付きコントラスト表現学習の自然な拡張として機能する。
論文 参考訳(メタデータ) (2023-10-03T10:38:39Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - Supervision Adaptation Balancing In-distribution Generalization and
Out-of-distribution Detection [36.66825830101456]
In-distribution (ID) と Out-of-distribution (OOD) のサンプルは、ディープニューラルネットワークにおけるtextitdistributionalな脆弱性を引き起こす可能性がある。
我々は,OODサンプルに対する適応的な監視情報を生成するために,新しいテクスツパービジョン適応手法を導入し,IDサンプルとの互換性を高めた。
論文 参考訳(メタデータ) (2022-06-19T11:16:44Z) - How to Exploit Hyperspherical Embeddings for Out-of-Distribution
Detection? [22.519572587827213]
CIDERは、OOD検出に超球面埋め込みを利用する表現学習フレームワークである。
CIDERは優れたパフォーマンスを確立し、FPR95では19.36%で最新のライバルを上回った。
論文 参考訳(メタデータ) (2022-03-08T23:44:01Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。