論文の概要: Enhancing Few-Shot Out-of-Distribution Detection with Gradient Aligned Context Optimization
- arxiv url: http://arxiv.org/abs/2411.15736v1
- Date: Sun, 24 Nov 2024 06:51:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:55.848150
- Title: Enhancing Few-Shot Out-of-Distribution Detection with Gradient Aligned Context Optimization
- Title(参考訳): グラディエントアラインドコンテキスト最適化によるFew-Shotout-of-Distribution検出の高速化
- Authors: Baoshun Tong, Kaiyu Song, Hanjiang Lai,
- Abstract要約: OOD (Few-shot Out-of-Distribution) 検出は、未確認のクラスから、わずかにラベル付きIn-Distribution (ID) 画像で OOD 画像を検出することを目的としている。
OOD知識としてIDサンプルの背景領域について,従来手法が提案されてきた。
本稿では、この勾配競合を軽減するために、勾配アラインドコンテキスト最適化(GaCoOp)を提案する。
- 参考スコア(独自算出の注目度): 6.549059375031384
- License:
- Abstract: Few-shot out-of-distribution (OOD) detection aims to detect OOD images from unseen classes with only a few labeled in-distribution (ID) images. To detect OOD images and classify ID samples, prior methods have been proposed by regarding the background regions of ID samples as the OOD knowledge and performing OOD regularization and ID classification optimization. However, the gradient conflict still exists between ID classification optimization and OOD regularization caused by biased recognition. To address this issue, we present Gradient Aligned Context Optimization (GaCoOp) to mitigate this gradient conflict. Specifically, we decompose the optimization gradient to identify the scenario when the conflict occurs. Then we alleviate the conflict in inner ID samples and optimize the prompts via leveraging gradient projection. Extensive experiments over the large-scale ImageNet OOD detection benchmark demonstrate that our GaCoOp can effectively mitigate the conflict and achieve great performance. Code will be available at https://github.com/BaoshunWq/ood-GaCoOp.
- Abstract(参考訳): OOD (Few-shot Out-of-Distribution) 検出は、未確認のクラスから、わずかにラベル付きIn-Distribution (ID) 画像で OOD 画像を検出することを目的としている。
OOD画像を検出し、IDサンプルを分類するために、OOD知識としてIDサンプルの背景領域を考慮し、OOD正規化とID分類最適化を行う手法が提案されている。
しかし、ID分類最適化と偏見認識によるOOD正規化との間には、勾配の衝突がまだ残っている。
この問題に対処するため、この勾配競合を軽減するため、グラディエント・アラインド・コンテキスト最適化(GaCoOp)を提案する。
具体的には、競合が発生した場合のシナリオを特定するために最適化勾配を分解する。
次に、内部IDサンプルの競合を緩和し、勾配投影を利用してプロンプトを最適化する。
大規模なImageNet OOD検出ベンチマークに対する大規模な実験により、当社のGaCoOpは競合を効果的に軽減し、優れたパフォーマンスを実現できます。
コードはhttps://github.com/BaoshunWq/ood-GaCoOp.comから入手できる。
関連論文リスト
- Going Beyond Conventional OOD Detection [0.0]
アウト・オブ・ディストリビューション(OOD)検出は、重要なアプリケーションにディープラーニングモデルの安全なデプロイを保証するために重要である。
従来型OOD検出(ASCOOD)への統一的アプローチを提案する。
提案手法は, スパイラル相関の影響を効果的に軽減し, 微粒化特性の獲得を促す。
論文 参考訳(メタデータ) (2024-11-16T13:04:52Z) - AdaNeg: Adaptive Negative Proxy Guided OOD Detection with Vision-Language Models [15.754054667010468]
事前学習された視覚言語モデルは、負のラベルをガイダンスとして使用することにより、配布外サンプル(OOD)を特定するのに効果的である。
我々は,実際のOOD画像の探索により,テスト中に動的に生成されるテクスタダプティブな負のプロキシを提案する。
AUROCは2.45%増加し,FPR95は6.48%低下した。
論文 参考訳(メタデータ) (2024-10-26T11:20:02Z) - Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - GROOD: GRadient-aware Out-Of-Distribution detection in interpolated
manifolds [12.727088216619386]
ディープニューラルネットワーク(DNN)におけるアウト・オブ・ディストリビューション検出は、現実世界のデプロイメントにおいてリスクを引き起こす可能性がある。
グラディエント・アウェア・アウトオフ・ディストリビューション検出を導入。
ネイティブ多様体(Internative manifold, GROOD)は、勾配空間の識別力に依存する新しいフレームワークである。
GRODが最先端のベースラインの確立された堅牢性を上回ることを示す。
論文 参考訳(メタデータ) (2023-12-22T04:28:43Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - DiffGuard: Semantic Mismatch-Guided Out-of-Distribution Detection using
Pre-trained Diffusion Models [25.58447344260747]
我々はDiffGuardという名前のセマンティックミスマッチ誘導OOD検出に事前学習拡散モデルを用いている。
実験により、DiffGuardはCifar-10と大規模ImageNetのハードケースの両方で有効であることが示された。
既存のOOD検出技術と簡単に組み合わせて、最先端のOOD検出結果が得られる。
論文 参考訳(メタデータ) (2023-08-15T10:37:04Z) - Out-of-Distributed Semantic Pruning for Robust Semi-Supervised Learning [17.409939628100517]
我々は,OODセマンティック・プルーニング(OSP)と呼ばれる統合フレームワークを提案する。
OSPは、ID分類の精度を13.7%、TinyImageNetデータセットのOOD検出のAUROCの5.9%に上回っている。
論文 参考訳(メタデータ) (2023-05-29T15:37:07Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。