論文の概要: Synthesizing Near-Boundary OOD Samples for Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2507.10225v1
- Date: Mon, 14 Jul 2025 12:43:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.875931
- Title: Synthesizing Near-Boundary OOD Samples for Out-of-Distribution Detection
- Title(参考訳): オフ・オブ・ディストリビューション検出のための近接境界OODサンプルの合成
- Authors: Jinglun Li, Kaixun Jiang, Zhaoyu Chen, Bo Lin, Yao Tang, Weifeng Ge, Wenqiang Zhang,
- Abstract要約: 我々は,CLIPモデルを微調整するために,基礎モデルを利用して合成・挑戦的なOODデータを生成する新しいアプローチであるSynOODを提案する。
本手法は,MLLMからの文脈的プロンプトによって導かれる反復的インペイントプロセスを用いて,ニュアンス・バウンダリ・アラインなOODサンプルを生成する。
提案手法は既存の手法を大きく上回り,AUROCを2.80%改善し,FPR95を11.13%削減した。
- 参考スコア(独自算出の注目度): 29.60495918177021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained vision-language models have exhibited remarkable abilities in detecting out-of-distribution (OOD) samples. However, some challenging OOD samples, which lie close to in-distribution (InD) data in image feature space, can still lead to misclassification. The emergence of foundation models like diffusion models and multimodal large language models (MLLMs) offers a potential solution to this issue. In this work, we propose SynOOD, a novel approach that harnesses foundation models to generate synthetic, challenging OOD data for fine-tuning CLIP models, thereby enhancing boundary-level discrimination between InD and OOD samples. Our method uses an iterative in-painting process guided by contextual prompts from MLLMs to produce nuanced, boundary-aligned OOD samples. These samples are refined through noise adjustments based on gradients from OOD scores like the energy score, effectively sampling from the InD/OOD boundary. With these carefully synthesized images, we fine-tune the CLIP image encoder and negative label features derived from the text encoder to strengthen connections between near-boundary OOD samples and a set of negative labels. Finally, SynOOD achieves state-of-the-art performance on the large-scale ImageNet benchmark, with minimal increases in parameters and runtime. Our approach significantly surpasses existing methods, improving AUROC by 2.80% and reducing FPR95 by 11.13%. Codes are available in https://github.com/Jarvisgivemeasuit/SynOOD.
- Abstract(参考訳): 事前学習された視覚言語モデルは、配布外サンプル(OOD)の検出において顕著な能力を示した。
しかし、画像特徴空間におけるIn-distriion(InD)データに近いOODサンプルのいくつかは、いまだに誤分類につながる可能性がある。
拡散モデルやマルチモーダル大言語モデル(MLLM)のような基礎モデルの出現は、この問題に対する潜在的な解決策を提供する。
そこで本研究では,CLIPモデルのための合成OODデータを生成するための基礎モデルを利用した新しい手法であるSynOODを提案する。
本手法は,MLLMからの文脈的プロンプトによって導かれる反復的インペイントプロセスを用いて,ニュアンス・バウンダリ・アラインなOODサンプルを生成する。
これらのサンプルは、エネルギースコアのようなOODスコアからの勾配に基づいてノイズ調整によって精製され、InD/OOD境界から効果的にサンプリングされる。
これらの精巧な合成画像を用いて、テキストエンコーダから得られたCLIP画像エンコーダと負のラベル特徴を微調整し、近縁なOODサンプルと負のラベルの集合との接続を強化する。
最後に、SynOODは大規模なImageNetベンチマークで最先端のパフォーマンスを達成し、パラメータとランタイムが最小限に増加する。
提案手法は既存の手法を大きく上回り,AUROCを2.80%改善し,FPR95を11.13%削減した。
コードはhttps://github.com/Jarvisgivemeasuit/SynOOD.comで公開されている。
関連論文リスト
- AdaSCALE: Adaptive Scaling for OOD Detection [0.0]
オフ・オブ・ディストリビューション(OOD)検出法は、アクティベーション・シェーピングを利用して、イン・ディストリビューション(ID)とOOD入力の分離を改善する。
サンプルのOOD推定値に基づいてパーセンタイル閾値を動的に調整する適応スケーリング手法である textbfAdaSCALE を提案する。
提案手法は,最新のOOD検出性能を実現し,画像Net-1kベンチマークの平均FPR@95値において,OptFSを14.94倍,FPR@95値で21.67倍に向上させた。
論文 参考訳(メタデータ) (2025-03-11T04:10:06Z) - Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - Perturb-and-Compare Approach for Detecting Out-of-Distribution Samples in Constrained Access Environments [20.554546406575]
我々は,モデルのパラメータやアクティベーションがエンドユーザにアクセスできない場合でも適用可能なOOD検出フレームワークであるMixDiffを提案する。
モデルからの過信出力を誘導するOODサンプルの識別におけるMixDiffの有効性について理論的解析を行った。
論文 参考訳(メタデータ) (2024-08-19T15:51:31Z) - Rethinking the Evaluation of Out-of-Distribution Detection: A Sorites Paradox [70.57120710151105]
既存のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、サンプルを新しいラベルでOODデータとして分類する。
いくつかの限界OODサンプルは、実際には分布内(ID)サンプルに密接なセマンティック内容を持ち、OODサンプルをソリテスパラドックス(英語版)と判定する。
この問題に対処するため,Incremental Shift OOD (IS-OOD) というベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T09:27:56Z) - Deep Metric Learning-Based Out-of-Distribution Detection with Synthetic Outlier Exposure [0.0]
Denoising Diffusion Probabilistic Models (DDPM) を用いたOODデータ生成のためのラベル混合手法を提案する。
実験の結果,メトリック学習に基づく損失関数はソフトマックスよりも優れていた。
提案手法は従来のOOD検出指標において高いベースラインを達成している。
論文 参考訳(メタデータ) (2024-05-01T16:58:22Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Estimating Soft Labels for Out-of-Domain Intent Detection [122.68266151023676]
Out-of-Domain (OOD)インテント検出は,実際の対話システムにおいて重要である。
擬似OODサンプルに対するソフトラベルを推定できる適応型ソフト擬似ラベル法(ASoul)を提案する。
論文 参考訳(メタデータ) (2022-11-10T13:31:13Z) - Semantic Image Synthesis via Diffusion Models [174.24523061460704]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に事実上のGANベースのアプローチに従っている。
意味画像合成のためのDDPMに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Energy-bounded Learning for Robust Models of Code [16.592638312365164]
プログラミングでは、コード表現の学習には、コード分類、コード検索、コメント生成、バグ予測など、さまざまなアプリケーションがある。
本稿では,ソースコードモデルのトレーニングプロセスにこれらのアウト・オブ・ディストリビューション・サンプルを組み込むため,エネルギー境界学習目標関数を用いて,イン・ディストリビューション・サンプルにより高いスコアを割り当て,アウト・オブ・ディストリビューション・サンプルに低いスコアを割り当てることを提案する。
論文 参考訳(メタデータ) (2021-12-20T06:28:56Z) - Label Smoothed Embedding Hypothesis for Out-of-Distribution Detection [72.35532598131176]
我々は,$k$-NN 密度推定値を用いて OOD サンプルを検出する教師なし手法を提案する。
emphLabel Smoothed Embedding hypothesis と呼ばれるラベル平滑化に関する最近の知見を活用する。
提案手法は,多くのOODベースラインを上回り,新しい有限サンプル高確率統計結果を提供することを示す。
論文 参考訳(メタデータ) (2021-02-09T21:04:44Z) - On The Consistency Training for Open-Set Semi-Supervised Learning [44.046578996049654]
我々は,OODサンプルが低次元空間と高次元空間のトレーニングに与える影響について検討した。
提案手法はOODサンプルをよりよく利用し,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-01-19T12:38:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。