論文の概要: BOOD: Boundary-based Out-Of-Distribution Data Generation
- arxiv url: http://arxiv.org/abs/2508.00350v1
- Date: Fri, 01 Aug 2025 06:34:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.752377
- Title: BOOD: Boundary-based Out-Of-Distribution Data Generation
- Title(参考訳): BOOD:バウンダリベースのアウトオフ・ディストリビューションデータ生成
- Authors: Qilin Liao, Shuo Yang, Bo Zhao, Ping Luo, Hengshuang Zhao,
- Abstract要約: 本稿では,境界に基づくOut-Of-Distribution Data Generation(BOOD)という新しいフレームワークを提案する。
BOODは高品質なOOD特徴を合成し、拡散モデルを用いて人間互換の外部画像を生成する。
- 参考スコア(独自算出の注目度): 47.47757472521503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Harnessing the power of diffusion models to synthesize auxiliary training data based on latent space features has proven effective in enhancing out-of-distribution (OOD) detection performance. However, extracting effective features outside the in-distribution (ID) boundary in latent space remains challenging due to the difficulty of identifying decision boundaries between classes. This paper proposes a novel framework called Boundary-based Out-Of-Distribution data generation (BOOD), which synthesizes high-quality OOD features and generates human-compatible outlier images using diffusion models. BOOD first learns a text-conditioned latent feature space from the ID dataset, selects ID features closest to the decision boundary, and perturbs them to cross the decision boundary to form OOD features. These synthetic OOD features are then decoded into images in pixel space by a diffusion model. Compared to previous works, BOOD provides a more training efficient strategy for synthesizing informative OOD features, facilitating clearer distinctions between ID and OOD data. Extensive experimental results on common benchmarks demonstrate that BOOD surpasses the state-of-the-art method significantly, achieving a 29.64% decrease in average FPR95 (40.31% vs. 10.67%) and a 7.27% improvement in average AUROC (90.15% vs. 97.42%) on the CIFAR-100 dataset.
- Abstract(参考訳): 遅延空間特徴に基づく補助訓練データを合成するための拡散モデルのパワーを損なうことは、オフ・オブ・ディストリビューション(OOD)検出性能を向上させるのに有効であることが証明された。
しかし、クラス間の決定境界の特定が困難であるため、潜在空間における非分配境界(ID)の外部で有効な特徴を抽出することは依然として困難である。
本稿では、高品質なOOD特徴を合成し、拡散モデルを用いて人間互換の外部画像を生成する、境界ベースのOut-Of-Distribution Data Generation(BOOD)という新しいフレームワークを提案する。
BOODはまず、IDデータセットからテキスト条件付き潜在機能空間を学習し、決定境界に最も近いID特徴を選択し、決定境界を越えてOOD特徴を形成するように摂動する。
これらの合成OOD特徴は拡散モデルにより画素空間内の画像にデコードされる。
BOODは、以前の研究と比較して、情報的OOD特徴を合成するためのより訓練的な効率的な戦略を提供し、IDとOODデータのより明確な区別を容易にする。
CIFAR-100データセットでは、BOODは平均FPR95(40.31%対10.67%)が29.64%減少し、平均AUROC(90.15%対97.42%)が7.27%改善した。
関連論文リスト
- Adversarially Robust Out-of-Distribution Detection Using Lyapunov-Stabilized Embeddings [1.0260351016050424]
AROSは、ニューラル常微分方程式(NODE)とリャプノフ安定性定理を利用する新しいアプローチである。
調整された損失関数により、リアプノフ安定性理論を適用し、分布内(ID)とOODデータが安定平衡点に収束することを保証する。
このアプローチは任意の摂動入力を安定平衡に戻すことを奨励し、それによってモデルの対向摂動に対する堅牢性を高める。
論文 参考訳(メタデータ) (2024-10-14T17:22:12Z) - Look Around and Find Out: OOD Detection with Relative Angles [24.369626931550794]
本稿では, 分布内構造に対して計算されるOOD検出のための新しい角度に基づく計量法を提案する。
提案手法は, CIFAR-10 と ImageNet ベンチマークの最先端性能を実現し, FPR95 を 0.88% と 7.74% 削減した。
論文 参考訳(メタデータ) (2024-10-06T15:36:07Z) - Can OOD Object Detectors Learn from Foundation Models? [56.03404530594071]
アウト・オブ・ディストリビューション(OOD)オブジェクト検出は、オープンセットのOODデータがないため、難しい課題である。
テキストから画像への生成モデルの最近の進歩に触発されて,大規模オープンセットデータを用いて訓練された生成モデルがOODサンプルを合成する可能性について検討した。
SyncOODは,大規模基盤モデルの能力を活用するシンプルなデータキュレーション手法である。
論文 参考訳(メタデータ) (2024-09-08T17:28:22Z) - Diffusion based Semantic Outlier Generation via Nuisance Awareness for Out-of-Distribution Detection [9.936136347796413]
アウト・オブ・ディストリビューション(OOD)検出は、最近、合成OODデータセットによるトレーニングを通じて有望な結果を示している。
本稿では, 難解な外乱を生じさせる新しいフレームワークであるセマンティック外乱生成手法(SONA)を提案する。
提案手法はSONAガイダンスを取り入れ,IDサンプルの意味領域とニュアンス領域を分離的に制御する。
論文 参考訳(メタデータ) (2024-08-27T07:52:44Z) - Enhancing OOD Detection Using Latent Diffusion [5.093257685701887]
Out-of-Distribution (OOD) 検出アルゴリズムは、現実世界のデプロイにおいて未知のサンプルやオブジェクトを特定するために開発された。
潜在空間におけるOOD学習データを合成するoutlier Aware Learningフレームワークを提案する。
また,OODデータを用いたトレーニングにおいて,ID分類精度の低下を防止するための知識蒸留モジュールを開発した。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Fast Decision Boundary based Out-of-Distribution Detector [7.04686607977352]
アウト・オブ・ディストリビューション(OOD)検出は、AIシステムの安全なデプロイに不可欠である。
既存の特徴空間法は有効であるが、しばしば計算上のオーバーヘッドを生じさせる。
補助モデルを用いない計算効率の良いOOD検出器を提案する。
論文 参考訳(メタデータ) (2023-12-15T19:50:32Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - A knee cannot have lung disease: out-of-distribution detection with
in-distribution voting using the medical example of chest X-ray
classification [58.720142291102135]
この研究では、胸部X線分類モデルであるCheXnetを用いて、胸部X線14データセットをトレーニングした。
複数ラベル分類のためのOODデータを検出するために,IDV(In-distriion voting)を提案する。
ID (chest X-ray 14) と OOD データ (IRMA と ImageNet) に基づいてトレーニングした IDV アプローチは,平均で3つのデータセットにわたる 0.999 OOD 検出 AUC を達成した。
論文 参考訳(メタデータ) (2022-08-01T18:20:36Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。