論文の概要: Long-Tailed Out-of-Distribution Detection via Normalized Outlier Distribution Adaptation
- arxiv url: http://arxiv.org/abs/2410.20807v1
- Date: Mon, 28 Oct 2024 07:54:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:22:26.731747
- Title: Long-Tailed Out-of-Distribution Detection via Normalized Outlier Distribution Adaptation
- Title(参考訳): 正規化外周分布適応による長期分布検出
- Authors: Wenjun Miao, Guansong Pang, Jin Zheng, Xiao Bai,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出における重要な課題は、トレーニング中に接地型OODサンプルが存在しないことである。
この問題に対処するための原則的なアプローチのひとつは、外部データセットからのサンプルをアウトラヤとして使用することだ。
この分散シフト問題に対処するために、正規化外乱分布適応(AdaptOD)を提案する。
- 参考スコア(独自算出の注目度): 24.216526107669345
- License:
- Abstract: One key challenge in Out-of-Distribution (OOD) detection is the absence of ground-truth OOD samples during training. One principled approach to address this issue is to use samples from external datasets as outliers (i.e., pseudo OOD samples) to train OOD detectors. However, we find empirically that the outlier samples often present a distribution shift compared to the true OOD samples, especially in Long-Tailed Recognition (LTR) scenarios, where ID classes are heavily imbalanced, \ie, the true OOD samples exhibit very different probability distribution to the head and tailed ID classes from the outliers. In this work, we propose a novel approach, namely normalized outlier distribution adaptation (AdaptOD), to tackle this distribution shift problem. One of its key components is dynamic outlier distribution adaptation that effectively adapts a vanilla outlier distribution based on the outlier samples to the true OOD distribution by utilizing the OOD knowledge in the predicted OOD samples during inference. Further, to obtain a more reliable set of predicted OOD samples on long-tailed ID data, a novel dual-normalized energy loss is introduced in AdaptOD, which leverages class- and sample-wise normalized energy to enforce a more balanced prediction energy on imbalanced ID samples. This helps avoid bias toward the head samples and learn a substantially better vanilla outlier distribution than existing energy losses during training. It also eliminates the need of manually tuning the sensitive margin hyperparameters in energy losses. Empirical results on three popular benchmarks for OOD detection in LTR show the superior performance of AdaptOD over state-of-the-art methods. Code is available at \url{https://github.com/mala-lab/AdaptOD}.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出における重要な課題の1つは、トレーニング中にグラウンド・トゥルース OOD サンプルが存在しないことである。
この問題に対処するための原則的なアプローチの1つは、外部データセットからのサンプルを、OOD検出器をトレーニングするために、外れ値(擬似OODサンプル)として使用することである。
しかし,実際のOODサンプルと比較して,特にLong-Tailed Recognition(LTR)シナリオでは,真のOODサンプルは,頭と尾のIDクラスに対して,非常に異なる確率分布を示す。
本研究では,この分散シフト問題に対処するために,正規化外乱分布適応(AdaptOD)という新しい手法を提案する。
その重要な構成要素の1つは、予測されたOODサンプルのOOD知識を利用して、外乱サンプルに基づいてバニラ外乱分布を真のOOD分布に効果的に適応する動的外乱分布適応である。
さらに、長い尾のIDデータ上で予測されたOODサンプルの信頼性を高めるために、アンバランスなIDサンプルによりバランスの取れた予測エネルギーを強制するために、クラスおよびサンプルの正常化エネルギーを利用するAdaptODに新しい二重正規化エネルギー損失を導入する。
これにより、ヘッドサンプルに対するバイアスを回避し、トレーニング中の既存のエネルギー損失よりもはるかに優れたバニラ外れ値分布を学習することができる。
また、エネルギー損失に敏感なマージンハイパーパラメータを手動で調整する必要もなくなる。
LTRにおけるOOD検出のための3つの一般的なベンチマークの実証結果は、最先端手法よりもAdaptODの優れた性能を示している。
コードは \url{https://github.com/mala-lab/AdaptOD} で入手できる。
関連論文リスト
- Rethinking Out-of-Distribution Detection on Imbalanced Data Distribution [38.844580833635725]
アーキテクチャ設計におけるバイアスを緩和し,不均衡なOOD検出器を増強する訓練時間正規化手法を提案する。
提案手法は,CIFAR10-LT,CIFAR100-LT,ImageNet-LTのベンチマークに対して一貫した改良を行う。
論文 参考訳(メタデータ) (2024-07-23T12:28:59Z) - Out-of-Distribution Detection with a Single Unconditional Diffusion Model [54.15132801131365]
アウト・オブ・ディストリビューション(OOD)検出は、異常サンプルを特定しようとする機械学習において重要なタスクである。
従来、教師なし手法はOOD検出に深い生成モデルを用いていた。
本稿では,単一モデルが多様なタスクに対してOOD検出を行うことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T08:54:03Z) - Detecting Out-of-Distribution Samples via Conditional Distribution
Entropy with Optimal Transport [20.421338676377587]
トレーニングサンプルとテストインプットの両方から幾何情報を含む経験的確率分布は,OOD検出に極めて有用である。
最適輸送の枠組みの中では,OODサンプルであるテスト入力の不確かさを定量化するため,エントロピー(enmphconditional distribution entropy)と呼ばれる新しいスコア関数を提案する。
論文 参考訳(メタデータ) (2024-01-22T07:07:32Z) - Out-of-Distribution Detection in Long-Tailed Recognition with Calibrated
Outlier Class Learning [24.6581764192229]
既存のアウト・オブ・ディストリビューション(OOD)手法は、バランスの取れたデータセットで大きな成功を収めている。
OODサンプルは、しばしば誤ってヘッドクラスに分類され、/またはテールクラスのサンプルはOODサンプルとして扱われる。
提案手法では,1)オフレイアクラス学習において,OODサンプルを表現空間の頭と尾の両方のクラスと区別するために,デバイアスド・大型辺縁学習法を導入し,2)オフレイアクラスを意識したロジット校正法を定義し,長い尾の分類信頼性を高める。
論文 参考訳(メタデータ) (2023-12-17T11:11:02Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition [80.07843757970923]
既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
論文 参考訳(メタデータ) (2022-07-04T01:53:07Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。