論文の概要: Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2207.01160v1
- Date: Mon, 4 Jul 2022 01:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 13:30:28.427510
- Title: Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition
- Title(参考訳): ロングテール認識における分布外検出のための部分的および非対称コントラスト学習
- Authors: Haotao Wang, Aston Zhang, Yi Zhu, Shuai Zheng, Mu Li, Alex Smola,
Zhangyang Wang
- Abstract要約: 既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
- 参考スコア(独自算出の注目度): 80.07843757970923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing out-of-distribution (OOD) detection methods are typically
benchmarked on training sets with balanced class distributions. However, in
real-world applications, it is common for the training sets to have long-tailed
distributions. In this work, we first demonstrate that existing OOD detection
methods commonly suffer from significant performance degradation when the
training set is long-tail distributed. Through analysis, we posit that this is
because the models struggle to distinguish the minority tail-class
in-distribution samples, from the true OOD samples, making the tail classes
more prone to be falsely detected as OOD. To solve this problem, we propose
Partial and Asymmetric Supervised Contrastive Learning (PASCL), which
explicitly encourages the model to distinguish between tail-class
in-distribution samples and OOD samples. To further boost in-distribution
classification accuracy, we propose Auxiliary Branch Finetuning, which uses two
separate branches of BN and classification layers for anomaly detection and
in-distribution classification, respectively. The intuition is that
in-distribution and OOD anomaly data have different underlying distributions.
Our method outperforms previous state-of-the-art method by $1.29\%$, $1.45\%$,
$0.69\%$ anomaly detection false positive rate (FPR) and $3.24\%$, $4.06\%$,
$7.89\%$ in-distribution classification accuracy on CIFAR10-LT, CIFAR100-LT,
and ImageNet-LT, respectively. Code and pre-trained models are available at
https://github.com/amazon-research/long-tailed-ood-detection.
- Abstract(参考訳): 既存のアウト・オブ・ディストリビューション(OOD)検出方法は通常、バランスの取れたクラス分布を持つトレーニングセット上でベンチマークされる。
しかし、実世界のアプリケーションでは、トレーニングセットがロングテール分布を持つことが一般的である。
本研究では,既存のOOD検出手法が,トレーニングセットが長期分布している場合,性能劣化に悩まされることを実証する。
分析により,本モデルでは,本モデルが真のOODサンプルとマイノリティーなテールクラス内分布サンプルの識別に苦慮しているため,テールクラスがOODとして誤検出されやすいことが示唆された。
そこで本研究では,尾部クラス内分布サンプルとoodサンプルの区別を明示的に奨励する部分的および非対称教師付きコントラスト学習(pascl)を提案する。
分布分類の精度をさらに高めるために,bnの2つの分枝と分類層をそれぞれ異常検出と分布分類に用いる補助分岐微調整法を提案する。
直感的には、分布内およびOOD異常データは、下層の分布が異なる。
提案手法は, CIFAR10-LT, CIFAR100-LT, ImageNet-LTにおいて, Anomaly Detection false positive rate (FPR), $3.24\%$, $4.06\%$, 7,89\%$ in-distribution classification accuracy をそれぞれ1.29\%$, $1.45\%$, $0.69\%$, $.24\%$で比較した。
コードと事前学習されたモデルはhttps://github.com/amazon-research/long-tailed-ood-detectionで入手できる。
関連論文リスト
- Long-Tailed Out-of-Distribution Detection via Normalized Outlier Distribution Adaptation [24.216526107669345]
アウト・オブ・ディストリビューション(OOD)検出における重要な課題は、トレーニング中に接地型OODサンプルが存在しないことである。
この分散シフト問題に対処するために、正規化外乱分布適応(AdaptOD)を提案する。
AdaptODは、外れ値サンプルに基づいてバニラの外れ値分布を真のOOD分布に効果的に適応する。
論文 参考訳(メタデータ) (2024-10-28T07:54:29Z) - Representation Norm Amplification for Out-of-Distribution Detection in Long-Tail Learning [10.696635172502141]
提案手法はtextitRepresentation Norm Amplification (RNA) と呼ばれ, 分布外サンプルの検出の問題を解決する。
実験により、RNAは最先端の方法と比較してOODの検出と分類の両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-20T09:27:07Z) - Out-of-Distribution Detection in Long-Tailed Recognition with Calibrated
Outlier Class Learning [24.6581764192229]
既存のアウト・オブ・ディストリビューション(OOD)手法は、バランスの取れたデータセットで大きな成功を収めている。
OODサンプルは、しばしば誤ってヘッドクラスに分類され、/またはテールクラスのサンプルはOODサンプルとして扱われる。
提案手法では,1)オフレイアクラス学習において,OODサンプルを表現空間の頭と尾の両方のクラスと区別するために,デバイアスド・大型辺縁学習法を導入し,2)オフレイアクラスを意識したロジット校正法を定義し,長い尾の分類信頼性を高める。
論文 参考訳(メタデータ) (2023-12-17T11:11:02Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Model-free Test Time Adaptation for Out-Of-Distribution Detection [62.49795078366206]
我々はtextbfDistribution textbfDetection (abbr) のための非パラメトリックテスト時間 textbfAdaptation フレームワークを提案する。
Abbrは、オンラインテストサンプルを使用して、テスト中のモデル適応、データ分散の変更への適応性を向上させる。
複数のOOD検出ベンチマークにおける包括的実験により,abrの有効性を示す。
論文 参考訳(メタデータ) (2023-11-28T02:00:47Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。