論文の概要: Out-of-Distribution Detection in Long-Tailed Recognition with Calibrated
Outlier Class Learning
- arxiv url: http://arxiv.org/abs/2312.10686v2
- Date: Tue, 19 Dec 2023 07:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 12:20:15.112320
- Title: Out-of-Distribution Detection in Long-Tailed Recognition with Calibrated
Outlier Class Learning
- Title(参考訳): 校正付き異常クラス学習を用いたロングテール認識における分布外検出
- Authors: Wenjun Miao, Guansong Pang, Tianqi Li, Xiao Bai, Jin Zheng
- Abstract要約: 既存のアウト・オブ・ディストリビューション(OOD)手法は、バランスの取れたデータセットで大きな成功を収めている。
OODサンプルは、しばしば誤ってヘッドクラスに分類され、/またはテールクラスのサンプルはOODサンプルとして扱われる。
提案手法では,1)オフレイアクラス学習において,OODサンプルを表現空間の頭と尾の両方のクラスと区別するために,デバイアスド・大型辺縁学習法を導入し,2)オフレイアクラスを意識したロジット校正法を定義し,長い尾の分類信頼性を高める。
- 参考スコア(独自算出の注目度): 24.6581764192229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing out-of-distribution (OOD) methods have shown great success on
balanced datasets but become ineffective in long-tailed recognition (LTR)
scenarios where 1) OOD samples are often wrongly classified into head classes
and/or 2) tail-class samples are treated as OOD samples. To address these
issues, current studies fit a prior distribution of auxiliary/pseudo OOD data
to the long-tailed in-distribution (ID) data. However, it is difficult to
obtain such an accurate prior distribution given the unknowingness of real OOD
samples and heavy class imbalance in LTR. A straightforward solution to avoid
the requirement of this prior is to learn an outlier class to encapsulate the
OOD samples. The main challenge is then to tackle the aforementioned confusion
between OOD samples and head/tail-class samples when learning the outlier
class. To this end, we introduce a novel calibrated outlier class learning
(COCL) approach, in which 1) a debiased large margin learning method is
introduced in the outlier class learning to distinguish OOD samples from both
head and tail classes in the representation space and 2) an outlier-class-aware
logit calibration method is defined to enhance the long-tailed classification
confidence. Extensive empirical results on three popular benchmarks CIFAR10-LT,
CIFAR100-LT, and ImageNet-LT demonstrate that COCL substantially outperforms
state-of-the-art OOD detection methods in LTR while being able to improve the
classification accuracy on ID data. Code is available at
https://github.com/mala-lab/COCL.
- Abstract(参考訳): 既存のアウト・オブ・ディストリビューション(OOD)手法は、バランスの取れたデータセットでは大きな成功を収めているが、LTR(Long-tailed Recognition)シナリオでは効果がない。
1)OODサンプルは、しばしば誤ってヘッドクラスまたは/または/に分類される
2)尾型試料はOOD試料として処理される。
これらの問題に対処するため、近年の研究では、補助/擬似OODデータの長期分布(ID)データに適合する。
しかし、実際のOODサンプルの無知とLTRの重クラス不均衡を考えると、そのような正確な事前分布を得るのは難しい。
この前の要件を避けるための簡単な解決策は、OODサンプルをカプセル化する外れ値クラスを学ぶことである。
主な課題は、前述のOODサンプルとヘッド/テールクラスのサンプルとの混同に対処することである。
そこで本研究では,新しい校正校正校正校正授業学習(cocl)手法を提案する。
1)OODサンプルを表現空間における頭と尾の両方のクラスと区別するために,デバイアスド大マージン学習法を導入する。
2) 長期分類信頼性を高めるために, 対数検定法を定義した。
CIFAR10-LT, CIFAR100-LT, ImageNet-LTの3つのベンチマークによる大規模な実験結果から, COCLはIDデータの分類精度を向上しつつ, LTRにおける最先端のOOD検出方法を大幅に上回っていることが示された。
コードはhttps://github.com/mala-lab/COCLで入手できる。
関連論文リスト
- Long-Tailed Out-of-Distribution Detection via Normalized Outlier Distribution Adaptation [24.216526107669345]
アウト・オブ・ディストリビューション(OOD)検出における重要な課題は、トレーニング中に接地型OODサンプルが存在しないことである。
この分散シフト問題に対処するために、正規化外乱分布適応(AdaptOD)を提案する。
AdaptODは、外れ値サンプルに基づいてバニラの外れ値分布を真のOOD分布に効果的に適応する。
論文 参考訳(メタデータ) (2024-10-28T07:54:29Z) - Representation Norm Amplification for Out-of-Distribution Detection in Long-Tail Learning [10.696635172502141]
提案手法はtextitRepresentation Norm Amplification (RNA) と呼ばれ, 分布外サンプルの検出の問題を解決する。
実験により、RNAは最先端の方法と比較してOODの検出と分類の両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-08-20T09:27:07Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Partial and Asymmetric Contrastive Learning for Out-of-Distribution
Detection in Long-Tailed Recognition [80.07843757970923]
既存のOOD検出手法は,トレーニングセットが長距離分布している場合,大幅な性能劣化に悩まされていることを示す。
本稿では,部分的および非対称的な教師付きコントラスト学習(PASCL)を提案する。
我々の手法は従来の最先端の手法を1.29%$, $1.45%$, $0.69%$異常検出偽陽性率(FPR)と$3.24%$, 4,.06%$, 7,89%$in-distributionで上回ります。
論文 参考訳(メタデータ) (2022-07-04T01:53:07Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - On The Consistency Training for Open-Set Semi-Supervised Learning [44.046578996049654]
我々は,OODサンプルが低次元空間と高次元空間のトレーニングに与える影響について検討した。
提案手法はOODサンプルをよりよく利用し,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-01-19T12:38:17Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。