論文の概要: RICASSO: Reinforced Imbalance Learning with Class-Aware Self-Supervised Outliers Exposure
- arxiv url: http://arxiv.org/abs/2410.10548v1
- Date: Mon, 14 Oct 2024 14:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 20:55:06.303801
- Title: RICASSO: Reinforced Imbalance Learning with Class-Aware Self-Supervised Outliers Exposure
- Title(参考訳): RICASSO:クラス対応型自己監督型外乱露光による強化型不均衡学習
- Authors: Xuan Zhang, Sin Chee Chin, Tingxuan Gao, Wenming Yang,
- Abstract要約: ディープラーニングモデルは、不均衡(ロングテール)とアウト・オブ・ディストリビューション(OOD)の両方のデータから、しばしば課題に直面します。
本研究は、データ混合により、IDデータとOODデータの両方の特徴を示す擬似OODデータを生成することができることを示す。
RICASSO(Reinforced Im Balance Learning)と呼ばれる統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.809270017579806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real-world scenarios, deep learning models often face challenges from both imbalanced (long-tailed) and out-of-distribution (OOD) data. However, existing joint methods rely on real OOD data, which leads to unnecessary trade-offs. In contrast, our research shows that data mixing, a potent augmentation technique for long-tailed recognition, can generate pseudo-OOD data that exhibit the features of both in-distribution (ID) data and OOD data. Therefore, by using mixed data instead of real OOD data, we can address long-tailed recognition and OOD detection holistically. We propose a unified framework called Reinforced Imbalance Learning with Class-Aware Self-Supervised Outliers Exposure (RICASSO), where "self-supervised" denotes that we only use ID data for outlier exposure. RICASSO includes three main strategies: Norm-Odd-Duality-Based Outlier Exposure: Uses mixed data as pseudo-OOD data, enabling simultaneous ID data rebalancing and outlier exposure through a single loss function. Ambiguity-Aware Logits Adjustment: Utilizes the ambiguity of ID data to adaptively recalibrate logits. Contrastive Boundary-Center Learning: Combines Virtual Boundary Learning and Dual-Entropy Center Learning to use mixed data for better feature separation and clustering, with Representation Consistency Learning for robustness. Extensive experiments demonstrate that RICASSO achieves state-of-the-art performance in long-tailed recognition and significantly improves OOD detection compared to our baseline (27% improvement in AUROC and 61% reduction in FPR on the iNaturalist2018 dataset). On iNaturalist2018, we even outperforms methods using real OOD data. The code will be made public soon.
- Abstract(参考訳): 現実世界のシナリオでは、ディープラーニングモデルは、不均衡(ロングテール)とアウト・オブ・ディストリビューション(OOD)の両方のデータから問題に直面します。
しかし、既存のジョイントメソッドは実際のOODデータに依存しており、不要なトレードオフを引き起こします。
対照的に、長い尾の認識のための強力な拡張技術であるデータミキシングは、分布内(ID)データとOODデータの両方の特徴を示す擬似OODデータを生成することができることを示す。
したがって、実際のOODデータの代わりに混合データを使用することで、長い尾の認識とOOD検出を論理的に扱うことができる。
RICASSO(Reinforced Im Balance Learning with Class-Aware Self-Supervised Outliers Exposure)と呼ばれる統合フレームワークを提案する。
Norm-Odd-Duality-Based Outlier Exposure: 混合データを擬似OODデータとして使用し、単一損失関数を通じてIDデータの再バランスとアウトレイラ露光を可能にする。
Ambiguity-Aware Logits Adjustment: IDデータのあいまいさを利用して、ログを適応的に再分類する。
対照的な境界中心学習: 仮想境界学習とデュアルエントロピーセンター学習を組み合わせて、特徴分離とクラスタリングを改善するために混合データを使用する。
広汎な実験により、RICASSOは長い尾の認識において最先端の性能を達成し、OOD検出をベースラインと比較して大幅に改善する(AUROCの27%の改善とiNaturalist2018データセットでのFPRの61%削減)。
iNaturalist2018では、実際のOODデータを用いた手法よりも優れています。
コードはまもなく公開されます。
関連論文リスト
- Out-of-Distribution Learning with Human Feedback [26.398598663165636]
本稿では,人的フィードバックによるOOD学習のための新しい枠組みを提案する。
当社のフレームワークは、無償で利用可能な未ラベルデータに便乗しています。
人間のフィードバックを利用して、機械学習モデルの堅牢性と信頼性を高める。
論文 参考訳(メタデータ) (2024-08-14T18:49:27Z) - OAL: Enhancing OOD Detection Using Latent Diffusion [5.357756138014614]
Outlier Aware Learning (OAL)フレームワークは、潜伏空間で直接OODトレーニングデータを合成する。
In-Distribution (ID) と収集したOOD特徴の区別を増幅する相互情報に基づくコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - How Does Unlabeled Data Provably Help Out-of-Distribution Detection? [63.41681272937562]
in-distribution (ID) とout-of-distribution (OOD) の両データの不均一性のため、未ラベルの in-the-wild データは非自明である。
本稿では,理論的保証と実証的有効性の両方を提供する新たな学習フレームワークであるSAL(Separate And Learn)を紹介する。
論文 参考訳(メタデータ) (2024-02-05T20:36:33Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Out-of-distribution Detection Learning with Unreliable
Out-of-distribution Sources [73.28967478098107]
アウト・オブ・ディストリビューション(OOD)検出は、予測者が有効な予測を行うことができないOODデータをイン・ディストリビューション(ID)データとして識別する。
通常、OODパターンを識別できる予測器をトレーニングするために、実際のアウト・オブ・ディストリビューション(OOD)データを収集するのは困難である。
本稿では,Auxiliary Task-based OOD Learning (ATOL) というデータ生成に基づく学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-06T16:26:52Z) - Out-of-distribution Detection with Implicit Outlier Transformation [72.73711947366377]
外周露光(OE)は、オフ・オブ・ディストリビューション(OOD)検出において強力である。
我々は,未確認のOOD状況に対してモデルの性能を良くする,新しいOEベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-09T04:36:38Z) - Uncertainty-Estimation with Normalized Logits for Out-of-Distribution
Detection [35.539218522504605]
UE-NL(Uncertainty-Estimation with Normalized Logits)は,OOD検出のための頑健な学習手法である。
UE-NLは、入力データの不確実性スコアを予測することにより、全てのIDサンプルを等しく扱う。
他の方法によってOODデータと誤認される可能性のあるIDデータを騒がせることは、より堅牢である。
論文 参考訳(メタデータ) (2023-02-15T11:57:09Z) - Calibrated ensembles can mitigate accuracy tradeoffs under distribution
shift [108.30303219703845]
ID校正アンサンブルは,IDとOODの精度で,先行技術(自己学習に基づく)より優れていた。
我々は,この手法をスタイリングされた環境で解析し,IDとOODの両方をうまく処理するためのアンサンブルの2つの重要な条件を同定する。
論文 参考訳(メタデータ) (2022-07-18T23:14:44Z) - Training OOD Detectors in their Natural Habitats [31.565635192716712]
アウト・オブ・ディストリビューション(OOD)検出は、野生にデプロイされた機械学習モデルにとって重要である。
近年の手法では,OOD検出の改善のために補助外乱データを用いてモデルを正規化している。
我々は、自然にIDとOODの両方のサンプルで構成される野生の混合データを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T15:38:39Z) - They are Not Completely Useless: Towards Recycling Transferable
Unlabeled Data for Class-Mismatched Semi-Supervised Learning [61.46572463531167]
SSL(Semi-Supervised Learning)とミスマッチしたクラスは、制限されたラベル付きデータにおける関心のクラスが、巨大なラベル付きデータに含まれるクラスのサブセットである、という問題に対処する。
本稿では,クラスミスマッチ型SSLを実現するために,TOOR(Transferable OOD data recycling)手法を提案する。
論文 参考訳(メタデータ) (2020-11-27T02:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。