論文の概要: Mining Minority-class Examples With Uncertainty Estimates
- arxiv url: http://arxiv.org/abs/2112.07835v1
- Date: Wed, 15 Dec 2021 02:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 13:40:42.948210
- Title: Mining Minority-class Examples With Uncertainty Estimates
- Title(参考訳): 不確かさ推定によるマイニングマイノリティクラスの例
- Authors: Gursimran Singh, Lingyang Chu, Lanjun Wang, Jian Pei, Qi Tian, Yong
Zhang
- Abstract要約: 現実世界では、オブジェクトの発生頻度は自然にスキューされ、長い尾のクラス分布を形成する。
これらの課題を克服する効果的な、しかし簡単なアプローチを提案する。
我々のフレームワークは、抑制されたテールクラスのアクティベーションを強化し、その後、1クラスのデータ中心アプローチを使用して、テールクラスの例を効果的に識別する。
- 参考スコア(独自算出の注目度): 102.814407678425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the real world, the frequency of occurrence of objects is naturally skewed
forming long-tail class distributions, which results in poor performance on the
statistically rare classes. A promising solution is to mine tail-class examples
to balance the training dataset. However, mining tail-class examples is a very
challenging task. For instance, most of the otherwise successful
uncertainty-based mining approaches struggle due to distortion of class
probabilities resulting from skewness in data. In this work, we propose an
effective, yet simple, approach to overcome these challenges. Our framework
enhances the subdued tail-class activations and, thereafter, uses a one-class
data-centric approach to effectively identify tail-class examples. We carry out
an exhaustive evaluation of our framework on three datasets spanning over two
computer vision tasks. Substantial improvements in the minority-class mining
and fine-tuned model's performance strongly corroborate the value of our
proposed solution.
- Abstract(参考訳): 実世界では、オブジェクトの発生頻度は自然に歪み、ロングテールクラス分布を形成し、統計学的に希少なクラスでは性能が低下する。
有望な解決策は、トレーニングデータセットのバランスをとるためにテールクラスのサンプルをマイニングすることだ。
しかし、尾クラスの採掘は非常に難しい作業である。
例えば、不確実性に基づくマイニング手法のほとんどが、データの歪みに起因するクラス確率の歪みのために苦労している。
本研究では,これらの課題を克服する効果的な,しかし簡単なアプローチを提案する。
このフレームワークはテイルクラスのアクティベーションを抑圧し、その後、テイルクラスのサンプルを効果的に識別するために1クラスデータ中心のアプローチを使用する。
2つのコンピュータビジョンタスクにまたがる3つのデータセットについて,フレームワークを徹底的に評価する。
マイニングのマイニングと微調整モデルの性能の大幅な改善は,提案するソリューションの価値を強く裏付けるものだ。
関連論文リスト
- Better (pseudo-)labels for semi-supervised instance segmentation [21.703173564795353]
本稿では,教師モデルの訓練プロセスを強化するための2段階戦略を導入し,数発の学習における性能を大幅に向上させる。
我々は,LVISデータセット上での最先端の教師付きベースライン性能に対して,平均精度(AP)が2.8%,レアクラスのAPが10.3%向上し,顕著な改善が見られた。
論文 参考訳(メタデータ) (2024-03-18T11:23:02Z) - Towards Accelerated Model Training via Bayesian Data Selection [45.62338106716745]
本稿では,モデルの一般化損失に対するデータの影響を調べることによって,より合理的なデータ選択原理を提案する。
近年の研究では、モデルの一般化損失に対するデータの影響を調べることによって、より合理的なデータ選択の原則が提案されている。
この研究は、軽量ベイズ処理を活用し、大規模な事前訓練モデル上に構築された既製のゼロショット予測器を組み込むことにより、これらの問題を解決する。
論文 参考訳(メタデータ) (2023-08-21T07:58:15Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Two-Stage Fine-Tuning: A Novel Strategy for Learning Class-Imbalanced
Data [11.66734752179563]
長い尾の分散データの分類は難しい問題である。
トレーニング済みのモデルを下流タスクに転送する場合、特に微調整では、テールクラスでの学習は困難である。
本稿では,2段階のファインチューニングを提案する。まず,事前訓練されたモデルの最終層をクラスバランスの再重み付け損失で微調整し,次に標準のファインチューニングを実行する。
論文 参考訳(メタデータ) (2022-07-22T03:39:51Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。