論文の概要: Simplifying Neural Network Training Under Class Imbalance
- arxiv url: http://arxiv.org/abs/2312.02517v1
- Date: Tue, 5 Dec 2023 05:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:39:06.862963
- Title: Simplifying Neural Network Training Under Class Imbalance
- Title(参考訳): クラス不均衡下でのニューラルネットワークトレーニングの簡素化
- Authors: Ravid Shwartz-Ziv and Micah Goldblum and Yucen Lily Li and C. Bayan
Bruss and Andrew Gordon Wilson
- Abstract要約: 実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
- 参考スコア(独自算出の注目度): 77.39968702907817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world datasets are often highly class-imbalanced, which can adversely
impact the performance of deep learning models. The majority of research on
training neural networks under class imbalance has focused on specialized loss
functions, sampling techniques, or two-stage training procedures. Notably, we
demonstrate that simply tuning existing components of standard deep learning
pipelines, such as the batch size, data augmentation, optimizer, and label
smoothing, can achieve state-of-the-art performance without any such
specialized class imbalance methods. We also provide key prescriptions and
considerations for training under class imbalance, and an understanding of why
imbalance methods succeed or fail.
- Abstract(参考訳): 実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊損失関数、サンプリング技術、あるいは2段階のトレーニング手順に焦点を当てている。
特に,バッチサイズやデータ拡張,オプティマイザ,ラベルスムーシングといった,標準的なディープラーニングパイプラインの既存のコンポーネントのチューニングを,特別なクラス不均衡を伴わずに実現できることを実証する。
また、クラス不均衡の下でのトレーニングのための重要な処方や考察、不均衡メソッドが成功したり失敗したりする理由の理解も提供する。
関連論文リスト
- Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification [11.673344551762822]
ディープニューラルネットワークは、一般に、異なるクラス間の量不均衡と分類困難の不均衡に苦しむデータセットで性能が良くない。
表象学習から上位クラス化学習への学習強調を円滑に伝達する段階的な進行学習スケジュールが提案された。
私たちのコードはまもなくオープンソースになります。
論文 参考訳(メタデータ) (2022-05-24T14:46:39Z) - Deep Reinforcement Learning for Multi-class Imbalanced Training [64.9100301614621]
我々は、極めて不均衡なデータセットをトレーニングするために、強化学習に基づく不均衡な分類フレームワークを導入する。
特注報酬関数とエピソード学習手順を定式化し、特にマルチクラス不均衡トレーニングを扱えるようにした。
実世界の臨床ケーススタディを用いて,提案手法が現状の非バランス学習法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T13:39:59Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Towards Balanced Learning for Instance Recognition [149.76724446376977]
本稿では,インスタンス認識のためのバランス学習のためのフレームワークであるLibra R-CNNを提案する。
IoUバランスのサンプリング、バランスの取れた特徴ピラミッド、客観的再重み付けをそれぞれ統合し、サンプル、特徴、客観的レベルの不均衡を低減します。
論文 参考訳(メタデータ) (2021-08-23T13:40:45Z) - MetaBalance: High-Performance Neural Networks for Class-Imbalanced Data [42.81296448544681]
あるクラスが他のクラスよりもはるかに多くのサンプルを含むクラス不均衡データは、現実世界のアプリケーションではユビキタスである。
クラス不均衡を扱う標準的なテクニックは、通常、再重み付けされた損失や再均衡されたデータのトレーニングによって機能する。
本手法は,画像分類,クレジットカード不正検出,ローンデフォルト予測,顔認識タスクを極めて不均衡なデータで評価する。
論文 参考訳(メタデータ) (2021-06-17T16:42:50Z) - Mitigating Dataset Imbalance via Joint Generation and Classification [17.57577266707809]
教師付きディープラーニング手法は、コンピュータビジョンの多くの実践的応用において大きな成功を収めている。
バイアスや不均衡データに対する顕著な性能劣化は、これらの手法の信頼性に疑問を投げかける。
ニューラルネットワーク分類器とGAN(Generative Adversarial Networks)を組み合わせた共同データセット修復戦略を提案する。
重度のクラス不均衡に対する分類器とGANの堅牢性向上に寄与することを示す。
論文 参考訳(メタデータ) (2020-08-12T18:40:38Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。