論文の概要: Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2205.12117v1
- Date: Tue, 24 May 2022 14:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 15:10:56.645485
- Title: Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification
- Title(参考訳): 不均衡分類におけるカップリング-レギュレーション-不均衡損失を伴う段階的プログレッシブ学習
- Authors: Liang Xu, Yi Cheng, Fan Zhang, Bingxuan Wu, Pengfei Shao, Peng Liu,
Shuwei Shen, Peng Yao, Ronald X.Xu
- Abstract要約: ディープニューラルネットワークは、一般に、異なるクラス間の量不均衡と分類困難の不均衡に苦しむデータセットで性能が良くない。
表象学習から上位クラス化学習への学習強調を円滑に伝達する段階的な進行学習スケジュールが提案された。
私たちのコードはまもなくオープンソースになります。
- 参考スコア(独自算出の注目度): 11.673344551762822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks generally perform poorly with datasets that suffer from
quantity imbalance and classification difficulty imbalance between different
classes. In order to alleviate the problem of dataset bias or domain shift in
the existing two-stage approaches, a phased progressive learning schedule was
proposed for smoothly transferring the training emphasis from representation
learning to upper classifier training. This has greater effectivity on datasets
that have more severe imbalances or smaller scales. A
coupling-regulation-imbalance loss function was designed, coupling a correction
term, Focal loss and LDAM loss. Coupling-regulation-imbalance loss can better
deal with quantity imbalance and outliers, while regulating focus-of-attention
of samples with a variety of classification difficulties. Excellent results
were achieved on multiple benchmark datasets using these approaches and they
can be easily generalized for other imbalanced classification models. Our code
will be open source soon.
- Abstract(参考訳): ディープニューラルネットワークは一般に、異なるクラス間の量の不均衡と分類の困難さに苦しむデータセットでは、うまく機能しない。
既存の2段階アプローチにおけるデータセットバイアスやドメインシフトの問題を緩和するために,表現学習から上位クラス化学習への学習強調を円滑に伝達する段階進行学習スケジュールを提案した。
これは、より厳しい不均衡またはより小さなスケールを持つデータセットにより大きな効果をもたらす。
補正項, 焦点損失, LDAM損失を結合した結合制御不均衡損失関数を設計した。
結合制御不均衡損失は、様々な分類困難を伴うサンプルの集中度を調節しながら、量不均衡と外乱に対処する。
これらの手法を用いて、複数のベンチマークデータセット上で優れた結果が得られ、他の不均衡な分類モデルに対して容易に一般化できる。
私たちのコードはもうすぐオープンソースになるでしょう。
関連論文リスト
- Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Balanced-MixUp for Highly Imbalanced Medical Image Classification [19.338350044289736]
そこで本研究では,MixUp正則化手法に基づくトレーニングデータをサンプリングする新しいメカニズムを提案する。
我々は、高不均衡な網膜画像のデータセットと、胃腸内ビデオフレームの長いテールデータセットを実験した。
論文 参考訳(メタデータ) (2021-09-20T21:31:31Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Fed-Focal Loss for imbalanced data classification in Federated Learning [2.2172881631608456]
Federated Learningには、デバイスネットワーク上のモデルのトレーニングをコーディネートする中央サーバがある。
課題の1つは、データセットがクラス不均衡である場合の可変トレーニングパフォーマンスである。
焦点損失の線に沿って、適切に分類された例に割り当てられた損失を下げるように、クロスエントロピー損失を変形させることにより、クラス不均衡に対処することを提案する。
論文 参考訳(メタデータ) (2020-11-12T09:52:14Z) - Mitigating Dataset Imbalance via Joint Generation and Classification [17.57577266707809]
教師付きディープラーニング手法は、コンピュータビジョンの多くの実践的応用において大きな成功を収めている。
バイアスや不均衡データに対する顕著な性能劣化は、これらの手法の信頼性に疑問を投げかける。
ニューラルネットワーク分類器とGAN(Generative Adversarial Networks)を組み合わせた共同データセット修復戦略を提案する。
重度のクラス不均衡に対する分類器とGANの堅牢性向上に寄与することを示す。
論文 参考訳(メタデータ) (2020-08-12T18:40:38Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。