論文の概要: Imbalanced Classification via Explicit Gradient Learning From Augmented
Data
- arxiv url: http://arxiv.org/abs/2202.10550v1
- Date: Mon, 21 Feb 2022 22:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 07:45:52.234978
- Title: Imbalanced Classification via Explicit Gradient Learning From Augmented
Data
- Title(参考訳): 拡張データからの明示的勾配学習による不均衡分類
- Authors: Bronislav Yasinnik
- Abstract要約: 本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from imbalanced data is one of the most significant challenges in
real-world classification tasks. In such cases, neural networks performance is
substantially impaired due to preference towards the majority class. Existing
approaches attempt to eliminate the bias through data re-sampling or
re-weighting the loss in the learning process. Still, these methods tend to
overfit the minority samples and perform poorly when the structure of the
minority class is highly irregular. Here, we propose a novel deep meta-learning
technique to augment a given imbalanced dataset with new minority instances.
These additional data are incorporated in the classifier's deep-learning
process, and their contributions are learned explicitly. The advantage of the
proposed method is demonstrated on synthetic and real-world datasets with
various imbalance ratios.
- Abstract(参考訳): 不均衡なデータから学ぶことは、現実世界の分類タスクにおける最も重要な課題の1つである。
このような場合、ニューラルネットワークの性能は、多数派に対する嗜好によって著しく低下する。
既存のアプローチは、データの再サンプリングや学習プロセスの損失の再重み付けを通じてバイアスを取り除く。
しかし、これらの手法は少数民族の構造が極めて不規則である場合、少数民族のサンプルに過度に適合し、性能が劣る傾向にある。
本稿では,与えられた不均衡データセットを新たなマイノリティインスタンスで拡張する,新しい深層メタ学習手法を提案する。
これらの追加データは分類器のディープラーニングプロセスに組み込まれ、それらの貢献は明示的に学習される。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Imbalanced data preprocessing techniques utilizing local data
characteristics [2.28438857884398]
データ不均衡は、異なるクラスから来るトレーニング観察の数の間の不均衡である。
この論文の焦点は、新しいデータ再サンプリング戦略の開発である。
論文 参考訳(メタデータ) (2021-11-28T11:48:26Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。