論文の概要: Investigating Group Distributionally Robust Optimization for Deep
Imbalanced Learning: A Case Study of Binary Tabular Data Classification
- arxiv url: http://arxiv.org/abs/2303.02505v1
- Date: Sat, 4 Mar 2023 21:20:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:21:55.729015
- Title: Investigating Group Distributionally Robust Optimization for Deep
Imbalanced Learning: A Case Study of Binary Tabular Data Classification
- Title(参考訳): 深層不均衡学習のためのグループ分布ロバスト最適化の検討:二項タブラルデータ分類を事例として
- Authors: Ismail. B. Mustapha, Shafaatunnur Hasan, Hatem S Y Nabbus, Mohamed
Mostafa Ali Montaser, Sunday Olusanya Olatunji, Siti Maryam Shamsuddin
- Abstract要約: 不均衡学習のための群分散ロバスト最適化(gDRO)について検討した。
経験的リスク最小化法 (ERM) と古典的不均衡法との比較実験により, gDROの優れた性能が示された。
- 参考スコア(独自算出の注目度): 0.44040106718326594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most studied machine learning challenges that recent studies have
shown the susceptibility of deep neural networks to is the class imbalance
problem. While concerted research efforts in this direction have been notable
in recent years, findings have shown that the canonical learning objective,
empirical risk minimization (ERM), is unable to achieve optimal imbalance
learning in deep neural networks given its bias to the majority class. An
alternative learning objective, group distributionally robust optimization
(gDRO), is investigated in this study for imbalance learning, focusing on
tabular imbalanced data as against image data that has dominated deep imbalance
learning research. Contrary to minimizing average per instance loss as in ERM,
gDRO seeks to minimize the worst group loss over the training data.
Experimental findings in comparison with ERM and classical imbalance methods
using four popularly used evaluation metrics in imbalance learning across
several benchmark imbalance binary tabular data of varying imbalance ratios
reveal impressive performance of gDRO, outperforming other compared methods in
terms of g-mean and roc-auc.
- Abstract(参考訳): 最近の研究でよく研究されている機械学習の課題の1つは、ディープニューラルネットワークがクラス不均衡問題に感受性があることである。
近年,この方向への協調的な研究努力が注目されているが,従来の学習目標である経験的リスク最小化(ERM, empirical risk minimization)は,多数派に対する偏見から,ディープニューラルネットワークにおける最適不均衡学習を達成できないことが示唆されている。
本研究は, 深層不均衡学習研究を支配した画像データに対して, 表層不均衡データに着目し, 不均衡学習のためのグループ分散ロバスト最適化(gDRO)について検討した。
ERMのようにインスタンス単位の平均損失を最小限に抑えるのとは対照的に、gDROはトレーニングデータに対するグループ損失を最小化しようとしている。
ERM法と古典的不均衡法との比較実験により, 異なる不均衡比のベンチマーク不均衡二分グラフデータを用いて, g-mean と roc-auc で比較した手法よりも優れた性能を示した。
関連論文リスト
- Synthetic Tabular Data Generation for Class Imbalance and Fairness: A Comparative Study [4.420073761023326]
データ駆動性のため、機械学習(ML)モデルは、データから受け継がれたバイアスの影響を受けやすい。
クラス不均衡(分類対象)とグループ不均衡(性や人種のような保護された属性)はMLの有用性と公平性を損なう可能性がある。
本稿では、最先端モデルを用いて、クラスとグループの不均衡に対処する比較分析を行う。
論文 参考訳(メタデータ) (2024-09-08T20:08:09Z) - How does promoting the minority fraction affect generalization? A theoretical study of the one-hidden-layer neural network on group imbalance [64.1656365676171]
グループ不均衡は経験的リスク最小化において既知の問題である。
本稿では,個々の集団がサンプルの複雑さ,収束率,平均および群レベルの試験性能に与える影響を定量化する。
論文 参考訳(メタデータ) (2024-03-12T04:38:05Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Effective Class-Imbalance learning based on SMOTE and Convolutional
Neural Networks [0.1074267520911262]
不均衡データ(ID)は、機械学習(ML)モデルから満足な結果を得るための問題である。
本稿では,Deep Neural Networks(DNN)とConvolutional Neural Networks(CNN)に基づく手法の有効性を検討する。
信頼性の高い結果を得るために,ランダムにシャッフルしたデータ分布を用いて100回実験を行った。
論文 参考訳(メタデータ) (2022-09-01T07:42:16Z) - Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification [11.673344551762822]
ディープニューラルネットワークは、一般に、異なるクラス間の量不均衡と分類困難の不均衡に苦しむデータセットで性能が良くない。
表象学習から上位クラス化学習への学習強調を円滑に伝達する段階的な進行学習スケジュールが提案された。
私たちのコードはまもなくオープンソースになります。
論文 参考訳(メタデータ) (2022-05-24T14:46:39Z) - Quadruplet Deep Metric Learning Model for Imbalanced Time-series Fault
Diagnosis [0.2538209532048866]
本稿では,クラス間の距離とクラス内の分布を調整することで,不均衡な分類性能を改善する方法について分析する。
不均衡クラスを考慮した新しい四重項データペア設計法を提案する。
四重項損失とソフトマックス損失関数の合理的な組み合わせは、不均衡の影響を減らすことができる。
論文 参考訳(メタデータ) (2021-07-08T11:56:41Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。