論文の概要: MetaBalance: High-Performance Neural Networks for Class-Imbalanced Data
- arxiv url: http://arxiv.org/abs/2106.09643v1
- Date: Thu, 17 Jun 2021 16:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:54:45.782684
- Title: MetaBalance: High-Performance Neural Networks for Class-Imbalanced Data
- Title(参考訳): MetaBalance: クラス不均衡データのための高性能ニューラルネットワーク
- Authors: Arpit Bansal, Micah Goldblum, Valeriia Cherepanova, Avi Schwarzschild,
C. Bayan Bruss, Tom Goldstein
- Abstract要約: あるクラスが他のクラスよりもはるかに多くのサンプルを含むクラス不均衡データは、現実世界のアプリケーションではユビキタスである。
クラス不均衡を扱う標準的なテクニックは、通常、再重み付けされた損失や再均衡されたデータのトレーニングによって機能する。
本手法は,画像分類,クレジットカード不正検出,ローンデフォルト予測,顔認識タスクを極めて不均衡なデータで評価する。
- 参考スコア(独自算出の注目度): 42.81296448544681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-imbalanced data, in which some classes contain far more samples than
others, is ubiquitous in real-world applications. Standard techniques for
handling class-imbalance usually work by training on a re-weighted loss or on
re-balanced data. Unfortunately, training overparameterized neural networks on
such objectives causes rapid memorization of minority class data. To avoid this
trap, we harness meta-learning, which uses both an ''outer-loop'' and an
''inner-loop'' loss, each of which may be balanced using different strategies.
We evaluate our method, MetaBalance, on image classification, credit-card fraud
detection, loan default prediction, and facial recognition tasks with severely
imbalanced data, and we find that MetaBalance outperforms a wide array of
popular re-sampling strategies.
- Abstract(参考訳): あるクラスが他のクラスよりもはるかに多くのサンプルを含むクラス不均衡データは、現実世界のアプリケーションではユビキタスである。
クラス不均衡を扱う標準的なテクニックは、通常、再重み付け損失や再バランスデータに関するトレーニングによって機能する。
残念なことに、そのような目的に対する過パラメータニューラルネットワークのトレーニングは、マイノリティクラスのデータを急速に記憶する。
このトラップを避けるために、メタラーニングを利用する。これは'outer-loop'と'inner-loop'の損失の両方を使い、それぞれが異なる戦略でバランスをとることができる。
提案手法であるMetaBalanceは,画像分類,クレジットカード不正検出,ローンデフォルト予測,顔認識タスクを極めて不均衡なデータで評価した結果,MetaBalanceはさまざまな再サンプリング戦略に優れていた。
関連論文リスト
- Meta-GCN: A Dynamically Weighted Loss Minimization Method for Dealing with the Data Imbalance in Graph Neural Networks [5.285761906707429]
そこで我々は,メタGCNというメタ学習アルゴリズムを提案し,サンプル重み付けを適応的に学習する。
我々は,Meta-GCNが最先端フレームワークや他のベースラインを精度で上回ることを示した。
論文 参考訳(メタデータ) (2024-06-24T18:59:24Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Delving into Sample Loss Curve to Embrace Noisy and Imbalanced Data [17.7825114228313]
破損したラベルとクラス不均衡は、実際に収集されたトレーニングデータでよく見られる。
既存のアプローチは、サンプルの再重み付け戦略を採用することで、これらの問題を緩和します。
しかし、ラベルが破損したサンプルと、訓練データに一般的に共存する尾のクラスは偏りがあった。
論文 参考訳(メタデータ) (2021-12-30T09:20:07Z) - Few-Shot Learning with Class Imbalance [13.60699610822265]
少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
論文 参考訳(メタデータ) (2021-01-07T12:54:32Z) - Class-Wise Difficulty-Balanced Loss for Solving Class-Imbalance [6.875312133832079]
そこで本研究では,クラスワイド・バランサード・ロスと呼ばれる新しい損失関数を提案する。
サンプルが属するクラスの難易度に応じて、各サンプルに動的に重みを分配する。
その結果、CDB損失はクラス不均衡データセットにおける最近提案された損失関数よりも一貫して優れていた。
論文 参考訳(メタデータ) (2020-10-05T07:19:19Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。