論文の概要: Learning Imbalanced Datasets with Maximum Margin Loss
- arxiv url: http://arxiv.org/abs/2206.05380v1
- Date: Sat, 11 Jun 2022 00:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 13:19:02.889909
- Title: Learning Imbalanced Datasets with Maximum Margin Loss
- Title(参考訳): 最大マージン損失を伴う不均衡データセットの学習
- Authors: Haeyong Kang, Thang Vu, and Chang D. Yoo
- Abstract要約: クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
- 参考スコア(独自算出の注目度): 21.305656747991026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A learning algorithm referred to as Maximum Margin (MM) is proposed for
considering the class-imbalance data learning issue: the trained model tends to
predict the majority of classes rather than the minority ones. That is,
underfitting for minority classes seems to be one of the challenges of
generalization. For a good generalization of the minority classes, we design a
new Maximum Margin (MM) loss function, motivated by minimizing a margin-based
generalization bound through the shifting decision bound. The
theoretically-principled label-distribution-aware margin (LDAM) loss was
successfully applied with prior strategies such as re-weighting or re-sampling
along with the effective training schedule. However, they did not investigate
the maximum margin loss function yet. In this study, we investigate the
performances of two types of hard maximum margin-based decision boundary shift
with LDAM's training schedule on artificially imbalanced CIFAR-10/100 for fair
comparisons and effectiveness.
- Abstract(参考訳): 最大マージン(mm)と呼ばれる学習アルゴリズムは、クラス不均衡なデータ学習の問題を考えるために提案されている: 訓練されたモデルは、マイノリティよりもクラスの大部分を予測する傾向がある。
つまり、マイノリティクラスへの不適合は、一般化の課題の1つに思える。
マイノリティクラスを適切に一般化するために、シフトする決定境界を通して有界なマージン一般化を最小化して、新しい最大マージン損失関数(MM)を設計する。
理論的に予測されたラベル分散認識マージン(ldam)損失は、効果的なトレーニングスケジュールとともに再強調や再サンプリングといった以前の戦略でうまく適用された。
しかし, 最大マージン損失関数は検討されていない。
本研究では, LDAMのトレーニングスケジュールと, CIFAR-10/100の2種類のハードマージン決定境界シフトの性能について, 公正比較と有効性について検討した。
関連論文リスト
- A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Easy Learning from Label Proportions [17.71834385754893]
Easyllpは、アグリゲーションラベルに基づいた、柔軟で簡単に実装可能なデバイアス方式である。
我々の手法は、任意のモデルが個々のレベルで予想される損失を正確に見積もることができる。
論文 参考訳(メタデータ) (2023-02-06T20:41:38Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - ELM: Embedding and Logit Margins for Long-Tail Learning [70.19006872113862]
長期学習はスキューラベル分布下での学習の問題である。
本稿では,ロジット空間にマージンを強制するための統一アプローチであるEmbedding and Logit Margins(ELM)を提案する。
The ELM method are shown to be well empirically, and result to tight more tail class embeddeds。
論文 参考訳(メタデータ) (2022-04-27T21:53:50Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Distribution of Classification Margins: Are All Data Equal? [61.16681488656473]
我々は理論的に動機付け、トレーニングセット上のマージン分布の曲線の下の領域が実際は一般化のよい尺度であることを実証的に示す。
結果として生じる"高いキャパシティ"機能のサブセットは、異なるトレーニング実行間で一貫性がない。
論文 参考訳(メタデータ) (2021-07-21T16:41:57Z) - Minimax Classification with 0-1 Loss and Performance Guarantees [4.812718493682455]
教師付き分類技術は、トレーニングサンプルを使用して、予想される0-1損失の少ない分類規則を見つける。
従来の手法では,ルールの特定のファミリーに対するサロゲート損失を最小限に抑えて,効率的な学習とアウト・オブ・サンプルの一般化を実現している。
本稿では,サロゲート損失とルールファミリの選択に依存しないミニマックスリスク分類器(MRC)を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:11:28Z) - Negative Margin Matters: Understanding Margin in Few-shot Classification [72.85978953262004]
本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
論文 参考訳(メタデータ) (2020-03-26T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。