論文の概要: Enlarged Large Margin Loss for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2306.09132v1
- Date: Thu, 15 Jun 2023 13:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:37:41.100189
- Title: Enlarged Large Margin Loss for Imbalanced Classification
- Title(参考訳): 不均衡分類のための大マルジン損失の拡大
- Authors: Sota Kato, Kazuhiro Hotta
- Abstract要約: 我々は,大縁ソフトマックスクロスエントロピー損失の概念を用いてLDAM損失の式を復元する。
本稿では,LDAM損失の広い範囲を拡大する新たなELM損失を提案する。
- 参考スコア(独自算出の注目度): 9.873635079670091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel loss function for imbalanced classification. LDAM loss,
which minimizes a margin-based generalization bound, is widely utilized for
class-imbalanced image classification. Although, by using LDAM loss, it is
possible to obtain large margins for the minority classes and small margins for
the majority classes, the relevance to a large margin, which is included in the
original softmax cross entropy loss, is not be clarified yet. In this study, we
reconvert the formula of LDAM loss using the concept of the large margin
softmax cross entropy loss based on the softplus function and confirm that LDAM
loss includes a wider large margin than softmax cross entropy loss.
Furthermore, we propose a novel Enlarged Large Margin (ELM) loss, which can
further widen the large margin of LDAM loss. ELM loss utilizes the large margin
for the maximum logit of the incorrect class in addition to the basic margin
used in LDAM loss. Through experiments conducted on imbalanced CIFAR datasets
and large-scale datasets with long-tailed distribution, we confirmed that
classification accuracy was much improved compared with LDAM loss and
conventional losses for imbalanced classification.
- Abstract(参考訳): 不均衡分類のための新しい損失関数を提案する。
差分に基づく一般化境界を最小化するLDAM損失は、クラス不均衡画像分類に広く利用されている。
LDAM損失を用いることで,少数層に対する大きなマージンと多数層に対する小さなマージンを得ることができるが,元のソフトマックスクロスエントロピー損失に含まれる大きなマージンとの関連性はまだ明らかになっていない。
本研究では, LDAM損失の計算式をソフトプラス関数に基づく大幅軟マックスクロスエントロピー損失の概念を用いて再変換し, LDAM損失がソフトマックスクロスエントロピー損失よりも広いマージンを含むことを確認した。
さらに,ldam損失の大きなマージンをさらに拡大できる新しい拡大大マージン損失(elm)を提案する。
ELM損失はLDAM損失に使用される基本的なマージンに加えて、不正クラスの最大ロジットに対して大きなマージンを利用する。
非バランスなcifarデータセットとロングテール分布を持つ大規模データセットを用いた実験により、ldam損失と従来の不均衡分類の損失と比較して、分類精度が大幅に向上したことを確認した。
関連論文リスト
- Marginal Debiased Network for Fair Visual Recognition [65.64172835624206]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
より具体的には、マージンペナルティという概念をフェアネス問題に導入することにより、マージンのソフトマックスロス(MSL)を設計する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成でき、従来の手法と比較して優れたデバイアス結果を得ることができる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Optimized Hybrid Focal Margin Loss for Crack Segmentation [1.8492669447784602]
過度なクラス不均衡に対処し, ひび割れ分断に対する過度な適合を防止するために, 新たなハイブリッド焦点損失を提案する。
実験の結果,DeepCrack-DBでは0.43,PanelCrackデータセットでは0.44,ひび割れのIoUが有意に増加することがわかった。
論文 参考訳(メタデータ) (2023-02-09T01:26:38Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Learning Imbalanced Datasets with Maximum Margin Loss [21.305656747991026]
クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
論文 参考訳(メタデータ) (2022-06-11T00:21:41Z) - Introducing One Sided Margin Loss for Solving Classification Problems in
Deep Networks [4.157900711249931]
本稿では,最大マージン分類問題を効果的に解くために,新たな損失関数OSMを提案する。
実験では、OSMの損失を用いることで、バイナリやカテゴリのクロスエントロピーよりも訓練速度が向上し、精度が向上することがわかった。
論文 参考訳(メタデータ) (2022-06-02T12:03:39Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Max-Margin is Dead, Long Live Max-Margin! [87.90853526750716]
最大マージン損失は、距離間の誤差を計測する離散損失について、非常に限定的な仮定の下では、分類タスクと整合性しか持たないことが示される。
Restricted-Max-Marginでは、損失増大スコアが維持されるが、元のドメインのサブセット上で実行される。
論文 参考訳(メタデータ) (2021-05-31T15:55:52Z) - NPT-Loss: A Metric Loss with Implicit Mining for Face Recognition [28.773161837693344]
深層畳み込みニューラルネットワーク(dcnns)を用いた顔認識は近年目覚ましい成功を収めている。
DCNNベースのFRの重要な要素の1つは、さまざまなアイデンティティ間の識別を保証する損失関数の適切な設計です。
本稿では,プロキシによる三重項損失に相当する新しい損失と,ハード負のマイニングの暗黙のメカニズムを提案する。
論文 参考訳(メタデータ) (2021-03-05T07:26:40Z) - Focal and Efficient IOU Loss for Accurate Bounding Box Regression [63.14659624634066]
オブジェクト検出では、境界ボックス回帰(BBR)はオブジェクトローカリゼーションのパフォーマンスを決定する重要なステップです。
i) $ell_n$-norm と IOU ベースのロス関数はどちらも BBR の目的を描くのに非効率的であり、これは遅い収束と不正確な回帰結果をもたらす。
論文 参考訳(メタデータ) (2021-01-20T14:33:58Z) - Modal Regression based Structured Low-rank Matrix Recovery for
Multi-view Learning [70.57193072829288]
近年、低ランクなマルチビューサブスペース学習は、クロスビューの分類において大きな可能性を示している。
既存のLMvSLベースの手法では、ビューの区別と差別を同時に扱うことができない。
本稿では,視差を効果的に除去し,識別性を向上する独自の方法であるStructured Low-rank Matrix Recovery (SLMR)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。