論文の概要: Enlarged Large Margin Loss for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2306.09132v1
- Date: Thu, 15 Jun 2023 13:44:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 14:37:41.100189
- Title: Enlarged Large Margin Loss for Imbalanced Classification
- Title(参考訳): 不均衡分類のための大マルジン損失の拡大
- Authors: Sota Kato, Kazuhiro Hotta
- Abstract要約: 我々は,大縁ソフトマックスクロスエントロピー損失の概念を用いてLDAM損失の式を復元する。
本稿では,LDAM損失の広い範囲を拡大する新たなELM損失を提案する。
- 参考スコア(独自算出の注目度): 9.873635079670091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel loss function for imbalanced classification. LDAM loss,
which minimizes a margin-based generalization bound, is widely utilized for
class-imbalanced image classification. Although, by using LDAM loss, it is
possible to obtain large margins for the minority classes and small margins for
the majority classes, the relevance to a large margin, which is included in the
original softmax cross entropy loss, is not be clarified yet. In this study, we
reconvert the formula of LDAM loss using the concept of the large margin
softmax cross entropy loss based on the softplus function and confirm that LDAM
loss includes a wider large margin than softmax cross entropy loss.
Furthermore, we propose a novel Enlarged Large Margin (ELM) loss, which can
further widen the large margin of LDAM loss. ELM loss utilizes the large margin
for the maximum logit of the incorrect class in addition to the basic margin
used in LDAM loss. Through experiments conducted on imbalanced CIFAR datasets
and large-scale datasets with long-tailed distribution, we confirmed that
classification accuracy was much improved compared with LDAM loss and
conventional losses for imbalanced classification.
- Abstract(参考訳): 不均衡分類のための新しい損失関数を提案する。
差分に基づく一般化境界を最小化するLDAM損失は、クラス不均衡画像分類に広く利用されている。
LDAM損失を用いることで,少数層に対する大きなマージンと多数層に対する小さなマージンを得ることができるが,元のソフトマックスクロスエントロピー損失に含まれる大きなマージンとの関連性はまだ明らかになっていない。
本研究では, LDAM損失の計算式をソフトプラス関数に基づく大幅軟マックスクロスエントロピー損失の概念を用いて再変換し, LDAM損失がソフトマックスクロスエントロピー損失よりも広いマージンを含むことを確認した。
さらに,ldam損失の大きなマージンをさらに拡大できる新しい拡大大マージン損失(elm)を提案する。
ELM損失はLDAM損失に使用される基本的なマージンに加えて、不正クラスの最大ロジットに対して大きなマージンを利用する。
非バランスなcifarデータセットとロングテール分布を持つ大規模データセットを用いた実験により、ldam損失と従来の不均衡分類の損失と比較して、分類精度が大幅に向上したことを確認した。
関連論文リスト
- Unbiased Regression Loss for DETRs [1.3447438365342246]
我々は、DETRベースの検出器に対して、新しい非バイアス回帰損失を導入する。
提案された新たなアンバイアスド・ロスは、Sized $L_1$ lossと呼ばれ、各ボックスの幅と高さに基づいて、すべてのボックスのサイズを正規化している。
本実験は,完全教師付き設定と半教師付き設定の両方において一貫した改善を示す。
論文 参考訳(メタデータ) (2024-10-30T02:05:18Z) - A Theory for Token-Level Harmonization in Retrieval-Augmented Generation [76.75124161306795]
Retrieval-augmented Generation (RAG)は、検索したテキストを利用して大規模言語モデル(LLM)を強化する。
本稿では,RAGの利益と有害性を説明するための理論を提供する。
提案手法は,本理論に基づいて,純粋LLMとRAGの協調生成を実現する実用的手法であるTok-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-03T02:56:14Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Learning Towards the Largest Margins [83.7763875464011]
損失関数は、クラスとサンプルの両方の最大のマージンを促進するべきである。
この原則化されたフレームワークは、既存のマージンベースの損失を理解し、解釈するための新しい視点を提供するだけでなく、新しいツールの設計を導くことができます。
論文 参考訳(メタデータ) (2022-06-23T10:03:03Z) - Learning Imbalanced Datasets with Maximum Margin Loss [21.305656747991026]
クラス不均衡データ学習問題を考慮した学習アルゴリズムとして,最大マージン(MM)を提案する。
我々は、シフトする決定境界を通して有界なマージン一般化を最小化することで、新しい最大マージン損失関数を設計する。
論文 参考訳(メタデータ) (2022-06-11T00:21:41Z) - Introducing One Sided Margin Loss for Solving Classification Problems in
Deep Networks [4.157900711249931]
本稿では,最大マージン分類問題を効果的に解くために,新たな損失関数OSMを提案する。
実験では、OSMの損失を用いることで、バイナリやカテゴリのクロスエントロピーよりも訓練速度が向上し、精度が向上することがわかった。
論文 参考訳(メタデータ) (2022-06-02T12:03:39Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Max-Margin is Dead, Long Live Max-Margin! [87.90853526750716]
最大マージン損失は、距離間の誤差を計測する離散損失について、非常に限定的な仮定の下では、分類タスクと整合性しか持たないことが示される。
Restricted-Max-Marginでは、損失増大スコアが維持されるが、元のドメインのサブセット上で実行される。
論文 参考訳(メタデータ) (2021-05-31T15:55:52Z) - NPT-Loss: A Metric Loss with Implicit Mining for Face Recognition [28.773161837693344]
深層畳み込みニューラルネットワーク(dcnns)を用いた顔認識は近年目覚ましい成功を収めている。
DCNNベースのFRの重要な要素の1つは、さまざまなアイデンティティ間の識別を保証する損失関数の適切な設計です。
本稿では,プロキシによる三重項損失に相当する新しい損失と,ハード負のマイニングの暗黙のメカニズムを提案する。
論文 参考訳(メタデータ) (2021-03-05T07:26:40Z) - Focal and Efficient IOU Loss for Accurate Bounding Box Regression [63.14659624634066]
オブジェクト検出では、境界ボックス回帰(BBR)はオブジェクトローカリゼーションのパフォーマンスを決定する重要なステップです。
i) $ell_n$-norm と IOU ベースのロス関数はどちらも BBR の目的を描くのに非効率的であり、これは遅い収束と不正確な回帰結果をもたらす。
論文 参考訳(メタデータ) (2021-01-20T14:33:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。