論文の概要: Stochastic smoothing of the top-K calibrated hinge loss for deep
imbalanced classification
- arxiv url: http://arxiv.org/abs/2202.02193v1
- Date: Fri, 4 Feb 2022 15:39:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 18:41:59.025881
- Title: Stochastic smoothing of the top-K calibrated hinge loss for deep
imbalanced classification
- Title(参考訳): 深部不均衡分類のためのトップK校正ヒンジ損失の確率的平滑化
- Authors: Camille Garcin, Maximilien Servajean, Alexis Joly, Joseph Salmon
- Abstract要約: トップK損失に関する最近の進展にインスパイアされたトップKヒンジ損失を導入する。
提案手法は,フレキシブルな"摂動"フレームワーク上に構築されたトップK演算子の平滑化に基づいている。
我々の損失関数は、バランスの取れたデータセットの場合において非常によく機能し、計算時間もかなり少ないことを示します。
- 参考スコア(独自算出の注目度): 8.189630642296416
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In modern classification tasks, the number of labels is getting larger and
larger, as is the size of the datasets encountered in practice. As the number
of classes increases, class ambiguity and class imbalance become more and more
problematic to achieve high top-1 accuracy. Meanwhile, Top-K metrics (metrics
allowing K guesses) have become popular, especially for performance reporting.
Yet, proposing top-K losses tailored for deep learning remains a challenge,
both theoretically and practically. In this paper we introduce a stochastic
top-K hinge loss inspired by recent developments on top-K calibrated losses.
Our proposal is based on the smoothing of the top-K operator building on the
flexible "perturbed optimizer" framework. We show that our loss function
performs very well in the case of balanced datasets, while benefiting from a
significantly lower computational time than the state-of-the-art top-K loss
function. In addition, we propose a simple variant of our loss for the
imbalanced case. Experiments on a heavy-tailed dataset show that our loss
function significantly outperforms other baseline loss functions.
- Abstract(参考訳): 現代の分類タスクでは、実際に遭遇するデータセットのサイズと同様に、ラベルの数が大きくなりつつある。
クラス数が増加するにつれて、クラスあいまいさとクラス不均衡は、高いトップ1精度を達成するためにますます問題になる。
一方、Top-Kメトリクス(K推測を可能にするメトリクス)は、特にパフォーマンスレポートで人気がある。
しかし、ディープラーニングに適したトップKの損失を提案することは、理論的にも実用的にも課題である。
本稿では,トップK校正損失の最近の進展に触発された確率的トップKヒンジ損失を紹介する。
本提案は,フレキシブルな"摂動オプティマイザ"フレームワーク上に構築したtop-kオペレータの平滑化に基づく。
バランスの取れたデータセットの場合、損失関数は極めてよく機能するが、最先端のtop-k損失関数よりも計算時間がかなり低いことが分かる。
さらに,不均衡ケースに対する損失の簡易な変種を提案する。
重み付きデータセットの実験では、損失関数は他のベースライン損失関数を大きく上回っています。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - OrCo: Towards Better Generalization via Orthogonality and Contrast for Few-Shot Class-Incremental Learning [57.43911113915546]
FSCIL(Few-Shot Class-Incremental Learning)は、問題空間を限られたデータで拡張するパラダイムを導入する。
FSCILの手法は、データが漸進的に到着するにつれて、破滅的な忘れ込みの課題に直面している。
表現空間における特徴の直交性と対照的な学習という2つの基本原理に基づいて構築されたOrCoフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T13:30:48Z) - Optimizing for ROC Curves on Class-Imbalanced Data by Training over a Family of Loss Functions [3.06506506650274]
重度のクラス不均衡の下で信頼性の高い分類器を訓練することは、コンピュータビジョンにおいて難しい問題である。
近年の研究では、損失関数や最適化方法の変更により、不均衡下でのトレーニングの効果を緩和する手法が提案されている。
単一損失関数ではなく、損失関数の族に対するトレーニングを提案する。
論文 参考訳(メタデータ) (2024-02-08T04:31:21Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Striking the Right Balance: Recall Loss for Semantic Segmentation [24.047359482606307]
クラス不均衡は、セマンティックセグメンテーションのようなコンピュータビジョンアプリケーションにおける基本的な問題である。
我々は,バニラクロスエントロピー損失を変形させることにより,ハードクラスの鉱業損失を提案する。
本研究では, 標準クロスエントロピー損失と逆周波数重み付き損失との間に, 新たなリコール損失が徐々に変化することを示す。
論文 参考訳(メタデータ) (2021-06-28T18:02:03Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - PCPL: Predicate-Correlation Perception Learning for Unbiased Scene Graph
Generation [58.98802062945709]
本稿では,適切な損失重みを適応的に求めるための新しい述語相関知覚学習手法を提案する。
我々のPCPLフレームワークは、文脈特徴をよりよく抽出するグラフエンコーダモジュールも備えています。
論文 参考訳(メタデータ) (2020-09-02T08:30:09Z) - Normalized Loss Functions for Deep Learning with Noisy Labels [39.32101898670049]
一般的に使用されているCross Entropy(CE)損失は,ノイズラベルに対して堅牢ではないことを示す。
アクティブ・パッシブ・ロス(APL)と呼ばれるロバストな損失関数を構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。