論文の概要: CAMRI Loss: Improving Recall of a Specific Class without Sacrificing
Accuracy
- arxiv url: http://arxiv.org/abs/2209.10920v1
- Date: Thu, 22 Sep 2022 10:59:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 14:01:30.807478
- Title: CAMRI Loss: Improving Recall of a Specific Class without Sacrificing
Accuracy
- Title(参考訳): CAMRIの損失:精度を犠牲にすることなく特定のクラスのリコールを改善する
- Authors: Daiki Nishiyama, Kazuto Fukuchi, Youhei Akimoto, Jun Sakuma
- Abstract要約: クロスエントロピー損失の場合と同様の精度を維持しつつ,重要なクラスのリコールを改善することができる損失関数を提案する。
CIFAR-10, GTSRB, AwA2の実験により, 提案手法は精度を犠牲にすることなく, 最大9%のリコール改善が可能であることを示した。
- 参考スコア(独自算出の注目度): 22.576922942465142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world applications of multi-class classification models,
misclassification in an important class (e.g., stop sign) can be significantly
more harmful than in other classes (e.g., speed limit). In this paper, we
propose a loss function that can improve the recall of an important class while
maintaining the same level of accuracy as the case using cross-entropy loss.
For our purpose, we need to make the separation of the important class better
than the other classes. However, existing methods that give a class-sensitive
penalty for cross-entropy loss do not improve the separation. On the other
hand, the method that gives a margin to the angle between the feature vectors
and the weight vectors of the last fully connected layer corresponding to each
feature can improve the separation. Therefore, we propose a loss function that
can improve the separation of the important class by setting the margin only
for the important class, called Class-sensitive Additive Angular Margin Loss
(CAMRI Loss). CAMRI loss is expected to reduce the variance of angles between
features and weights of the important class relative to other classes due to
the margin around the important class in the feature space by adding a penalty
to the angle. In addition, concentrating the penalty only on the important
classes hardly sacrifices the separation of the other classes. Experiments on
CIFAR-10, GTSRB, and AwA2 showed that the proposed method could improve up to
9% recall improvement on cross-entropy loss without sacrificing accuracy.
- Abstract(参考訳): 実世界のマルチクラス分類モデルの応用では、重要なクラス(例えば、停止記号)の誤分類は他のクラス(例えば、速度制限)よりも著しく有害である。
本稿では,クロスエントロピー損失を用いた場合と同様の精度を維持しつつ,重要なクラスのリコールを改善することができる損失関数を提案する。
私たちの目的のためには、重要なクラスの分離を他のクラスよりも良くする必要があります。
しかしながら、クロスエントロピー損失に対してクラス感受性のペナルティを与える既存の方法は、分離を改善しない。
一方、特徴ベクトルと各特徴に対応する最後の完全連結層の重みベクトルとの角度にマージンを与える方法は、分離を改善することができる。
そこで本研究では,重要なクラスに対してのみマージンを設定することで,重要なクラスの分離を改善することができる損失関数であるCAMRI(Class-sensitive Additive Angular Margin Loss)を提案する。
camriの損失は、その角度にペナルティを加えることにより、特徴空間の重要なクラス周辺のマージンにより、他のクラスと比較して重要なクラスの特徴と重みの間の角度のばらつきを減少させることが期待されている。
加えて、重要なクラスのみに課せられるペナルティは、他のクラスの分離を犠牲にすることはほとんどない。
CIFAR-10, GTSRB, AwA2の実験により, 提案手法は精度を犠牲にすることなく, 最大9%のリコール改善が可能であることを示した。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - Revisiting adversarial training for the worst-performing class [60.231877895663956]
多くのデータセットにおいて、トップパフォーマンスクラスと最悪のパフォーマンスクラスの間には、かなりのギャップがある。
我々は、最悪のパフォーマンスのクラスを明示的に最適化することで、このギャップを減らせることができると論じる。
本手法は,クラス集中型オンライン学習(CFOL)と呼ばれ,最悪のクラス損失に対する高い確率収束保証を含む。
論文 参考訳(メタデータ) (2023-02-17T13:41:40Z) - MSE Loss with Outlying Label for Imbalanced Classification [10.305130700118399]
クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
論文 参考訳(メタデータ) (2021-07-06T05:17:00Z) - Striking the Right Balance: Recall Loss for Semantic Segmentation [24.047359482606307]
クラス不均衡は、セマンティックセグメンテーションのようなコンピュータビジョンアプリケーションにおける基本的な問題である。
我々は,バニラクロスエントロピー損失を変形させることにより,ハードクラスの鉱業損失を提案する。
本研究では, 標準クロスエントロピー損失と逆周波数重み付き損失との間に, 新たなリコール損失が徐々に変化することを示す。
論文 参考訳(メタデータ) (2021-06-28T18:02:03Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z) - Why Do Better Loss Functions Lead to Less Transferable Features? [93.47297944685114]
本稿では,画像ネット上で学習した畳み込みニューラルネットワークの隠れ表現が,学習対象の選択が伝達可能性に与える影響について検討する。
我々は,多くの目的が,バニラソフトマックスのクロスエントロピーよりも画像ネットの精度を統計的に有意に向上させることを示した。
論文 参考訳(メタデータ) (2020-10-30T17:50:31Z) - CC-Loss: Channel Correlation Loss For Image Classification [35.43152123975516]
チャネル相関損失(CC-Loss)は、クラスとチャネル間の特定の関係を制約することができる。
提案したCC-Lossでトレーニングされた2つの異なるバックボーンモデルは、3つの画像分類データセットにおける最先端の損失関数より優れている。
論文 参考訳(メタデータ) (2020-10-12T05:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。