論文の概要: MSE Loss with Outlying Label for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2107.02393v1
- Date: Tue, 6 Jul 2021 05:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:48:10.785080
- Title: MSE Loss with Outlying Label for Imbalanced Classification
- Title(参考訳): 不均衡分類のためのラベル付きMSE損失
- Authors: Sota Kato, Kazuhiro Hotta
- Abstract要約: クラス不均衡分類のための外付けラベルを用いた平均二乗誤差(MSE)損失を提案する。
MSE損失は、すべてのクラスのバック伝搬数を等しくし、メトリック学習としてのクラス間の関係を考慮して特徴空間を学習することができる。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
- 参考スコア(独自算出の注目度): 10.305130700118399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose mean squared error (MSE) loss with outlying label
for class imbalanced classification. Cross entropy (CE) loss, which is widely
used for image recognition, is learned so that the probability value of true
class is closer to one by back propagation. However, for imbalanced datasets,
the learning is insufficient for the classes with a small number of samples.
Therefore, we propose a novel classification method using the MSE loss that can
be learned the relationships of all classes no matter which image is input.
Unlike CE loss, MSE loss is possible to equalize the number of back propagation
for all classes and to learn the feature space considering the relationships
between classes as metric learning. Furthermore, instead of the usual one-hot
teacher label, we use a novel teacher label that takes the number of class
samples into account. This induces the outlying label which depends on the
number of samples in each class, and the class with a small number of samples
has outlying margin in a feature space. It is possible to create the feature
space for separating high-difficulty classes and low-difficulty classes. By the
experiments on imbalanced classification and semantic segmentation, we
confirmed that the proposed method was much improved in comparison with
standard CE loss and conventional methods, even though only the loss and
teacher labels were changed.
- Abstract(参考訳): 本稿では,クラス不均衡分類のための外ラベル付き平均二乗誤差(mse)損失を提案する。
画像認識に広く用いられているクロスエントロピー(ce)損失は、真のクラスの確率値がバック伝播によって1に近いように学習される。
しかし、不均衡データセットでは、少数のサンプルを持つクラスでは学習が不十分である。
そこで本稿では, 画像が入力されていなくても, クラス間の関係を学習可能な, MSE損失を用いた新しい分類法を提案する。
ce損失とは異なり、mse損失は全クラスのバック伝搬数を均等化し、クラス間の関係をメトリック学習として考慮して特徴空間を学ぶことができる。
さらに,従来の1ホットの教師ラベルの代わりに,クラスサンプルの数を考慮に入れた新しい教師ラベルを用いる。
これにより、各クラスのサンプル数に依存するアウトライジングラベルが導き出され、少数のサンプルを持つクラスは、特徴空間におけるアウトライジングマージンを持つ。
高微分クラスと低微分クラスを分離する機能空間を作成することができる。
不均衡分類とセマンティクスセグメンテーションの実験により, 標準ce損失と従来の方法と比較して, 教師ラベルと教師ラベルのみを変更した場合でも, 提案手法が大幅に改良されたことを確認した。
関連論文リスト
- Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Learning from Label Proportions by Learning with Label Noise [30.7933303912474]
ラベル比例(LLP)からの学習は、データポイントをバッグに分類する弱い教師付き分類問題である。
ラベル雑音による学習の低減に基づくLLPに対する理論的基礎的なアプローチを提案する。
このアプローチは、複数のデータセットやアーキテクチャにわたるディープラーニングシナリオにおける経験的パフォーマンスの向上を実証する。
論文 参考訳(メタデータ) (2022-03-04T18:52:21Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - sigmoidF1: A Smooth F1 Score Surrogate Loss for Multilabel
Classification [42.37189502220329]
マルチラベル分類評価の複雑さを考慮した損失関数 sigmoidF1 を提案する。
SigmoidF1は4つのデータセットといくつかのメトリクスで他の損失関数よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T08:11:33Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Exploiting Class Similarity for Machine Learning with Confidence Labels
and Projective Loss Functions [0.0]
クラスラベルは相互に関連付けられており、特定のクラスラベルは他のクラスと類似している。
現在のラベリング技術では、このような類似情報を明示的に捉えられていない。
ノイズラベルは、クラス類似性から生じる難易度の結果であると考えるので、ノイズラベルを用いたニューラルネットワークのトレーニングに使用しています。
論文 参考訳(メタデータ) (2021-03-25T04:49:44Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z) - Negative Margin Matters: Understanding Margin in Few-shot Classification [72.85978953262004]
本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
論文 参考訳(メタデータ) (2020-03-26T17:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。