論文の概要: Intra-Class Uncertainty Loss Function for Classification
- arxiv url: http://arxiv.org/abs/2104.05298v1
- Date: Mon, 12 Apr 2021 09:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:07:10.180518
- Title: Intra-Class Uncertainty Loss Function for Classification
- Title(参考訳): クラス内不確かさ損失関数による分類
- Authors: He Zhu, Shan Yu
- Abstract要約: 特にアンバランスクラスを含むデータセットでは、クラス内の不確実性/可変性は考慮されない。
本フレームワークでは,各クラスの深いネットワークによって抽出された特徴を,独立なガウス分布によって特徴付ける。
提案手法は,より優れたクラス表現を学習することで,分類性能の向上を示す。
- 参考スコア(独自算出の注目度): 6.523198497365588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most classification models can be considered as the process of matching
templates. However, when intra-class uncertainty/variability is not considered,
especially for datasets containing unbalanced classes, this may lead to
classification errors. To address this issue, we propose a loss function with
intra-class uncertainty following Gaussian distribution. Specifically, in our
framework, the features extracted by deep networks of each class are
characterized by independent Gaussian distribution. The parameters of
distribution are learned with a likelihood regularization along with other
network parameters. The means of the Gaussian play a similar role as the center
anchor in existing methods, and the variance describes the uncertainty of
different classes. In addition, similar to the inter-class margin in
traditional loss functions, we introduce a margin to intra-class uncertainty to
make each cluster more compact and reduce the imbalance of feature distribution
from different categories. Based on MNIST, CIFAR, ImageNet, and Long-tailed
CIFAR analyses, the proposed approach shows improved classification
performance, through learning a better class representation.
- Abstract(参考訳): ほとんどの分類モデルはテンプレートマッチングのプロセスと見なすことができる。
しかしながら、クラス内不確実性/可変性が考慮されない場合、特に不均衡クラスを含むデータセットの場合、これは分類エラーにつながる可能性がある。
この問題に対処するため,ガウス分布に続くクラス内不確実性を有する損失関数を提案する。
特に,各クラスのディープネットワークによって抽出された特徴は,ガウス分布の独立性によって特徴づけられる。
分布のパラメータは、他のネットワークパラメータとともに確率正規化によって学習される。
ガウス平均は、既存の方法における中心アンカーと似た役割を担っており、分散は異なるクラスの不確かさを記述する。
さらに,従来の損失関数のクラス間マージンと同様に,クラス内不確実性にマージンを導入し,各クラスタをよりコンパクトにし,異なるカテゴリ間の特徴分布の不均衡を低減する。
提案手法は,MNIST, CIFAR, ImageNet, Long-tailed CIFAR解析に基づいて,より優れたクラス表現の学習を通じて,分類性能の向上を示す。
関連論文リスト
- Class Uncertainty: A Measure to Mitigate Class Imbalance [0.0]
授業の基数のみを考慮すると、クラス不均衡の原因となるすべての問題をカバーできるわけではない。
トレーニング事例の予測的不確実性の平均値として「クラス不確実性」を提案する。
また,SVCI-20は,クラスが同じ数のトレーニングサンプルを持つが,それらの硬さの点で異なる,新しいデータセットとしてキュレートする。
論文 参考訳(メタデータ) (2023-11-23T16:36:03Z) - PatchMix Augmentation to Identify Causal Features in Few-shot Learning [55.64873998196191]
少ないショット学習は、十分なカテゴリをラベル付けしたデータに基づいて学習した知識を、少ない既知の情報を持つ新しいカテゴリに転送することを目的としている。
我々はPatchMixと呼ばれる新しいデータ拡張戦略を提案し、この急激な依存関係を壊すことができる。
このような拡張メカニズムが,既存のメカニズムと異なり,因果的特徴を識別可能であることを示す。
論文 参考訳(メタデータ) (2022-11-29T08:41:29Z) - Generalized Inter-class Loss for Gait Recognition [11.15855312510806]
歩行認識は、遠隔操作で非協調的に行うことのできるユニークな生体計測技術である。
それまでの歩行作業は、クラス間の分散を制限することの重要性を無視しながら、クラス内の分散を最小化することに焦点を当てていた。
サンプルレベルの特徴分布とクラスレベルの特徴分布の両方からクラス間の分散を解消する一般化されたクラス間損失を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:44:53Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Entropy-Based Uncertainty Calibration for Generalized Zero-Shot Learning [49.04790688256481]
一般化ゼロショット学習(GZSL)の目的は、目に見えないクラスと見えないクラスの両方を認識することである。
ほとんどのGZSLメソッドは、通常、見えないクラスの意味情報から視覚表現を合成することを学ぶ。
本論文では,三重項損失を持つ2重変分オートエンコーダを利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T05:21:27Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z) - Variational Feature Disentangling for Fine-Grained Few-Shot
Classification [30.350307891161865]
ファインファインショット認識はしばしば、新しいカテゴリのデータの不足を訓練する問題に悩まされる。
本稿では,未確認クラスのクラス内ばらつきを増大させ,少ショット分類性能を向上させることに焦点を当てる。
論文 参考訳(メタデータ) (2020-10-07T08:13:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。