論文の概要: Rediscovering BCE Loss for Uniform Classification
- arxiv url: http://arxiv.org/abs/2403.07289v1
- Date: Tue, 12 Mar 2024 03:44:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:05:16.194063
- Title: Rediscovering BCE Loss for Uniform Classification
- Title(参考訳): 一様分類のためのBCE損失の再発見
- Authors: Qiufu Li, Xi Jia, Jiancan Zhou, Linlin Shen, Jinming Duan
- Abstract要約: 本稿では,全サンプルの分類に統一しきい値を用いた一様分類の概念を紹介する。
本研究では,一様分類におけるモデルの性能を測定する指標として,一様分類精度を提案する。
- 参考スコア(独自算出の注目度): 35.66000285310775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the concept of uniform classification, which employs a
unified threshold to classify all samples rather than adaptive threshold
classifying each individual sample. We also propose the uniform classification
accuracy as a metric to measure the model's performance in uniform
classification. Furthermore, begin with a naive loss, we mathematically derive
a loss function suitable for the uniform classification, which is the BCE
function integrated with a unified bias. We demonstrate the unified threshold
could be learned via the bias. The extensive experiments on six classification
datasets and three feature extraction models show that, compared to the SoftMax
loss, the models trained with the BCE loss not only exhibit higher uniform
classification accuracy but also higher sample-wise classification accuracy. In
addition, the learned bias from BCE loss is very close to the unified threshold
used in the uniform classification. The features extracted by the models
trained with BCE loss not only possess uniformity but also demonstrate better
intra-class compactness and inter-class distinctiveness, yielding superior
performance on open-set tasks such as face recognition.
- Abstract(参考訳): 本稿では,一様分類の概念を導入し,各サンプルを適応的に分類するのではなく,各サンプルを統一的に分類する。
また,一様分類におけるモデルの性能を測定する指標として,一様分類精度を提案する。
さらに,自然損失から始めて,統一バイアスと一体化したbce関数である一様分類に適した損失関数を数学的に導出する。
我々は,統一しきい値がバイアスを通じて学習できることを実証する。
6つの分類データセットと3つの特徴抽出モデルに関する広範な実験は、ソフトマックス損失と比較して、bce損失で訓練されたモデルは、より均一な分類精度を示すだけでなく、サンプル単位の分類精度も高いことを示している。
加えて、BCE損失からの学習バイアスは、均一分類で使用される統一しきい値に非常に近い。
BCEの損失を訓練したモデルによって抽出された特徴は、均一性だけでなく、クラス内コンパクト性やクラス間特異性も向上し、顔認識などのオープンセットタスクに優れた性能をもたらす。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Latent Enhancing AutoEncoder for Occluded Image Classification [2.6217304977339473]
LEARN: Latent Enhancing feature Reconstruction Networkを紹介する。
オートエンコーダベースのネットワークで、頭の前に分類モデルに組み込むことができる。
OccludedPASCAL3D+データセットでは、提案されたLEARNが標準分類モデルより優れている。
論文 参考訳(メタデータ) (2024-02-10T12:22:31Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Bias Amplification Enhances Minority Group Performance [10.380812738348899]
本稿では,新しい2段階学習アルゴリズムであるBAMを提案する。
第1段階では、各トレーニングサンプルに対して学習可能な補助変数を導入することにより、バイアス増幅方式を用いてモデルを訓練する。
第2段階では、バイアス増幅モデルが誤分類したサンプルを重み付けし、その後、再重み付けされたデータセット上で同じモデルをトレーニングし続けます。
論文 参考訳(メタデータ) (2023-09-13T04:40:08Z) - A Visual Interpretation-Based Self-Improved Classification System Using
Virtual Adversarial Training [4.722922834127293]
本稿では,仮想対人訓練(VAT)とBERTモデルを組み合わせた視覚的解釈に基づく自己改善型分類モデルを提案する。
具体的には、テキストの感情を分類するための分類器として、微調整のBERTモデルを用いる。
予測された感情分類ラベルは、半教師付き訓練方法によるスパム分類のための別のBERTの入力の一部として使用される。
論文 参考訳(メタデータ) (2023-09-03T15:07:24Z) - Generative Robust Classification [3.4773470589069477]
相対的に頑健な差別的分類(ソフトマックス)の訓練は、頑健な分類に対する主要なアプローチである。
本稿では, 対人訓練(AT)に基づく生成モデルについて検討する。
アプローチの堅牢性を向上するために、高度なデータ拡張を適用するのは簡単です。
論文 参考訳(メタデータ) (2022-12-14T15:33:11Z) - Score-Based Generative Classifiers [9.063815952852783]
生成モデルは、MNISTのような単純なデータセット上で逆向きに堅牢な分類器として使われてきた。
これまでの結果は、データの可能性と分類精度のトレードオフを示唆している。
スコアに基づく生成モデルは,標準的な識別モデルと比較して,分類精度のギャップを埋めていることを示す。
論文 参考訳(メタデータ) (2021-10-01T15:05:33Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。