論文の概要: GSC Loss: A Gaussian Score Calibrating Loss for Deep Learning
- arxiv url: http://arxiv.org/abs/2203.00833v1
- Date: Wed, 2 Mar 2022 02:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 06:25:30.746726
- Title: GSC Loss: A Gaussian Score Calibrating Loss for Deep Learning
- Title(参考訳): GSCの損失: ディープラーニングの損失を測るガウスのスコア
- Authors: Qingsong Zhao, Shuguang Dou, Xiaopeng Ji, Xinyang Jiang, Cairong Zhao,
Yin Wang
- Abstract要約: ディープニューラルネットワーク(DNN)が生み出す予測スコアを校正するために,一般ガウススコア校正(GSC)損失を提案する。
10以上のベンチマークデータセットに対する大規模な実験は、提案されたGSC損失が、さまざまな視覚的タスクにおいて一貫した、重要なパフォーマンス向上をもたらすことを実証している。
- 参考スコア(独自算出の注目度): 16.260520216972854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross entropy (CE) loss integrated with softmax is an orthodox component in
most classification-based frameworks, but it fails to obtain an accurate
probability distribution of predicted scores that is critical for further
decision-making of poor-classified samples. The prediction score calibration
provides a solution to learn the distribution of predicted scores which can
explicitly make the model obtain a discriminative representation. Considering
the entropy function can be utilized to measure the uncertainty of predicted
scores. But, the gradient variation of it is not in line with the expectations
of model optimization. To this end, we proposed a general Gaussian Score
Calibrating (GSC) loss to calibrate the predicted scores produced by the deep
neural networks (DNN). Extensive experiments on over 10 benchmark datasets
demonstrate that the proposed GSC loss can yield consistent and significant
performance boosts in a variety of visual tasks. Notably, our label-independent
GSC loss can be embedded into common improved methods based on the CE loss
easily.
- Abstract(参考訳): ソフトマックスに統合されたクロスエントロピー(ce)損失は、ほとんどの分類ベースのフレームワークにおいて正統的な要素であるが、分類の悪いサンプルのさらなる意思決定に不可欠な予測スコアの正確な確率分布を得ることができない。
予測スコア校正は予測スコアの分布を学習するための解決策を提供し、モデルに識別表現を明示的に得ることができる。
エントロピー関数を考慮すると、予測されたスコアの不確実性を測定することができる。
しかし、itの勾配変化はモデル最適化の期待とは一致しない。
そこで我々は,ディープニューラルネットワーク(DNN)による予測スコアの校正を行うため,一般ガウススコア校正(GSC)損失を提案した。
10以上のベンチマークデータセットに関する広範囲な実験により、提案されたgsc損失は、様々なビジュアルタスクにおいて一貫性があり、著しいパフォーマンス向上をもたらすことが示されている。
特に,CE損失に基づいた共通改善手法にラベル非依存のGSC損失を埋め込むことができる。
関連論文リスト
- Calibrating Deep Neural Network using Euclidean Distance [5.675312975435121]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Model Calibration in Dense Classification with Adaptive Label
Perturbation [44.62722402349157]
既存の密接な二分分類モデルは、過信される傾向がある。
本稿では,各トレーニング画像に対する独自のラベル摂動レベルを学習する適応ラベル摂動(ASLP)を提案する。
ASLPは、分布内および分布外の両方のデータに基づいて、密度の高い二分分類モデルの校正度を著しく改善することができる。
論文 参考訳(メタデータ) (2023-07-25T14:40:11Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Beyond calibration: estimating the grouping loss of modern neural
networks [68.8204255655161]
適切なスコアリングルール理論は、キャリブレーション損失が与えられた場合、個々のエラーを特徴づける欠片がグループ化損失であることを示している。
視覚およびNLPにおける現代のニューラルネットワークアーキテクチャは、特に分散シフト設定においてグループ化損失を示す。
論文 参考訳(メタデータ) (2022-10-28T07:04:20Z) - Fine-grained Classification of Solder Joints with {\alpha}-skew
Jensen-Shannon Divergence [0.0]
半田は特徴多様性が低く, きめ細かい画像分類作業として半田共同検査を行うことができることを示す。
詳細な分類精度を向上させるために,エントロピーの最大化による信頼度モデル予測が文献で有用であることがわかった。
提案手法は, きめ細かな半田関節分類タスクにおいて, 異なるモデルのF1スコアと競争精度を最大化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T17:06:51Z) - EXACT: How to Train Your Accuracy [6.144680854063938]
本稿では,モデル出力にアセンシティを導入し,予測精度を最適化することで,新しい最適化フレームワークを提案する。
線形モデルと深層画像分類の実験により,提案手法は広く用いられている分類損失の強力な代替手段であることが示された。
論文 参考訳(メタデータ) (2022-05-19T15:13:00Z) - The Devil is in the Margin: Margin-based Label Smoothing for Network
Calibration [21.63888208442176]
ディープニューラルネットワークの優位な性能にもかかわらず、最近の研究では、それらが十分に校正されていないことが示されている。
現状のキャリブレーション損失に対する統一的制約最適化の視点を提供する。
我々は不等式制約に基づく単純で柔軟な一般化を提案し、ロジット距離に制御可能なマージンを課す。
論文 参考訳(メタデータ) (2021-11-30T14:21:47Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。