論文の概要: Deep Neural Network Calibration by Reducing Classifier Shift with Stochastic Masking
- arxiv url: http://arxiv.org/abs/2508.09116v1
- Date: Tue, 12 Aug 2025 17:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.53221
- Title: Deep Neural Network Calibration by Reducing Classifier Shift with Stochastic Masking
- Title(参考訳): 確率的マスキングによる分類器シフトの低減によるディープニューラルネットワークの校正
- Authors: Jiani Ni, He Zhao, Yibo Yang, Dandan Guo,
- Abstract要約: ディープニューラルネットワーク(DNN)は、特に自律運転やヘルスケアといった安全上重要なシナリオにおいて、キャリブレーションの低下に悩まされることが多い。
そこで本稿では,マスクを用いたキャリブレーション手法であるMaC-Calを提案する。
MaC-Calはデータ破損時のキャリブレーション性能とロバスト性に優れる。
- 参考スコア(独自算出の注目度): 24.347895497146876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep neural networks (DNNs) have shown competitive results in many fields. Despite this success, they often suffer from poor calibration, especially in safety-critical scenarios such as autonomous driving and healthcare, where unreliable confidence estimates can lead to serious consequences. Recent studies have focused on improving calibration by modifying the classifier, yet such efforts remain limited. Moreover, most existing approaches overlook calibration errors caused by underconfidence, which can be equally detrimental. To address these challenges, we propose MaC-Cal, a novel mask-based classifier calibration method that leverages stochastic sparsity to enhance the alignment between confidence and accuracy. MaC-Cal adopts a two-stage training scheme with adaptive sparsity, dynamically adjusting mask retention rates based on the deviation between confidence and accuracy. Extensive experiments show that MaC-Cal achieves superior calibration performance and robustness under data corruption, offering a practical and effective solution for reliable confidence estimation in DNNs.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)は多くの分野において競合する結果を示している。
このような成功にもかかわらず、特に自律運転やヘルスケアのような安全上重要なシナリオでは、信頼性の低い信頼性の見積が重大な結果をもたらす場合が多い。
近年の研究では、分類器の変更による校正の改善に焦点が当てられているが、そのような取り組みは限られている。
さらに、既存のほとんどのアプローチは、自信不足によるキャリブレーションエラーを見落としている。
これらの課題に対処するために,確率的空間性を利用して信頼性と精度の整合性を高めるマスクベース分類器キャリブレーション手法であるMaC-Calを提案する。
MaC-Calは適応性のある2段階のトレーニングスキームを採用し、信頼性と精度の差に基づいてマスク保持率を動的に調整する。
大規模な実験により、MC-Calはデータ破損下でのキャリブレーション性能とロバスト性を向上し、DNNの信頼性評価のための実用的で効果的なソリューションを提供することが示された。
関連論文リスト
- Balancing Two Classifiers via A Simplex ETF Structure for Model Calibration [34.52946891778497]
ディープニューラルネットワーク(DNN)は、さまざまな領域にわたる最先端のパフォーマンスを実証している。
彼らはしばしばキャリブレーションの問題に直面するが、特に自動運転やヘルスケアといった安全上重要な応用においてである。
近年,分類器の観点からモデルキャリブレーションの改善が試みられている。
論文 参考訳(メタデータ) (2025-04-14T09:09:01Z) - Calibrating Deep Neural Network using Euclidean Distance [5.3612053942581275]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - Consistency Calibration: Improving Uncertainty Calibration via Consistency among Perturbed Neighbors [22.39558434131574]
モデルキャリブレーションの代替視点として一貫性の概念を導入する。
本稿では,入力間の一貫性に基づいて信頼度を調整する,一貫性(CC)と呼ばれるポストホックキャリブレーション手法を提案する。
また,ロジットレベルでの摂動は計算効率を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-10-16T06:55:02Z) - Feature Clipping for Uncertainty Calibration [24.465567005078135]
現代のディープニューラルネットワーク(DNN)は、しばしば過剰な自信に悩まされ、誤校正につながる。
この問題に対処するために,特徴クリッピング(FC)と呼ばれるポストホックキャリブレーション手法を提案する。
FCは特定の閾値に特徴値をクリップし、高い校正誤差サンプルのエントロピーを効果的に増加させる。
論文 参考訳(メタデータ) (2024-10-16T06:44:35Z) - Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
提案したキャリブレーション深層クラスタリングモデルでは, キャリブレーション誤差の予測値において, 最先端の深部クラスタリング手法を平均5倍に越えるだけでなく, クラスタリング精度も大幅に向上する。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Calibrating Deep Neural Network Classifiers on Out-of-Distribution
Datasets [20.456742449675904]
CCAC(Confidence with a Auxiliary Class)はディープニューラルネットワーク(DNN)のための新しいポストホック信頼度校正法である
CCACのキーノベルティは、誤分類されたサンプルと正しく分類されたサンプルを分離するキャリブレーションモデルにおける補助クラスである。
異なるDNNモデル,データセット,アプリケーションに対する実験により,CCACは従来よりずっと優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-16T04:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。