論文の概要: From Black-box to White-box: Examining Confidence Calibration under
different Conditions
- arxiv url: http://arxiv.org/abs/2101.02971v1
- Date: Fri, 8 Jan 2021 11:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 08:14:05.027253
- Title: From Black-box to White-box: Examining Confidence Calibration under
different Conditions
- Title(参考訳): ブラックボックスからホワイトボックス:異なる条件下での信頼度校正の検討
- Authors: Franziska Schwaiger, Maximilian Henne, Fabian K\"uppers, Felippe
Schmoeller Roza, Karsten Roscher, Anselm Haselhoff
- Abstract要約: 信頼性校正は、安全クリティカルな応用にニューラルネットワークを適用する際の大きな関心事である。
画像位置とボックススケールに対する物体検出モデルの誤校正について検討する。
非最大抑制は、当初よく調整された予測を低下させる可能性があることを示し、過信としたがって誤調整モデルにつながる。
- 参考スコア(独自算出の注目度): 13.040764933815598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Confidence calibration is a major concern when applying artificial neural
networks in safety-critical applications. Since most research in this area has
focused on classification in the past, confidence calibration in the scope of
object detection has gained more attention only recently. Based on previous
work, we study the miscalibration of object detection models with respect to
image location and box scale. Our main contribution is to additionally consider
the impact of box selection methods like non-maximum suppression to
calibration. We investigate the default intrinsic calibration of object
detection models and how it is affected by these post-processing techniques.
For this purpose, we distinguish between black-box calibration with non-maximum
suppression and white-box calibration with raw network outputs. Our experiments
reveal that post-processing highly affects confidence calibration. We show that
non-maximum suppression has the potential to degrade initially well-calibrated
predictions, leading to overconfident and thus miscalibrated models.
- Abstract(参考訳): 信頼性校正は、安全クリティカルな応用にニューラルネットワークを適用する際の大きな関心事である。
この領域のほとんどの研究は過去に分類に焦点を合わせてきたため、物体検出範囲における信頼性校正が注目されているのは近年である。
過去の研究に基づいて,画像位置とボックススケールに対する物体検出モデルの誤校正について検討した。
我々の主な貢献は、キャリブレーションに対する非最大抑制のようなボックス選択方法の影響を更に考慮することである。
物体検出モデルの既定固有キャリブレーションとこれらの後処理手法の影響について検討する。
この目的のために,非最大抑制によるブラックボックス校正と生のネットワーク出力によるホワイトボックス校正を区別する。
実験の結果, ポストプロセッシングが信頼度校正に大きく影響することが明らかとなった。
非最大抑制は、当初十分に調整された予測を劣化させる可能性があり、過剰な信頼感と誤った調整モデルに繋がる。
関連論文リスト
- Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - Optimizing Calibration by Gaining Aware of Prediction Correctness [30.619608580138802]
クロスエントロピー(CE)損失はキャリブレータトレーニングに広く使われており、基底真理クラスに対する信頼を高めるためにモデルを強制する。
本稿では, キャリブレーションの目的から得られた, ポストホックキャリブレーションの新たなキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-04-19T17:25:43Z) - Two Sides of Miscalibration: Identifying Over and Under-Confidence
Prediction for Network Calibration [1.192436948211501]
安全クリティカルなタスクにおける信頼性予測には、ディープニューラルネットワークの信頼性校正が不可欠である。
ミススキャリブレーションは、過信と/または過信をモデル化する。
校正点とクラス別校正点を同定するために,新しい校正点である校正点を導入する。
クラスワイドの誤校正スコアをプロキシとして使用して,過度かつ過度に対処可能な校正手法を設計する。
論文 参考訳(メタデータ) (2023-08-06T17:59:14Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - DOMINO: Domain-aware Model Calibration in Medical Image Segmentation [51.346121016559024]
現代のディープニューラルネットワークはキャリブレーションが不十分で、信頼性と信頼性を損なう。
本稿では,クラスラベル間のセマンティック・コンフューザビリティと階層的類似性を利用したドメイン認識モデルキャリブレーション手法であるDOMINOを提案する。
その結果,DOMINOを校正したディープニューラルネットワークは,頭部画像分割における非校正モデルや最先端形態計測法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:31:52Z) - Confidence Calibration for Object Detection and Segmentation [6.700433100198165]
本章では,物体検出とセグメンテーションモデルのための信頼性校正について検討する。
本稿では,よく知られたキャリブレーション手法の拡張である多変量信頼度キャリブレーションの概念を紹介する。
本研究では,特にオブジェクト検出とインスタンス分割モデルが本質的に誤校正されていることを示す。
論文 参考訳(メタデータ) (2022-02-25T15:59:51Z) - Bayesian Confidence Calibration for Epistemic Uncertainty Modelling [4.358626952482686]
キャリブレーション法の不確実性を考慮した信頼度推定手法を提案する。
物体検出校正のための最先端校正性能を実現する。
論文 参考訳(メタデータ) (2021-09-21T10:53:16Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Post-hoc Uncertainty Calibration for Domain Drift Scenarios [46.88826364244423]
既存のポストホックキャリブレーション手法は、ドメインシフト下での過信予測を高い精度で得ることを示した。
ポストホックキャリブレーションステップを実行する前に、検証セットのサンプルに摂動を適用する簡単な戦略を紹介します。
論文 参考訳(メタデータ) (2020-12-20T18:21:13Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。