論文の概要: Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection
- arxiv url: http://arxiv.org/abs/2303.14404v1
- Date: Sat, 25 Mar 2023 08:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 20:02:41.915817
- Title: Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection
- Title(参考訳): ブリッジ精度と信頼性:物体検出の校正のための列車時間損失
- Authors: Muhammad Akhtar Munir and Muhammad Haris Khan and Salman Khan and
Fahad Shahbaz Khan
- Abstract要約: 本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
- 参考スコア(独自算出の注目度): 58.789823426981044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have enabled astounding progress in several
vision-based problems. Despite showing high predictive accuracy, recently,
several works have revealed that they tend to provide overconfident predictions
and thus are poorly calibrated. The majority of the works addressing the
miscalibration of DNNs fall under the scope of classification and consider only
in-domain predictions. However, there is little to no progress in studying the
calibration of DNN-based object detection models, which are central to many
vision-based safety-critical applications. In this paper, inspired by the
train-time calibration methods, we propose a novel auxiliary loss formulation
that explicitly aims to align the class confidence of bounding boxes with the
accurateness of predictions (i.e. precision). Since the original formulation of
our loss depends on the counts of true positives and false positives in a
minibatch, we develop a differentiable proxy of our loss that can be used
during training with other application-specific loss functions. We perform
extensive experiments on challenging in-domain and out-domain scenarios with
six benchmark datasets including MS-COCO, Cityscapes, Sim10k, and BDD100k. Our
results reveal that our train-time loss surpasses strong calibration baselines
in reducing calibration error for both in and out-domain scenarios. Our source
code and pre-trained models are available at
https://github.com/akhtarvision/bpc_calibration
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、いくつかの視覚ベースの問題における驚くべき進歩を可能にしている。
予測精度が高いにもかかわらず、近年、いくつかの研究で自信過剰な予測を提供する傾向があり、校正が不十分であることが明らかになった。
DNNの誤校正に対処する研究の大部分は、分類の範囲に該当し、ドメイン内予測のみを考慮する。
しかし、DNNに基づくオブジェクト検出モデルの校正は、多くの視覚に基づく安全クリティカルな応用の中心である、ほとんど、あるいは全く進歩していない。
本稿では,列車時キャリブレーション法に着想を得て,境界箱のクラス信頼度と予測精度(精度)の整合性を明確にした新しい補助損失定式化を提案する。
我々の損失の元々の定式化は、ミニバッチにおける真の正と偽陽性の数に依存するため、他のアプリケーション固有の損失関数とのトレーニングで使用できる、損失の微分可能なプロキシを開発する。
MS-COCO、Cityscapes、Sim10k、BDD100kを含む6つのベンチマークデータセットを使って、ドメイン内およびドメイン外シナリオの挑戦に関する広範な実験を行います。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
ソースコードと事前トレーニング済みモデルはhttps://github.com/akhtarvision/bpc_calibrationで公開されています。
関連論文リスト
- Cal-DETR: Calibrated Detection Transformer [67.75361289429013]
本稿では,Deformable-DETR,UP-DETR,DINOのキャリブレーション検出トランス(Cal-DETR)のメカニズムを提案する。
我々は、不確実性を利用してクラスロジットを変調する不確実性誘導ロジット変調機構を開発する。
その結果、Cal-DETRは、ドメイン内およびドメイン外の両方を校正する競合する列車時間法に対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-11-06T22:13:10Z) - Multiclass Alignment of Confidence and Certainty for Network Calibration [10.15706847741555]
最近の研究では、ディープニューラルネットワーク(DNN)が過信的な予測を行う傾向があることが示されている。
予測平均信頼度と予測確実性(MACC)の多クラスアライメントとして知られる簡易なプラグアンドプレイ補助損失を特徴とする列車時キャリブレーション法を提案する。
本手法は,領域内および領域外両方のキャリブレーション性能を実現する。
論文 参考訳(メタデータ) (2023-09-06T00:56:24Z) - Multiclass Confidence and Localization Calibration for Object Detection [4.119048608751183]
ディープニューラルネットワーク(DNN)は、過信的な予測を行う傾向があり、調整が不十分である。
本稿では,現代の物体検出手法を校正するための新しい列車時手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T06:14:16Z) - Beyond calibration: estimating the grouping loss of modern neural
networks [68.8204255655161]
適切なスコアリングルール理論は、キャリブレーション損失が与えられた場合、個々のエラーを特徴づける欠片がグループ化損失であることを示している。
視覚およびNLPにおける現代のニューラルネットワークアーキテクチャは、特に分散シフト設定においてグループ化損失を示す。
論文 参考訳(メタデータ) (2022-10-28T07:04:20Z) - On the Dark Side of Calibration for Modern Neural Networks [65.83956184145477]
予測キャリブレーション誤差(ECE)を予測信頼度と改善度に分解する。
正規化に基づくキャリブレーションは、モデルの信頼性を損なうことのみに焦点を当てる。
ラベルの平滑化やミキサアップなど,多くのキャリブレーション手法により,DNNの精度を低下させることで,DNNの有用性を低下させることがわかった。
論文 参考訳(メタデータ) (2021-06-17T11:04:14Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - On Calibration of Mixup Training for Deep Neural Networks [1.6242924916178283]
我々は、Mixupが必ずしも校正を改善していないという実証的な証拠を論じ、提示する。
我々の損失はベイズ決定理論にインスパイアされ、確率的モデリングの損失を設計するための新しいトレーニングフレームワークが導入された。
キャリブレーション性能を一貫した改善を施した最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-03-22T16:54:31Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。