論文の概要: The Box Size Confidence Bias Harms Your Object Detector
- arxiv url: http://arxiv.org/abs/2112.01901v1
- Date: Fri, 3 Dec 2021 13:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 15:51:01.466311
- Title: The Box Size Confidence Bias Harms Your Object Detector
- Title(参考訳): 箱サイズの信頼度がオブジェクト検出器を損なう
- Authors: Johannes Gilg, Torben Teepe, Fabian Herzog, Gerhard Rigoll
- Abstract要約: 条件付き信頼バイアスは、対象検出器の期待性能を損なうことを示す。
具体的には、ヒストグラム・ビンニング・キャリブレーションを改良して、パフォーマンス障害を回避するだけでなく、性能を向上させる方法を示す。
余分なデータやトレーニングなしに最大0.6mAPと0.8mAP50の改善を示す。
- 参考スコア(独自算出の注目度): 7.445987710491257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Countless applications depend on accurate predictions with reliable
confidence estimates from modern object detectors. It is well known, however,
that neural networks including object detectors produce miscalibrated
confidence estimates. Recent work even suggests that detectors' confidence
predictions are biased with respect to object size and position, but it is
still unclear how this bias relates to the performance of the affected object
detectors. We formally prove that the conditional confidence bias is harming
the expected performance of object detectors and empirically validate these
findings. Specifically, we demonstrate how to modify the histogram binning
calibration to not only avoid performance impairment but also improve
performance through conditional confidence calibration. We further find that
the confidence bias is also present in detections generated on the training
data of the detector, which we leverage to perform our de-biasing without using
additional data. Moreover, Test Time Augmentation magnifies this bias, which
results in even larger performance gains from our calibration method. Finally,
we validate our findings on a diverse set of object detection architectures and
show improvements of up to 0.6 mAP and 0.8 mAP50 without extra data or
training.
- Abstract(参考訳): 数え切れないほどの応用は、現代の物体検出器からの信頼度推定による正確な予測に依存する。
しかし、物体検出器を含むニューラルネットワークが誤った信頼度推定を生成することはよく知られている。
最近の研究は、検出器の信頼度予測が物体のサイズと位置に関して偏っていることを示唆しているが、この偏りが影響を受ける物体検出器の性能にどのように関係しているかはまだ不明である。
条件付き信頼バイアスが対象検出器の期待性能を損なうことを正式に証明し,これらの知見を実証的に検証する。
具体的には,性能の低下を回避するだけでなく,条件付き信頼度校正による性能向上を図るために,ヒストグラムバイナリ校正の修正方法を示す。
さらに,検出者のトレーニングデータから生成された検出データにも信頼度バイアスが存在することを見出し,追加データを用いずにバイアス軽減を行う。
さらに、テスト時間拡張は、このバイアスを拡大し、キャリブレーション法からさらに大きなパフォーマンス向上をもたらす。
最後に, オブジェクト検出アーキテクチャの多種多様さを検証し, 余分なデータやトレーニングなしに最大0.6mAP, 0.8mAP50の改善を示す。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Beyond Classification: Definition and Density-based Estimation of
Calibration in Object Detection [15.71719154574049]
我々はディープニューラルネットワーク(DNN)の校正誤差の定義と推定に挑戦する。
特に,物体検出に伴うニュアンスに対処するため,分類校正誤差の定義に適応する。
カーネル密度推定を用いた検出校正誤差の一貫した微分可能な推定器を提案する。
論文 参考訳(メタデータ) (2023-12-11T18:57:05Z) - A Review of Uncertainty Calibration in Pretrained Object Detectors [5.440028715314566]
多クラス設定における事前訓練対象検出アーキテクチャの不確実性校正特性について検討する。
公平でバイアスのない,繰り返し可能な評価を実現するためのフレームワークを提案する。
検出器のキャリブレーションが低い理由について、新しい知見を提供する。
論文 参考訳(メタデータ) (2022-10-06T14:06:36Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z) - Confidence Calibration for Intent Detection via Hyperspherical Space and
Rebalanced Accuracy-Uncertainty Loss [17.26964140836123]
一部のシナリオでは、ユーザは正確さだけでなく、モデルの信頼性も気にします。
本稿では,超球面空間と精度・不確かさ損失の再バランスを用いたモデルを提案する。
本モデルでは,既存の校正手法より優れ,校正基準の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-03-17T12:01:33Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Gradient-Based Quantification of Epistemic Uncertainty for Deep Object
Detectors [8.029049649310213]
本稿では,新しい勾配に基づく不確実性指標を導入し,異なる物体検出アーキテクチャについて検討する。
実験では、真の肯定的/偽の正の判別と、結合上の交叉の予測において顕著な改善が示された。
また,モンテカルロのドロップアウト不確実性指標に対する改善や,さまざまな不確実性指標のソースを集約することで,さらなる大幅な向上が期待できる。
論文 参考訳(メタデータ) (2021-07-09T16:04:11Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Multivariate Confidence Calibration for Object Detection [7.16879432974126]
本稿では,物体検出手法の偏りのある信頼度推定を計測・校正するための新しい枠組みを提案する。
提案手法により,画像位置とボックススケールに対する補正された信頼度推定値が得られた。
提案手法は,物体検出タスクにおける最先端キャリブレーションモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-28T14:17:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。