論文の概要: Adaptive Bounding Box Uncertainties via Two-Step Conformal Prediction
- arxiv url: http://arxiv.org/abs/2403.07263v1
- Date: Tue, 12 Mar 2024 02:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:01:44.404310
- Title: Adaptive Bounding Box Uncertainties via Two-Step Conformal Prediction
- Title(参考訳): 2段階共形予測による適応境界ボックスの不確かさ
- Authors: Alexander Timans, Christoph-Nikolas Straehle, Kaspar Sakmann, Eric
Nalisnick
- Abstract要約: 我々は共形予測を利用してオブジェクト境界ボックスのカバレッジを保証した不確実区間を求める。
これを行う上での課題のひとつは、オブジェクトのクラスラベルにバウンディングボックスの予測が条件付けられていることだ。
本研究では,予測されたクラスラベルの不確かさを,境界ボックスの不確かさ間隔に伝播させる新しい2段階共形手法を開発する。
- 参考スコア(独自算出の注目度): 48.098218835606055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantifying a model's predictive uncertainty is essential for safety-critical
applications such as autonomous driving. We consider quantifying such
uncertainty for multi-object detection. In particular, we leverage conformal
prediction to obtain uncertainty intervals with guaranteed coverage for object
bounding boxes. One challenge in doing so is that bounding box predictions are
conditioned on the object's class label. Thus, we develop a novel two-step
conformal approach that propagates uncertainty in predicted class labels into
the uncertainty intervals for the bounding boxes. This broadens the validity of
our conformal coverage guarantees to include incorrectly classified objects,
ensuring their usefulness when maximal safety assurances are required.
Moreover, we investigate novel ensemble and quantile regression formulations to
ensure the bounding box intervals are adaptive to object size, leading to a
more balanced coverage across sizes. Validating our two-step approach on
real-world datasets for 2D bounding box localization, we find that desired
coverage levels are satisfied with actionably tight predictive uncertainty
intervals.
- Abstract(参考訳): モデル予測の不確実性の定量化は、自律運転のような安全クリティカルなアプリケーションに不可欠である。
マルチオブジェクト検出のための不確実性を定量化する。
特に、コンフォメーション予測を利用して、オブジェクト境界ボックスのカバレッジが保証された不確実区間を求める。
そのための課題のひとつは、バウンディングボックスの予測がオブジェクトのクラスラベルで条件付けされることだ。
そこで我々は,予測されたクラスラベルの不確かさを境界ボックスの不確かさ区間に伝達する新しい2段階共形アプローチを開発した。
これにより、コンホメーションカバレッジが不正に分類されたオブジェクトを含むことを保証し、最大限の安全保証が必要な場合にその有用性を確保することができる。
さらに,境界ボックス間隔がオブジェクトサイズに適応していることを保証するために,新しいアンサンブルおよび分位回帰式を検討した結果,サイズ間でよりバランスの取れたカバレッジが得られた。
2次元境界ボックスローカライゼーションのための実世界のデータセットに対する2段階のアプローチを検証することで、望ましいカバレッジレベルが、非常に厳密な予測不確実性間隔で満足していることが分かる。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Adaptive Conformal Inference by Particle Filtering under Hidden Markov Models [8.505262415500168]
本稿では,この問題に対処するための粒子フィルタリング手法を活用する適応型共形推論フレームワークを提案する。
観測不能な隠れ状態に直接焦点をあてるのではなく、隠れ状態の実際の後部分布の近似として重み付き粒子を革新的に利用する。
論文 参考訳(メタデータ) (2024-11-03T13:15:32Z) - Integrating uncertainty quantification into randomized smoothing based robustness guarantees [18.572496359670797]
ディープニューラルネットワークは、安全クリティカルなアプリケーションにおいて有害な誤った予測を引き起こす可能性のある敵攻撃に対して脆弱である。
ランダムな滑らか化による認証されたロバスト性は、スムーズ化された分類器の予測が与えられた入力の周りの$ell$-ball内では変化しないという確率的保証を与える。
不確実性に基づく拒絶は、しばしば敵の攻撃からモデルを守るために実践的に適用される技法である。
新たなフレームワークは,ネットワークアーキテクチャや不確実性評価の体系的な評価を可能にすることを実証する。
論文 参考訳(メタデータ) (2024-10-27T13:07:43Z) - Calibrated Perception Uncertainty Across Objects and Regions in
Bird's-Eye-View [2.3943776585660976]
我々は、最先端の限界を強調し、報告すべき不確実性のより完全なセットを提案する。
得られた確率が既定値外校正されていないことを実証し、よく校正された不確実性を実現する方法を提案する。
論文 参考訳(メタデータ) (2022-11-08T16:01:17Z) - Approximate Conditional Coverage via Neural Model Approximations [0.030458514384586396]
実験的に信頼性の高い近似条件付きカバレッジを得るためのデータ駆動手法を解析する。
我々は、限界範囲のカバレッジ保証を持つ分割型代替案で、実質的な(そして、そうでない)アンダーカバーの可能性を実証する。
論文 参考訳(メタデータ) (2022-05-28T02:59:05Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - CertainNet: Sampling-free Uncertainty Estimation for Object Detection [65.28989536741658]
ニューラルネットワークの不確実性を推定することは、安全クリティカルな設定において基本的な役割を果たす。
本研究では,オブジェクト検出のための新しいサンプリング不要不確実性推定法を提案する。
私たちはそれをCertainNetと呼び、各出力信号に対して、オブジェクト性、クラス、位置、サイズという、別の不確実性を提供するのは、これが初めてです。
論文 参考訳(メタデータ) (2021-10-04T17:59:31Z) - Uncertainty-Aware Model Adaptation for Unsupervised Cross-Domain Object
Detection [12.807987076435928]
この研究は、教師なしのクロスドメインオブジェクト検出問題に取り組む。
これは、事前訓練された物体検出器をラベルなしで新しいターゲットドメインに一般化することを目的としている。
論文 参考訳(メタデータ) (2021-08-28T09:37:18Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Localization Uncertainty Estimation for Anchor-Free Object Detection [48.931731695431374]
アンカーベース物体検出のための既存の不確実性推定手法にはいくつかの制限がある。
アンカーフリー物体検出のためのUADと呼ばれる新しい位置推定不確実性推定手法を提案する。
本手法は,ボックスオフセットの4方向の不確かさを均一に捉え,どの方向が不確実であるかを判断する。
論文 参考訳(メタデータ) (2020-06-28T13:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。