論文の概要: Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding
- arxiv url: http://arxiv.org/abs/2403.17010v1
- Date: Mon, 25 Mar 2024 17:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:05:20.516240
- Title: Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding
- Title(参考訳): Calib3D: 信頼性の高い3Dシーン理解のためのモデル設定の校正
- Authors: Lingdong Kong, Xiang Xu, Jun Cen, Wenwei Zhang, Liang Pan, Kai Chen, Ziwei Liu,
- Abstract要約: Calib3Dは3Dシーン理解モデルの信頼性をベンチマークし精査する先駆的な試みである。
10種類の3Dデータセットにわたる28の最先端モデルを評価した。
本稿では,3次元モデルのキャリブレーション向上を目的とした,深度対応のスケーリング手法であるDeptSを紹介する。
- 参考スコア(独自算出の注目度): 55.32861154245772
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Safety-critical 3D scene understanding tasks necessitate not only accurate but also confident predictions from 3D perception models. This study introduces Calib3D, a pioneering effort to benchmark and scrutinize the reliability of 3D scene understanding models from an uncertainty estimation viewpoint. We comprehensively evaluate 28 state-of-the-art models across 10 diverse 3D datasets, uncovering insightful phenomena that cope with both the aleatoric and epistemic uncertainties in 3D scene understanding. We discover that despite achieving impressive levels of accuracy, existing models frequently fail to provide reliable uncertainty estimates -- a pitfall that critically undermines their applicability in safety-sensitive contexts. Through extensive analysis of key factors such as network capacity, LiDAR representations, rasterization resolutions, and 3D data augmentation techniques, we correlate these aspects directly with the model calibration efficacy. Furthermore, we introduce DeptS, a novel depth-aware scaling approach aimed at enhancing 3D model calibration. Extensive experiments across a wide range of configurations validate the superiority of our method. We hope this work could serve as a cornerstone for fostering reliable 3D scene understanding. Code and benchmark toolkits are publicly available.
- Abstract(参考訳): 安全クリティカルな3Dシーン理解タスクは、正確なだけでなく、3D知覚モデルからの確実な予測も必要である。
本研究では,不確実性推定の観点から3次元シーン理解モデルの信頼性をベンチマークし,検証する先駆的な試みであるCalib3Dを紹介する。
10の異なる3Dデータセットにまたがる28の最先端モデルを総合的に評価し,3Dシーン理解における動脈的およびてんかん的不確実性に対処する洞察力のある現象を明らかにする。
この落とし穴は、安全に敏感な状況における適用性を著しく損なうものだ。
ネットワーク容量、LiDAR表現、ラスタライズ解決、および3Dデータ拡張技術といった重要な要素を広範囲に分析することにより、これらの側面をモデル校正の有効性と直接相関する。
さらに,3次元モデルのキャリブレーション向上を目的とした,深度を考慮した新しいスケーリング手法であるDeptSを紹介する。
広範囲にまたがる広範囲な実験により,本手法の優位性が検証された。
この作品が、信頼できる3Dシーン理解の基盤になることを期待している。
コードとベンチマークツールキットが公開されている。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
メソッドは直接3Dアノテーションを必要とせずに堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Robustness-Aware 3D Object Detection in Autonomous Driving: A Review and
Outlook [20.380856953006592]
本研究は,現実シナリオ下での知覚システム評価において,精度と遅延とともに頑健性の重要性を強調した。
本研究は,カメラベース,LiDAR,マルチモーダル3Dオブジェクト検出アルゴリズムを広範囲に調査し,精度,レイテンシ,堅牢性のトレードオフを徹底的に評価する。
これらのうち、マルチモーダル3D検出手法は、優れた堅牢性を示し、新しい分類法を導入して、その文献を再編成し、明確性を高める。
論文 参考訳(メタデータ) (2024-01-12T12:35:45Z) - Robo3D: Towards Robust and Reliable 3D Perception against Corruptions [58.306694836881235]
我々は,3次元検出器とセグメンタのロバスト性を,アウト・オブ・ディストリビューションのシナリオで検証するための,最初の総合的なベンチマークであるRobo3Dを紹介する。
気象条件の悪化,外乱,センサの故障などに起因する8種類の汚職について検討した。
本稿では,モデルレジリエンスを高めるための簡易なフレキシブルなボキセル化戦略とともに,密度に敏感なトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T17:59:17Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Evaluating Uncertainty Estimation Methods on 3D Semantic Segmentation of
Point Clouds [9.957957463532738]
我々はDarkNet21Seg 3Dセマンティックセグメンテーションモデル上で,Deep Ensembles, MC-Dropout, MC-DropConnectの3つの不確実性定量化手法を評価する。
Deep Ensemblesは、パフォーマンスと不確実性の両方で、他の手法よりも優れています。
論文 参考訳(メタデータ) (2020-07-03T16:22:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。