論文の概要: $α$-OCC: Uncertainty-Aware Camera-based 3D Semantic Occupancy Prediction
- arxiv url: http://arxiv.org/abs/2406.11021v3
- Date: Sat, 05 Oct 2024 02:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:38:00.446241
- Title: $α$-OCC: Uncertainty-Aware Camera-based 3D Semantic Occupancy Prediction
- Title(参考訳): α$-OCC:不確かさを意識したカメラベースの3Dセマンティックアクシデント予測
- Authors: Sanbao Su, Nuo Chen, Felix Juefei-Xu, Chen Feng, Fei Miao,
- Abstract要約: 本研究では,不確実性を考慮したカメラによる3Dセマンティック占有予測手法を提案する。
われわれの貢献は、OCCの精度と堅牢性において大きな進歩を示しており、自律認識システムにおける重要な一歩である。
- 参考スコア(独自算出の注目度): 34.744565054976285
- License:
- Abstract: In the realm of autonomous vehicle (AV) perception, comprehending 3D scenes is paramount for tasks such as planning and mapping. Camera-based 3D Semantic Occupancy Prediction (OCC) aims to infer scene geometry and semantics from limited observations. While it has gained popularity due to affordability and rich visual cues, existing methods often neglect the inherent uncertainty in models. To address this, we propose an uncertainty-aware camera-based 3D semantic occupancy prediction method ($\alpha$-OCC). Our approach includes an uncertainty propagation framework (Depth-UP) from depth models to enhance geometry completion (up to 11.58\% improvement) and semantic segmentation (up to 12.95\% improvement) for a variety of OCC models. Additionally, we propose a hierarchical conformal prediction (HCP) method to quantify OCC uncertainty, effectively addressing the high-level class imbalance in OCC datasets. On the geometry level, we present a novel KL-based score function that significantly improves the occupied recall of safety-critical classes (45\% improvement) with minimal performance overhead (3.4\% reduction). For uncertainty quantification, we demonstrate the ability to achieve smaller prediction set sizes while maintaining a defined coverage guarantee. Compared with baselines, it reduces up to 92\% set size. Our contributions represent significant advancements in OCC accuracy and robustness, marking a noteworthy step forward in autonomous perception systems.
- Abstract(参考訳): 自動運転車(AV)の認識の領域では、計画やマッピングといったタスクにおいて、3Dシーンの理解が最重要である。
カメラによる3Dセマンティック占領予測(OCC)は,限られた観測からシーン形状と意味を推定することを目的としている。
手頃な価格と豊富な視覚的手がかりによって人気が高まりつつあるが、既存の手法はモデルに固有の不確実性を無視していることが多い。
そこで本研究では,不確実性を考慮したカメラによる3Dセマンティック占有予測手法(\alpha$-OCC)を提案する。
提案手法は, 深度モデルからの不確実性伝播フレームワーク(深度UP)を用いて, 各種OCCモデルの幾何完成度(最大 11.58 % 改善)とセマンティックセグメンテーション(最大 12.95 % 改善)を向上する。
さらに,OCCデータセットの高レベルクラス不均衡を効果的に解消し,OCCの不確かさを定量化する階層型共形予測手法を提案する。
幾何レベルでは,KLに基づく新たなスコア関数が提案され,性能オーバーヘッドが最小限に抑えられた安全クリティカルクラスのリコール(45.%改善)を大幅に改善する(3.4.%削減)。
不確実性定量化のために、定義されたカバレッジ保証を維持しつつ、より小さな予測セットサイズを達成する能力を示す。
ベースラインと比較すると、最大92\%のサイズまで縮小する。
われわれの貢献は、OCCの精度と堅牢性において大きな進歩を示しており、自律認識システムにおける重要な一歩である。
関連論文リスト
- ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - SGCCNet: Single-Stage 3D Object Detector With Saliency-Guided Data Augmentation and Confidence Correction Mechanism [7.631190617438259]
単一段階点ベース3次元物体検出器は、低品質物体(ILQ)の不十分な学習や、局所化精度と分類信頼度(MLC)の不一致といった課題に直面している。
ILQでは、SGCCNetがSaliency-Guided Data Augmentation(SGDA)戦略を採用し、低品質オブジェクトに対するモデルの堅牢性を高める。
MLCでは、ポイントベースマルチクラス検出器に特化して信頼性補正機構(CCM)を設計する。
論文 参考訳(メタデータ) (2024-07-01T12:36:01Z) - Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding [55.32861154245772]
Calib3Dは3Dシーン理解モデルの信頼性をベンチマークし精査する先駆的な試みである。
10の異なる3Dデータセットにまたがる28の最先端モデルを総合的に評価する。
本稿では,3次元モデルのキャリブレーション向上を目的とした,深度対応のスケーリング手法であるDeptSを紹介する。
論文 参考訳(メタデータ) (2024-03-25T17:59:59Z) - PaSCo: Urban 3D Panoptic Scene Completion with Uncertainty Awareness [38.802781781863196]
Panoptic Scene Completion (PSC)タスクは、一般的なセマンティック・シーン・コンプリート(SSC)タスクをインスタンスレベルの情報で拡張する。
我々のPSC提案では,スパースマルチスケールコンプリートから空でないボクセルにマスクを用いたハイブリッド手法を用いている。
提案手法は,Panoptic Scene Completionと3つの大規模自律走行データセットにおける不確実性評価の両方において,すべてのベースラインを超えている。
論文 参考訳(メタデータ) (2023-12-04T18:59:59Z) - COTR: Compact Occupancy TRansformer for Vision-based 3D Occupancy Prediction [60.87168562615171]
自動運転コミュニティは、3Dの占有率予測に大きな関心を示している。
我々は、幾何学的占有率エンコーダと意味論的グループデコーダを備えたコンパクト占有率TRansformer (COTR)を提案する。
COTRは、8%から15%の相対的な改善でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-04T14:23:18Z) - On the Calibration of Human Pose Estimation [39.15814732856338]
Calibrated ConfidenceNet (CCNet)は、市販のポーズ推定フレームワークでAPを最大1.4%改善する軽量なポストホック追加である。
メッシュリカバリの下流タスクに適用されたCCNetは、3Dキーポイントエラーを1.0mm削減する。
論文 参考訳(メタデータ) (2023-11-28T09:31:09Z) - Enhancing Few-shot CLIP with Semantic-Aware Fine-Tuning [61.902254546858465]
Contrastive Language-Image Pre-Trainingに基づく手法は、数発の適応タスクで有望な性能を示した。
本稿では,タスク固有のセマンティクスに焦点を合わせるために,トレーニングプロセス中にアテンションプーリング層のパラメータを微調整することを提案する。
論文 参考訳(メタデータ) (2023-11-08T05:18:57Z) - CPPF++: Uncertainty-Aware Sim2Real Object Pose Estimation by Vote Aggregation [67.12857074801731]
そこで本研究では,シミュレートからリアルなポーズ推定のための新しい手法であるCPPF++を提案する。
投票衝突による課題に対処するため,投票の不確実性をモデル化する新たなアプローチを提案する。
ノイズの多いペアフィルタリング、オンラインアライメント最適化、機能アンサンブルなど、いくつかの革新的なモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2022-11-24T03:27:00Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。