論文の概要: Camera-Only 3D Panoptic Scene Completion for Autonomous Driving through Differentiable Object Shapes
- arxiv url: http://arxiv.org/abs/2505.09562v1
- Date: Wed, 14 May 2025 17:05:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.539488
- Title: Camera-Only 3D Panoptic Scene Completion for Autonomous Driving through Differentiable Object Shapes
- Title(参考訳): 物体形状の異なるカメラ専用3次元パノプティカルシーンコンプリート
- Authors: Nicola Marinello, Simen Cassiman, Jonas Heylen, Marc Proesmans, Luc Van Gool,
- Abstract要約: 本研究は,3次元パノプティカルシーン補完のための新しい枠組みを導入する。
本稿では,3D の占有やシーン補完手法と容易に統合できる Object Module と Panoptic Module を提案する。
- 参考スコア(独自算出の注目度): 46.1006377885189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles need a complete map of their surroundings to plan and act. This has sparked research into the tasks of 3D occupancy prediction, 3D scene completion, and 3D panoptic scene completion, which predict a dense map of the ego vehicle's surroundings as a voxel grid. Scene completion extends occupancy prediction by predicting occluded regions of the voxel grid, and panoptic scene completion further extends this task by also distinguishing object instances within the same class; both aspects are crucial for path planning and decision-making. However, 3D panoptic scene completion is currently underexplored. This work introduces a novel framework for 3D panoptic scene completion that extends existing 3D semantic scene completion models. We propose an Object Module and Panoptic Module that can easily be integrated with 3D occupancy and scene completion methods presented in the literature. Our approach leverages the available annotations in occupancy benchmarks, allowing individual object shapes to be learned as a differentiable problem. The code is available at https://github.com/nicolamarinello/OffsetOcc .
- Abstract(参考訳): 自動運転車は、計画と行動のために周囲の完全な地図が必要です。
これは、エゴ車の周囲の密集した地図をボクセルグリッドとして予測する3D占有予測、3Dシーン完了、および3Dパノプティカルシーン完了のタスクをきっかけにしている。
シーン完了は、ボクセルグリッドの隠蔽領域を予測することによって占有率予測を拡張し、パンプトスコープのシーン完了は、同一クラス内のオブジェクトインスタンスを区別することにより、このタスクをさらに拡張する。
しかし、現在3Dパノラマシーンの完成は未定である。
本研究は,既存の3次元セマンティックシーン補完モデルを拡張した3次元パノプティクスシーン補完のための新しいフレームワークを提案する。
本稿では,本論文で提示した3次元占有とシーンコンプリート手法とを容易に統合できるObject Module and Panoptic Moduleを提案する。
このアプローチでは、占有ベンチマークで利用可能なアノテーションを活用し、個々のオブジェクトの形状を識別可能な問題として学習することができる。
コードはhttps://github.com/nicolamarinello/OffsetOcc で公開されている。
関連論文リスト
- SliceOcc: Indoor 3D Semantic Occupancy Prediction with Vertical Slice Representation [50.420711084672966]
室内3Dセマンティック占有予測に適したRGBカメラベースモデルであるSliceOccを提案する。
EmbodiedScanデータセットの実験結果は、SliceOccが81の屋内カテゴリで15.45%のmIoUを達成したことを示している。
論文 参考訳(メタデータ) (2025-01-28T03:41:24Z) - PanoSSC: Exploring Monocular Panoptic 3D Scene Reconstruction for Autonomous Driving [15.441175735210791]
視覚中心の占有ネットワークは、セマンティクスを持った均一なボクセルで周囲の環境を表現する。
現代の占有ネットワークは主に、ボクセルのセマンティックな予測によって、物体表面から見えるボクセルを再構築することに焦点を当てている。
論文 参考訳(メタデータ) (2024-06-11T07:51:26Z) - Scene as Occupancy [66.43673774733307]
OccNetは、カスケードと時間ボクセルデコーダを備えたビジョン中心のパイプラインで、3D占有を再構築する。
nuScenes上に構築された最初の高密度3D占有率ベンチマークであるOpenOccを提案する。
論文 参考訳(メタデータ) (2023-06-05T13:01:38Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Curiosity-driven 3D Scene Structure from Single-image Self-supervision [22.527696847086574]
これまでの研究は、孤立した3Dオブジェクトを2Dのみの自己スーパービジョンから学習することを実証してきた。
ここでは、複数のオブジェクトで構成された3Dシーン全体(位置、向き、型など)に拡張することにしました。
得られたシステムは、異なる仮想または実画像の2D画像を完全な3Dシーンに変換し、それらのシーンの2D画像からのみ学習する。
論文 参考訳(メタデータ) (2020-12-02T14:17:16Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。