論文の概要: Diffusion-Based Generative Models for 3D Occupancy Prediction in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2505.23115v1
- Date: Thu, 29 May 2025 05:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.695938
- Title: Diffusion-Based Generative Models for 3D Occupancy Prediction in Autonomous Driving
- Title(参考訳): 自律運転における3次元運転予測のための拡散モデル
- Authors: Yunshen Wang, Yicheng Liu, Tianyuan Yuan, Yucheng Mao, Yingshi Liang, Xiuyu Yang, Honggang Zhang, Hang Zhao,
- Abstract要約: 生成モデルは基礎となるデータ分布を学習し、3Dシーンを前もって組み込む。
実験により,拡散に基づく生成モデルは最先端の識別的アプローチより優れていることが示された。
- 参考スコア(独自算出の注目度): 26.791529611790597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately predicting 3D occupancy grids from visual inputs is critical for autonomous driving, but current discriminative methods struggle with noisy data, incomplete observations, and the complex structures inherent in 3D scenes. In this work, we reframe 3D occupancy prediction as a generative modeling task using diffusion models, which learn the underlying data distribution and incorporate 3D scene priors. This approach enhances prediction consistency, noise robustness, and better handles the intricacies of 3D spatial structures. Our extensive experiments show that diffusion-based generative models outperform state-of-the-art discriminative approaches, delivering more realistic and accurate occupancy predictions, especially in occluded or low-visibility regions. Moreover, the improved predictions significantly benefit downstream planning tasks, highlighting the practical advantages of our method for real-world autonomous driving applications.
- Abstract(参考訳): 視覚入力から正確な3D占有グリッドを正確に予測することは、自律運転には不可欠であるが、現在の識別法は、ノイズの多いデータ、不完全な観察、そして3Dシーンに固有の複雑な構造に苦慮している。
本研究では,拡散モデルを用いて3Dの占有率予測を生成的モデリングタスクとして再設計し,基礎となるデータ分布を学習し,3Dシーンの先行情報を組み込む。
このアプローチは、予測整合性、ノイズの堅牢性を高め、3次元空間構造の複雑さをうまく処理する。
我々の広範な実験により、拡散に基づく生成モデルは最先端の識別的アプローチより優れており、特に閉塞領域や低可視領域において、より現実的で正確な占有率予測を提供する。
さらに、改良された予測は下流の計画タスクに大きく貢献し、現実の自律運転アプリケーションにおける本手法の実用的利点を浮き彫りにした。
関連論文リスト
- Self-Supervised Pre-training with Combined Datasets for 3D Perception in Autonomous Driving [46.24100810736637]
我々は、ラベルのないデータから効果的な3D表現をスクラッチから学習する自己教師付き事前学習フレームワークを導入する。
このアプローチは、3Dオブジェクト検出、BEVセグメンテーション、3Dオブジェクトトラッキング、占有率予測などの下流タスクにおけるモデルパフォーマンスを大幅に改善する。
論文 参考訳(メタデータ) (2025-04-17T07:26:11Z) - An Efficient Occupancy World Model via Decoupled Dynamic Flow and Image-assisted Training [50.71892161377806]
DFIT-OccWorldは、分離されたダイナミックフローとイメージアシストトレーニング戦略を活用する、効率的な3D占有世界モデルである。
提案モデルでは, 静止ボクセルはポーズ変換により容易に得られるのに対し, 既存のボクセルフローを用いて既存の観測を歪曲することで, 将来のダイナミックボクセルを予測できる。
論文 参考訳(メタデータ) (2024-12-18T12:10:33Z) - OccLoff: Learning Optimized Feature Fusion for 3D Occupancy Prediction [5.285847977231642]
3Dセマンティック占有予測は、自動運転の安全性を確保するために不可欠である。
既存のフュージョンベースの占有法では、画像の特徴に対して2次元から3次元のビュー変換を行うのが一般的である。
OccLoffは3次元占有予測のためにFeature Fusionを最適化するフレームワークである。
論文 参考訳(メタデータ) (2024-11-06T06:34:27Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - AdaOcc: Adaptive-Resolution Occupancy Prediction [20.0994984349065]
AdaOccは適応分解能でマルチモーダルな予測手法である。
提案手法は,オブジェクト中心の3次元再構成と全体的占有予測を一つのフレームワークに統合する。
近距離シナリオでは、以前のベースラインを13%以上、ハウスドルフ距離を40%以上上回る。
論文 参考訳(メタデータ) (2024-08-24T03:46:25Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Autoregressive Uncertainty Modeling for 3D Bounding Box Prediction [63.3021778885906]
3Dバウンディングボックスは、多くのコンピュータビジョンアプリケーションで広く使われている中間表現である。
本稿では,自己回帰モデルを利用して高い信頼度予測と意味のある不確実性対策を行う手法を提案する。
我々はシミュレーションデータセットであるCOB-3Dをリリースし、現実世界のロボティクスアプリケーションで発生する新しいタイプのあいまいさを強調します。
論文 参考訳(メタデータ) (2022-10-13T23:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。