論文の概要: SuperOcc: Toward Cohesive Temporal Modeling for Superquadric-based Occupancy Prediction
- arxiv url: http://arxiv.org/abs/2601.15644v1
- Date: Thu, 22 Jan 2026 04:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.493796
- Title: SuperOcc: Toward Cohesive Temporal Modeling for Superquadric-based Occupancy Prediction
- Title(参考訳): SuperOcc:スーパークワッドリックによる職業予測のための結合型時間モデルに向けて
- Authors: Zichen Yu, Quanli Liu, Wei Wang, Liyong Zhang, Xiaoguang Zhao,
- Abstract要約: SuperOccはスーパークワッドリックベースの3D占有率予測の新しいフレームワークである。
1)ビュー中心とオブジェクト中心の時間的手がかりを同時に活用する結合的時間的モデリング機構,(2)クエリの間隔を犠牲にすることなく幾何学的表現性を向上するマルチスーパークアッドリックデコーディング戦略,(3)計算効率を向上させるための効率的なスーパークアッドリック・ボクセル・スプレイティングスキーム,の3つの重要な設計が組み込まれている。
- 参考スコア(独自算出の注目度): 5.86231493109585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D occupancy prediction plays a pivotal role in the realm of autonomous driving, as it provides a comprehensive understanding of the driving environment. Most existing methods construct dense scene representations for occupancy prediction, overlooking the inherent sparsity of real-world driving scenes. Recently, 3D superquadric representation has emerged as a promising sparse alternative to dense scene representations due to the strong geometric expressiveness of superquadrics. However, existing superquadric frameworks still suffer from insufficient temporal modeling, a challenging trade-off between query sparsity and geometric expressiveness, and inefficient superquadric-to-voxel splatting. To address these issues, we propose SuperOcc, a novel framework for superquadric-based 3D occupancy prediction. SuperOcc incorporates three key designs: (1) a cohesive temporal modeling mechanism to simultaneously exploit view-centric and object-centric temporal cues; (2) a multi-superquadric decoding strategy to enhance geometric expressiveness without sacrificing query sparsity; and (3) an efficient superquadric-to-voxel splatting scheme to improve computational efficiency. Extensive experiments on the SurroundOcc and Occ3D benchmarks demonstrate that SuperOcc achieves state-of-the-art performance while maintaining superior efficiency. The code is available at https://github.com/Yzichen/SuperOcc.
- Abstract(参考訳): 3次元占有予測は、運転環境の包括的理解を提供するため、自律運転の領域において重要な役割を果たす。
既存のほとんどの手法は、現実の運転シーンの空間性を見越して、占有率予測のための密集したシーン表現を構築している。
近年, 3次元スーパークアッドリック表現は, 超クアッドリックの強い幾何学的表現性により, 濃密なシーン表現に代わる有望なスパースとして出現している。
しかし、既存のスーパークワッドリックフレームワークは、時間的モデリングが不十分で、クエリの空間性と幾何学的表現性の間の困難なトレードオフと、非効率なスーパークワッドリック・ボクセルスプラッティングに悩まされている。
これらの問題に対処するため,スーパークワッドリックを用いた3次元占有予測のための新しいフレームワークであるSuperOccを提案する。
SuperOcc には,(1) ビュー中心およびオブジェクト中心の時間的手がかりを同時に活用する結合型時間的モデリング機構,(2) クエリ空間を犠牲にすることなく幾何学的表現性を向上するマルチスーパークアッドリックデコーディング戦略,(3) 計算効率を向上させるための効率的なスーパークアッドリック・ボクセル・スプレイティングスキーム,の3つの重要な設計が含まれている。
SurroundOccとOcc3Dベンチマークの大規模な実験は、SuperOccが優れた効率を維持しながら最先端のパフォーマンスを達成することを示した。
コードはhttps://github.com/Yzichen/SuperOcc.comで入手できる。
関連論文リスト
- GS-Occ3D: Scaling Vision-only Occupancy Reconstruction with Gaussian Splatting [31.53981556612888]
職業は自律運転に不可欠であり、知覚と計画に不可欠な幾何学的事前情報を提供する。
既存のメソッドは、主にLiDARベースの占有アノテーションに依存している。
本稿では,視覚のみのスケーラブルなフレームワークであるGS-Occ3Dを提案する。
論文 参考訳(メタデータ) (2025-07-25T17:33:23Z) - QuadricFormer: Scene as Superquadrics for 3D Semantic Occupancy Prediction [49.75084732129701]
3D占有予測は、堅牢な自動運転システムにとって不可欠である。
既存の手法のほとんどは、密度の高いボクセルベースのシーン表現を使用している。
効率的な3次元占有予測のためのスーパークワッドリックモデルであるQuadricFormerを提案する。
論文 参考訳(メタデータ) (2025-06-12T17:59:45Z) - COTR: Compact Occupancy TRansformer for Vision-based 3D Occupancy Prediction [60.87168562615171]
自動運転コミュニティは、3Dの占有率予測に大きな関心を示している。
我々は、幾何学的占有率エンコーダと意味論的グループデコーダを備えたコンパクト占有率TRansformer (COTR)を提案する。
COTRは、8%から15%の相対的な改善でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-04T14:23:18Z) - Scene as Occupancy [66.43673774733307]
OccNetは、カスケードと時間ボクセルデコーダを備えたビジョン中心のパイプラインで、3D占有を再構築する。
nuScenes上に構築された最初の高密度3D占有率ベンチマークであるOpenOccを提案する。
論文 参考訳(メタデータ) (2023-06-05T13:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。