論文の概要: Towards Temporal Fusion Beyond the Field of View for Camera-based Semantic Scene Completion
- arxiv url: http://arxiv.org/abs/2511.12498v1
- Date: Sun, 16 Nov 2025 08:16:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.280365
- Title: Towards Temporal Fusion Beyond the Field of View for Camera-based Semantic Scene Completion
- Title(参考訳): カメラによるセマンティック・シーン・コンプリートのための視野を超えた時間融合に向けて
- Authors: Jongseong Bae, Junwoo Ha, Jinnyeong Heo, Yeongin Lee, Ha Young Kim,
- Abstract要約: C3DFusionは、現在のフレームと歴史的フレームの両方から3Dリフトポイント特徴を明示的に整列することで、隠れた領域対応の3D特徴幾何を生成する。
Semantic KITTIとSSCBench-KITTI-360データセットでは、最先端の手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 8.914587527823247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent camera-based 3D semantic scene completion (SSC) methods have increasingly explored leveraging temporal cues to enrich the features of the current frame. However, while these approaches primarily focus on enhancing in-frame regions, they often struggle to reconstruct critical out-of-frame areas near the sides of the ego-vehicle, although previous frames commonly contain valuable contextual information about these unseen regions. To address this limitation, we propose the Current-Centric Contextual 3D Fusion (C3DFusion) module, which generates hidden region-aware 3D feature geometry by explicitly aligning 3D-lifted point features from both current and historical frames. C3DFusion performs enhanced temporal fusion through two complementary techniques-historical context blurring and current-centric feature densification-which suppress noise from inaccurately warped historical point features by attenuating their scale, and enhance current point features by increasing their volumetric contribution. Simply integrated into standard SSC architectures, C3DFusion demonstrates strong effectiveness, significantly outperforming state-of-the-art methods on the SemanticKITTI and SSCBench-KITTI-360 datasets. Furthermore, it exhibits robust generalization, achieving notable performance gains when applied to other baseline models.
- Abstract(参考訳): 最近の3Dセマンティック・シーン・コンプリート(SSC)法では,現在のフレームの特徴を豊かにするための時間的手がかりの活用が検討されている。
しかしながら、これらのアプローチは主にフレーム内領域の強化に焦点が当てられているが、エゴ車両の側面に近い重要な枠外領域の再構築に苦慮することが多い。
この制限に対処するため,現在および歴史的フレームから3次元リフトポイント特徴を明示的に整列させることにより,隠れた領域認識型3次元特徴幾何を生成するC3DFusionモジュールを提案する。
C3DFusionは、2つの補完的手法(歴史的文脈のぼかしと電流中心の特徴密度)を通して時間的融合を増強し、その規模を縮小し、不正確な歴史的特徴からノイズを抑えるとともに、その容積的寄与を増大させることにより電流的特徴を高める。
C3DFusionは標準のSSCアーキテクチャに簡単に統合され、SemanticKITTIとSSCBench-KITTI-360データセットの最先端の手法よりも優れた性能を示す。
さらに、ロバストな一般化を示し、他のベースラインモデルに適用した場合に顕著な性能向上を達成する。
関連論文リスト
- Ultra3D: Efficient and High-Fidelity 3D Generation with Part Attention [54.15345846343084]
品質を損なうことなくスパースボクセルモデリングを大幅に高速化する,効率的な3D生成フレームワークであるUltra3Dを提案する。
部分注意(Part Attention)は、意味的に一貫した部分領域内での注意計算を制限する幾何学的な局所的注意機構である。
実験により、Ultra3Dは1024の解像度で高解像度の3D生成をサポートし、視覚的忠実度とユーザの好みの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-23T17:57:16Z) - One Step Closer: Creating the Future to Boost Monocular Semantic Scene Completion [3.664655957801223]
現実世界の交通シナリオでは、視覚的な3Dシーンのかなりの部分は、カメラの視野の外側に留まっている。
本稿では、擬似未来フレーム予測を利用して、モデルの有効性を拡大する新しい時間的SSCフレームワークであるCreating the Future SSCを提案する。
提案手法は、ポーズと深さを組み合わせて正確な3次元対応を確立し、3次元空間における過去、現在、予測される将来のフレームの幾何学的に一貫性のある融合を可能にする。
論文 参考訳(メタデータ) (2025-07-18T10:24:58Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。