論文の概要: BézierGS: Dynamic Urban Scene Reconstruction with Bézier Curve Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.22099v3
- Date: Tue, 08 Jul 2025 12:22:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 14:27:12.87181
- Title: BézierGS: Dynamic Urban Scene Reconstruction with Bézier Curve Gaussian Splatting
- Title(参考訳): BézierGS:Bézier Curve Gaussian Splattingによる都市景観の動的再構築
- Authors: Zipei Ma, Junzhe Jiang, Yurui Chen, Li Zhang,
- Abstract要約: B'ezier curve splatting (B'ezierGS) は、学習可能な B'ezier curve を用いて動的対象の運動軌跡を表す。
B'ezierGSは動的および静的なシーンコンポーネントの再構築と新しいビュー合成において、最先端の代替よりも優れている。
- 参考スコア(独自算出の注目度): 3.376357029373187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The realistic reconstruction of street scenes is critical for developing real-world simulators in autonomous driving. Most existing methods rely on object pose annotations, using these poses to reconstruct dynamic objects and move them during the rendering process. This dependence on high-precision object annotations limits large-scale and extensive scene reconstruction. To address this challenge, we propose B\'ezier curve Gaussian splatting (B\'ezierGS), which represents the motion trajectories of dynamic objects using learnable B\'ezier curves. This approach fully leverages the temporal information of dynamic objects and, through learnable curve modeling, automatically corrects pose errors. By introducing additional supervision on dynamic object rendering and inter-curve consistency constraints, we achieve reasonable and accurate separation and reconstruction of scene elements. Extensive experiments on the Waymo Open Dataset and the nuPlan benchmark demonstrate that B\'ezierGS outperforms state-of-the-art alternatives in both dynamic and static scene components reconstruction and novel view synthesis.
- Abstract(参考訳): ストリートシーンの現実的な再構築は、自動運転における現実のシミュレータの開発に不可欠である。
既存のほとんどのメソッドはオブジェクトのポーズアノテーションに依存しており、これらのポーズを使用して動的なオブジェクトを再構築し、レンダリングプロセス中にそれらを動かす。
この高精度オブジェクトアノテーションへの依存は、大規模かつ広範囲なシーン再構築を制限する。
この課題に対処するために、学習可能なB'ezier曲線を用いて動的対象の運動軌跡を表すB\'ezier curve Gaussier splatting (B\'ezierGS)を提案する。
このアプローチは動的オブジェクトの時間的情報を完全に活用し、学習可能な曲線モデリングによって自動的にポーズエラーを修正する。
動的オブジェクトレンダリングと曲線間の整合性制約のさらなる監督を導入することで、シーン要素の合理的かつ正確な分離と再構築を実現する。
Waymo Open DatasetとnuPlanベンチマークに関する大規模な実験は、B\'ezierGSが動的および静的なシーンコンポーネントの再構築と新しいビュー合成の両方において、最先端の代替よりも優れていることを示している。
関連論文リスト
- AD-GS: Object-Aware B-Spline Gaussian Splatting for Self-Supervised Autonomous Driving [29.420887070252274]
我々は,単一のログから駆動シーンの高品質な自由視点レンダリングを実現するための,新しい自己教師型フレームワークAD-GSを紹介する。
中心となるのは、局所性を考慮したB-スプライン曲線と大域的な三角関数を統合する新しい学習可能な運動モデルである。
我々のモデルは、可視性推論と物理的に厳密な正規化を取り入れ、堅牢性を高めている。
論文 参考訳(メタデータ) (2025-07-16T11:10:57Z) - DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - Feed-Forward Bullet-Time Reconstruction of Dynamic Scenes from Monocular Videos [101.48581851337703]
動的シーンのリアルタイム再構成と新しいビュー合成のための,モーション対応フィードフォワードモデルであるBTimerを提案する。
提案手法は,すべてのコンテキストフレームから情報を集約することにより,所定の目標("bullet')タイムスタンプにおける3次元ガウススティング表現の全体像を再構成する。
カジュアルなモノクロのダイナミックビデオが与えられた後、BTimerは150ms以内の弾道時間シーンを再構築し、静的および動的両方のシーンデータセットで最先端のパフォーマンスに到達した。
論文 参考訳(メタデータ) (2024-12-04T18:15:06Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - Where Does It End? -- Reasoning About Hidden Surfaces by Object
Intersection Constraints [6.653734987585243]
Co-Sectionは3次元動的シーン再構築のための最適化ベースのアプローチである。
オブジェクトレベルの動的SLAMはシーン内のセグメントを検出し、トラックし、動的オブジェクトをマップする。
論文 参考訳(メタデータ) (2020-04-09T16:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。