論文の概要: DrivingScene: A Multi-Task Online Feed-Forward 3D Gaussian Splatting Method for Dynamic Driving Scenes
- arxiv url: http://arxiv.org/abs/2510.24734v1
- Date: Tue, 14 Oct 2025 03:32:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 05:35:45.996172
- Title: DrivingScene: A Multi-Task Online Feed-Forward 3D Gaussian Splatting Method for Dynamic Driving Scenes
- Title(参考訳): ドライビングシーン:ダイナミックドライビングシーンのためのマルチタスクオンラインフィードフォワード3Dガウス切削法
- Authors: Qirui Hou, Wenzhang Sun, Chang Zeng, Chunfeng Wang, Hao Li, Jianxun Cui,
- Abstract要約: 本研究では、2つの連続したサラウンドビュー画像から4次元動的シーンを再構成するオンラインフレームワークであるDrivingSceneを提案する。
私たちの重要なイノベーションは、カメラごとの動的オブジェクトの非剛性動作を予測する軽量な残留フローネットワークです。
- 参考スコア(独自算出の注目度): 11.532584276783105
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Real-time, high-fidelity reconstruction of dynamic driving scenes is challenged by complex dynamics and sparse views, with prior methods struggling to balance quality and efficiency. We propose DrivingScene, an online, feed-forward framework that reconstructs 4D dynamic scenes from only two consecutive surround-view images. Our key innovation is a lightweight residual flow network that predicts the non-rigid motion of dynamic objects per camera on top of a learned static scene prior, explicitly modeling dynamics via scene flow. We also introduce a coarse-to-fine training paradigm that circumvents the instabilities common to end-to-end approaches. Experiments on nuScenes dataset show our image-only method simultaneously generates high-quality depth, scene flow, and 3D Gaussian point clouds online, significantly outperforming state-of-the-art methods in both dynamic reconstruction and novel view synthesis.
- Abstract(参考訳): 動的運転シーンをリアルタイムに高忠実に再現する手法は、複雑なダイナミックスとスパースな視点によって、品質と効率のバランスの取れない先行手法に挑戦されている。
本研究では、2つの連続したサラウンドビュー画像から4次元動的シーンを再構成するオンラインフィードフォワードフレームワークであるDrivingSceneを提案する。
私たちの重要なイノベーションは、学習済みの静的シーンの上にカメラごとの動的オブジェクトの厳密な動きを予測し、シーンフローを介して動的を明示的にモデル化する軽量な残留フローネットワークです。
また、エンド・ツー・エンドのアプローチに共通する不安定性を回避するための粗大なトレーニングパラダイムも導入する。
nuScenesデータセットの実験では、画像のみの手法が高品質の深度、シーンフロー、および3次元ガウス点雲を同時に生成し、動的再構成と新規ビュー合成の両方において、最先端の手法よりも大幅に優れています。
関連論文リスト
- StreamSplat: Towards Online Dynamic 3D Reconstruction from Uncalibrated Video Streams [14.211339652447462]
映像ストリームから動的3Dシーンをリアルタイムに再現することは、多くの実世界のアプリケーションにとって不可欠である。
任意の長さの動画ストリームを動的3D表現にオンラインで変換する,最初の完全なフィードフォワードフレームワークであるStreamSplatを紹介した。
論文 参考訳(メタデータ) (2025-06-10T14:52:36Z) - FreeDriveRF: Monocular RGB Dynamic NeRF without Poses for Autonomous Driving via Point-Level Dynamic-Static Decoupling [13.495102292705253]
FreeDriveRFは、ポーズ入力を必要とせずにシーケンシャルなRGB画像のみを使用して動的駆動シーンを再構築する。
我々は、動的モデリングプロセスの制約を改善するために光学的流れを利用する、歪んだ光線誘導動的オブジェクトレンダリング整合性損失を導入する。
論文 参考訳(メタデータ) (2025-05-14T14:02:49Z) - 3D Gaussian Splatting against Moving Objects for High-Fidelity Street Scene Reconstruction [1.2603104712715607]
本稿では,ダイナミックストリートシーン再構築のための新しい3次元ガウス点分布法を提案する。
提案手法では,高忠実度な静的シーンを保存しながらオブジェクトの移動を除去する。
実験により, 大規模動的環境における再現性の向上, レンダリング性能の向上, 適応性の向上が示された。
論文 参考訳(メタデータ) (2025-03-15T05:41:59Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z) - DynMF: Neural Motion Factorization for Real-time Dynamic View Synthesis with 3D Gaussian Splatting [31.75611852583603]
動的シーンの点当たりの運動は、明示的あるいは学習的な軌跡の小さなセットに分解することができると論じる。
我々の表現は解釈可能であり、効率的であり、複雑な動的シーンの動きのリアルタイムなビュー合成を提供するのに十分な表現力を持っている。
論文 参考訳(メタデータ) (2023-11-30T18:59:11Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。