論文の概要: LocalDyGS: Multi-view Global Dynamic Scene Modeling via Adaptive Local Implicit Feature Decoupling
- arxiv url: http://arxiv.org/abs/2507.02363v1
- Date: Thu, 03 Jul 2025 06:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.778543
- Title: LocalDyGS: Multi-view Global Dynamic Scene Modeling via Adaptive Local Implicit Feature Decoupling
- Title(参考訳): LocalDyGS: 適応型局所命令型特徴デカップリングによるマルチビューグローバルダイナミックシーンモデリング
- Authors: Jiahao Wu, Rui Peng, Jianbo Jiao, Jiayu Yang, Luyang Tang, Kaiqiang Xiong, Jie Liang, Jinbo Yan, Runling Liu, Ronggang Wang,
- Abstract要約: LocalDyGSは、任意の視点でマルチビューインプットから動的ビデオをモデル化する新しい手法である。
提案手法は, 最先端(SOTA)法と比較して, 各種細粒度データセットと競合する。
- 参考スコア(独自算出の注目度): 33.71658540929536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the complex and highly dynamic motions in the real world, synthesizing dynamic videos from multi-view inputs for arbitrary viewpoints is challenging. Previous works based on neural radiance field or 3D Gaussian splatting are limited to modeling fine-scale motion, greatly restricting their application. In this paper, we introduce LocalDyGS, which consists of two parts to adapt our method to both large-scale and fine-scale motion scenes: 1) We decompose a complex dynamic scene into streamlined local spaces defined by seeds, enabling global modeling by capturing motion within each local space. 2) We decouple static and dynamic features for local space motion modeling. A static feature shared across time steps captures static information, while a dynamic residual field provides time-specific features. These are combined and decoded to generate Temporal Gaussians, modeling motion within each local space. As a result, we propose a novel dynamic scene reconstruction framework to model highly dynamic real-world scenes more realistically. Our method not only demonstrates competitive performance on various fine-scale datasets compared to state-of-the-art (SOTA) methods, but also represents the first attempt to model larger and more complex highly dynamic scenes. Project page: https://wujh2001.github.io/LocalDyGS/.
- Abstract(参考訳): 実世界の複雑なダイナミックな動きのため、任意の視点で多視点入力から動的ビデオを合成することは困難である。
神経放射場や3次元ガウススプラッティングに基づく従来の研究は、微細な運動のモデリングに限られており、その応用を著しく制限している。
本稿では,2つの部分から構成されるLocalDyGSを紹介する。
1) 複雑な動的シーンを種によって定義された局所的な局所空間に分解し,各局所空間内の動きを捉えることで大域的モデリングを可能にする。
2) 局所的な空間運動モデリングのための静的特徴と動的特徴を分離する。
時間ステップ間で共有される静的機能は静的情報をキャプチャし、動的残留フィールドは時間固有の機能を提供する。
これらは結合してデコードされ、各局所空間内の運動をモデル化するテンポラルガウスを生成する。
その結果,より現実的なダイナミックな現実のシーンをモデル化する新しい動的シーン再構築フレームワークを提案する。
提案手法は, 最先端技術(SOTA)手法と比較して, 各種細粒度データセットの競合性能を示すだけでなく, より大規模で複雑な高ダイナミックシーンをモデル化する最初の試みでもある。
プロジェクトページ: https://wujh 2001.github.io/LocalDyGS/。
関連論文リスト
- DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - MoDec-GS: Global-to-Local Motion Decomposition and Temporal Interval Adjustment for Compact Dynamic 3D Gaussian Splatting [23.98941743726612]
MoDecGSは、複雑な動きを伴う挑戦的なシナリオにおいて、新しいビューを再構築するためのメモリ効率のよいフレームワークである。
MoDecGSは、現実のダイナミックビデオから動的3Dガウスのための最先端の手法よりも平均70%のモデルサイズ削減を実現している。
論文 参考訳(メタデータ) (2025-01-07T11:43:13Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。