論文の概要: SCas4D: Structural Cascaded Optimization for Boosting Persistent 4D Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2510.06694v1
- Date: Wed, 08 Oct 2025 06:39:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.335071
- Title: SCas4D: Structural Cascaded Optimization for Boosting Persistent 4D Novel View Synthesis
- Title(参考訳): SCas4D: 持続的4次元新規ビュー合成のための構造カスケード最適化
- Authors: Jipeng Lyu, Jiahua Dong, Yu-Xiong Wang,
- Abstract要約: SCas4Dは3次元ガウススプラッティングにおける構造パターンを動的シーンに活用するカスケード最適化フレームワークである。
SCas4Dは、粗い部分レベルから細い点レベルへの変形を段階的に精製することにより、時間フレーム当たり100イテレーション以内の収束を実現する。
このアプローチはまた、自己教師付きオブジェクトセグメンテーション、新しいビュー合成、および高密度点追跡タスクにおける効果を示す。
- 参考スコア(独自算出の注目度): 53.10680153186481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persistent dynamic scene modeling for tracking and novel-view synthesis remains challenging due to the difficulty of capturing accurate deformations while maintaining computational efficiency. We propose SCas4D, a cascaded optimization framework that leverages structural patterns in 3D Gaussian Splatting for dynamic scenes. The key idea is that real-world deformations often exhibit hierarchical patterns, where groups of Gaussians share similar transformations. By progressively refining deformations from coarse part-level to fine point-level, SCas4D achieves convergence within 100 iterations per time frame and produces results comparable to existing methods with only one-twentieth of the training iterations. The approach also demonstrates effectiveness in self-supervised articulated object segmentation, novel view synthesis, and dense point tracking tasks.
- Abstract(参考訳): 追跡と新規ビュー合成のための永続的動的シーンモデリングは、計算効率を保ちながら正確な変形を捉えるのが困難であるため、依然として困難である。
SCas4Dは3次元ガウススプラッティングにおける構造パターンを動的シーンに活用するカスケード最適化フレームワークである。
鍵となる考え方は、実世界の変形はしばしば階層的なパターンを示し、ガウス群も同様な変換を共有することである。
SCas4Dは、粗い部分レベルから細い点レベルへの変形を段階的に洗練することにより、時間フレーム当たり100イテレーション以内の収束を実現し、トレーニングイテレーションの2分の1しか持たない既存の手法に匹敵する結果を生成する。
このアプローチはまた、自己教師付きオブジェクトセグメンテーション、新しいビュー合成、および高密度点追跡タスクにおける効果を示す。
関連論文リスト
- ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - Laplacian Analysis Meets Dynamics Modelling: Gaussian Splatting for 4D Reconstruction [9.911802466255653]
本稿では,ハイブリッドな明示的関数を持つ動的3DGSフレームワークを提案する。
本手法は, 複雑な動的シーンを再構築する際の最先端性能を実証し, 再現精度を向上する。
論文 参考訳(メタデータ) (2025-08-07T01:39:29Z) - SDD-4DGS: Static-Dynamic Aware Decoupling in Gaussian Splatting for 4D Scene Reconstruction [21.822062121612166]
SDD-4DGSは、ガウススプラッティングに基づく4次元シーン再構成のための最初のフレームワークである。
提案手法は,ガウス再建パイプラインに自然に統合された確率論的動的知覚係数に基づく。
5つのベンチマークデータセットの実験により、SDD-4DGSは復元忠実度において最先端の手法を一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2025-03-12T12:25:58Z) - CoDa-4DGS: Dynamic Gaussian Splatting with Context and Deformation Awareness for Autonomous Driving [12.006435326659526]
ダイナミックなシーンレンダリングを改善するために,新しい4次元ガウススプラッティング(4DGS)手法を提案する。
具体的には,2次元セマンティックセグメンテーション基盤モデルを用いて,ガウスの4次元セマンティック特徴を自己監督する。
意味的変形特徴と時間的変形特徴の両方を集約して符号化することにより、各ガウスは潜在的な変形補償のための手がかりを備える。
論文 参考訳(メタデータ) (2025-03-09T19:58:51Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - S4D: Streaming 4D Real-World Reconstruction with Gaussians and 3D Control Points [30.46796069720543]
本稿では,離散的な3次元制御点を用いた4次元実世界の再構成をストリーミングする手法を提案する。
この方法は局所光を物理的にモデル化し、運動デカップリング座標系を確立する。
従来のグラフィックスと学習可能なパイプラインを効果的にマージすることにより、堅牢で効率的なローカルな6自由度(6自由度)モーション表現を提供する。
論文 参考訳(メタデータ) (2024-08-23T12:51:49Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。