論文の概要: Catalyst4D: High-Fidelity 3D-to-4D Scene Editing via Dynamic Propagation
- arxiv url: http://arxiv.org/abs/2603.12766v1
- Date: Fri, 13 Mar 2026 08:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.992759
- Title: Catalyst4D: High-Fidelity 3D-to-4D Scene Editing via Dynamic Propagation
- Title(参考訳): Catalyst4D: ダイナミックプロパゲーションによる高忠実度3D-to-4Dシーン編集
- Authors: Shifeng Chen, Yihui Li, Jun Liao, Hongyu Yang, Di Huang,
- Abstract要約: 高品質な3D編集を動的4Dガウスシーンに転送するフレームワークであるCatalyst4Dを紹介する。
AMGは、オリジナルのガウスアンと編集されたガウスアンの両方から、構造的に安定で空間的に代表的なアンカーのセットを構築している。
CUARは、ガウス色当たりの不確かさを推定することにより、時間的外観整合性を維持する。
- 参考スコア(独自算出の注目度): 51.4527986348543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 3D scene editing using NeRF and 3DGS enable high-quality static scene editing. In contrast, dynamic scene editing remains challenging, as methods that directly extend 2D diffusion models to 4D often produce motion artifacts, temporal flickering, and inconsistent style propagation. We introduce Catalyst4D, a framework that transfers high-quality 3D edits to dynamic 4D Gaussian scenes while maintaining spatial and temporal coherence. At its core, Anchor-based Motion Guidance (AMG) builds a set of structurally stable and spatially representative anchors from both original and edited Gaussians. These anchors serve as robust region-level references, and their correspondences are established via optimal transport to enable consistent deformation propagation without cross-region interference or motion drift. Complementarily, Color Uncertainty-guided Appearance Refinement (CUAR) preserves temporal appearance consistency by estimating per-Gaussian color uncertainty and selectively refining regions prone to occlusion-induced artifacts. Extensive experiments demonstrate that Catalyst4D achieves temporally stable, high-fidelity dynamic scene editing and outperforms existing methods in both visual quality and motion coherence.
- Abstract(参考訳): NeRFと3DGSを用いた3Dシーン編集の最近の進歩は、高品質な静的シーン編集を可能にする。
対照的に、動的シーン編集は、2次元拡散モデルを直接4次元に拡張する手法が、しばしば動きのアーティファクト、時間的ひねり、一貫性のないスタイルの伝播を生成するため、依然として困難である。
空間的・時間的コヒーレンスを維持しつつ,高品質な3D編集を動的4Dガウスシーンに転送するフレームワークであるCatalyst4Dを紹介する。
アンカーをベースとしたモーションガイダンス(AMG)は、オリジナルと編集されたガウスアンの両方から、構造的に安定して空間的に代表されるアンカーのセットを構築している。
これらのアンカーは堅牢な領域レベルの参照として機能し、それらの対応は最適な輸送によって確立され、クロスリージョン干渉や動きのドリフトなしに一貫した変形伝搬を可能にする。
補完的に、カラー不確実性誘導外観保持(CUAR)は、ガウス色当たりの不確かさを推定し、オクルージョン誘導アーティファクトに起因した領域を選択的に精製することにより、時間的外観整合性を保っている。
広汎な実験により、Catalyst4Dは時間的に安定で、高忠実な動的シーン編集を実現し、視覚的品質と動きのコヒーレンスの両方において既存の手法より優れていることが示された。
関連論文リスト
- Mango-GS: Enhancing Spatio-Temporal Consistency in Dynamic Scenes Reconstruction using Multi-Frame Node-Guided 4D Gaussian Splatting [17.957935001501106]
我々は,高忠実度4D再構成のためのノード誘導フレームワークMango-GSを提案する。
時間変換器を利用して、フレームの短いウィンドウ内での動作依存をモデル化する。
Mango-GSは、最先端の再構築品質とリアルタイムレンダリング速度を達成する。
論文 参考訳(メタデータ) (2026-03-12T05:00:16Z) - RU4D-SLAM: Reweighting Uncertainty in Gaussian Splatting SLAM for 4D Scene Reconstruction [8.13353479857245]
4Dリコンストラクション、特に4Dガウシアンスプラッティングは、これらの課題に対処するための有望な方向性を提供する。
本研究では,4次元シーン再構成のための頑健で効率的なフレームワーク,すなわち,ガウススティングSLAM(RU4D-SLAM)における不確実性の再重み付けを提案する。
提案手法は,軌道精度と4次元シーン再構成の両面において,最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2026-02-24T11:47:43Z) - MoRel: Long-Range Flicker-Free 4D Motion Modeling via Anchor Relay-based Bidirectional Blending with Hierarchical Densification [10.799902862870288]
MoRelは、時間的に一貫したメモリ効率のモデリングのための新しいフレームワークである。
我々のアプローチは、時間的不連続を緩和し、成果物をひらめかせる。
境界メモリ使用率を維持しつつ、時間的コヒーレントでフリッカフリーなロングレンジ4D再構成を実現する。
論文 参考訳(メタデータ) (2025-12-10T02:49:09Z) - Motion4D: Learning 3D-Consistent Motion and Semantics for 4D Scene Understanding [54.859943475818234]
基礎モデルからの2次元先行を統一された4次元ガウススプラッティング表現に統合する新しいフレームワークであるMotion4Dを提案する。
1) 局所的な一貫性を維持するために連続的に動き場と意味体を更新する逐次最適化,2) 長期的コヒーレンスのために全ての属性を共同で洗練するグローバル最適化,である。
提案手法は,ポイントベーストラッキング,ビデオオブジェクトセグメンテーション,新しいビュー合成など,多様なシーン理解タスクにおいて,2次元基礎モデルと既存の3Dベースアプローチの両方に優れる。
論文 参考訳(メタデータ) (2025-12-03T09:32:56Z) - 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - UnIRe: Unsupervised Instance Decomposition for Dynamic Urban Scene Reconstruction [36.00679909382783]
シーンを静的な背景と個々の動的インスタンスに分解する3D Splatting (3DGS)ベースのアプローチであるUnIReを提案する。
中心となる4Dスーパーポイントは、多フレームLiDAR点を4D空間にクラスタ化する新しい表現である。
実験により,本手法は動的シーン再構成において,高精度かつ柔軟なインスタンスレベルの編集を可能にしながら,既存の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2025-04-01T13:15:58Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。