論文の概要: FLAG-4D: Flow-Guided Local-Global Dual-Deformation Model for 4D Reconstruction
- arxiv url: http://arxiv.org/abs/2602.08558v1
- Date: Mon, 09 Feb 2026 11:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.206283
- Title: FLAG-4D: Flow-Guided Local-Global Dual-Deformation Model for 4D Reconstruction
- Title(参考訳): FLAG-4D:4次元再構成のためのフローガイド型局所2次元変形モデル
- Authors: Guan Yuan Tan, Ngoc Tuan Vu, Arghya Pal, Sailaja Rajanala, Raphael Phan C. -W., Mettu Srinivas, Chee-Ming Ting,
- Abstract要約: FLAG-4Dは3Dガウス原始体が空間と時間を通してどのように進化するかを再構築する。
最先端の手法よりも細かな細部で高忠実で時間的に整合した再構築を実現する。
- 参考スコア(独自算出の注目度): 7.144085821875197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce FLAG-4D, a novel framework for generating novel views of dynamic scenes by reconstructing how 3D Gaussian primitives evolve through space and time. Existing methods typically rely on a single Multilayer Perceptron (MLP) to model temporal deformations, and they often struggle to capture complex point motions and fine-grained dynamic details consistently over time, especially from sparse input views. Our approach, FLAG-4D, overcomes this by employing a dual-deformation network that dynamically warps a canonical set of 3D Gaussians over time into new positions and anisotropic shapes. This dual-deformation network consists of an Instantaneous Deformation Network (IDN) for modeling fine-grained, local deformations and a Global Motion Network (GMN) for capturing long-range dynamics, refined through mutual learning. To ensure these deformations are both accurate and temporally smooth, FLAG-4D incorporates dense motion features from a pretrained optical flow backbone. We fuse these motion cues from adjacent timeframes and use a deformation-guided attention mechanism to align this flow information with the current state of each evolving 3D Gaussian. Extensive experiments demonstrate that FLAG-4D achieves higher-fidelity and more temporally coherent reconstructions with finer detail preservation than state-of-the-art methods.
- Abstract(参考訳): FLAG-4Dは3次元ガウス原始体が空間と時間を通してどのように進化するかを再構築することによって動的シーンの新たなビューを生成する新しいフレームワークである。
既存の手法は通常、時間的変形をモデル化するために単一の多層パーセプトロン(MLP)を頼りにしており、複雑な点運動や細粒度のダイナミックな細部を、特に粗い入力ビューから連続的に捉えるのに苦労することが多い。
我々のアプローチであるFLAG-4Dは、時間とともに3Dガウスの正準集合を新しい位置と異方性形状に動的にワープする二重変形ネットワークを用いてこれを克服する。
この二重変形ネットワークは、微細で局所的な変形をモデル化するための瞬時変形ネットワーク(IDN)と、相互学習を通じて洗練される長距離ダイナミクスをキャプチャするグローバルモーションネットワーク(GMN)から構成される。
これらの変形が正確かつ時間的に滑らかであることを保証するため、FLAG-4Dは予め訓練された光フローバックボーンから高密度な運動特徴を取り入れている。
我々は、これらの動きキューを隣接する時間軸から融合させ、変形誘導型アテンション機構を用いて、この流れ情報を各進化する3次元ガウスの現在の状態と整合させる。
FLAG-4Dは最先端の方法よりも細部保存を施した高忠実で時間的に整合した再構築を実現する。
関連論文リスト
- MoRel: Long-Range Flicker-Free 4D Motion Modeling via Anchor Relay-based Bidirectional Blending with Hierarchical Densification [10.799902862870288]
MoRelは、時間的に一貫したメモリ効率のモデリングのための新しいフレームワークである。
我々のアプローチは、時間的不連続を緩和し、成果物をひらめかせる。
境界メモリ使用率を維持しつつ、時間的コヒーレントでフリッカフリーなロングレンジ4D再構成を実現する。
論文 参考訳(メタデータ) (2025-12-10T02:49:09Z) - 4DSTR: Advancing Generative 4D Gaussians with Spatial-Temporal Rectification for High-Quality and Consistent 4D Generation [28.11338918279445]
本研究では,空間的時間的補正により生成する4次元ガウス散乱を変調する4DSTRと呼ばれる新しい4D生成ネットワークを提案する。
実験の結果,4DSTRは映像から4Dまでの性能を向上し,再現性,空間的時間的整合性,迅速な時間的動きへの適応性に優れていた。
論文 参考訳(メタデータ) (2025-11-10T15:57:03Z) - ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - SHaDe: Compact and Consistent Dynamic 3D Reconstruction via Tri-Plane Deformation and Latent Diffusion [0.0]
本稿では3つの重要な要素を統合した動的3次元シーン再構成のための新しいフレームワークを提案する。
明示的な三面変形場、球面調和(SH)注目の視野条件付き正準場、時間的に認識される潜在拡散。
提案手法は,時間とともに進化する3つの2次元特徴面を用いて4次元シーンを符号化し,効率的なコンパクト表現を実現する。
論文 参考訳(メタデータ) (2025-05-22T11:25:38Z) - Free4D: Tuning-free 4D Scene Generation with Spatial-Temporal Consistency [49.875459658889355]
Free4Dは、単一の画像から4Dシーンを生成するためのチューニング不要のフレームワークである。
我々の重要な洞察は、一貫した4次元シーン表現のために、事前訓練された基礎モデルを蒸留することである。
結果の4D表現はリアルタイムで制御可能なレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-03-26T17:59:44Z) - H3D-DGS: Exploring Heterogeneous 3D Motion Representation for Deformable 3D Gaussian Splatting [39.2960379257236]
ダイナミックシーンの再構築は、3Dビジョンにおいて永続的な課題となる。
変形可能な3Dガウススプラッティングは,リアルタイムレンダリングと高視認性を実現するため,この作業に有効な方法として登場した。
このアプローチは、動的シーンを標準空間における静的な表現と時間変化のシーンモーションに分解する。
Neu3DVおよびCMU-Panopticデータセットを用いた実験により,本手法は最先端の変形可能な3次元ガウススプラッティング技術よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-08-23T12:51:49Z) - Vidu4D: Single Generated Video to High-Fidelity 4D Reconstruction with Dynamic Gaussian Surfels [35.27805034331218]
単一生成ビデオから4D表現を正確に再構成する新しい再構成モデルVidu4Dを提案する。
Vidu4Dのコアとなるのは、提案した動的ガウスサーフェス(DGS)技術である。
論文 参考訳(メタデータ) (2024-05-27T04:43:44Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - Motion2VecSets: 4D Latent Vector Set Diffusion for Non-rigid Shape Reconstruction and Tracking [52.393359791978035]
Motion2VecSetsは点雲列からの動的表面再構成のための4次元拡散モデルである。
グローバルな潜在符号の代わりに、潜在集合で4Dダイナミクスをパラメータ化する。
時間的コヒーレントな物体追跡のために、変形潜在集合を同期的に認知し、複数のフレーム間で情報を交換する。
論文 参考訳(メタデータ) (2024-01-12T15:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。