論文の概要: Lie Flow: Video Dynamic Fields Modeling and Predicting with Lie Algebra as Geometric Physics Principle
- arxiv url: http://arxiv.org/abs/2602.21645v1
- Date: Wed, 25 Feb 2026 07:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.739047
- Title: Lie Flow: Video Dynamic Fields Modeling and Predicting with Lie Algebra as Geometric Physics Principle
- Title(参考訳): Lie Flow: 幾何学的物理原理としてのLie Algebraを用いたビデオ動場モデリングと予測
- Authors: Weidong Qiao, Wangmeng Zuo, Hui Li,
- Abstract要約: LieFlowは動的放射率表現フレームワークで、動きを明示的にモデル化する。
SE(3)変換場は、運動の連続性と幾何学的整合性を維持するために物理的に着想を得た制約を強制する。
結果,SE(3)に基づくモーションモデリングは動的4Dシーンを表現するための頑健で物理的基盤の枠組みを提供することを確認した。
- 参考スコア(独自算出の注目度): 48.28007238304401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling 4D scenes requires capturing both spatial structure and temporal motion, which is challenging due to the need for physically consistent representations of complex rigid and non-rigid motions. Existing approaches mainly rely on translational displacements, which struggle to represent rotations, articulated transformations, often leading to spatial inconsistency and physically implausible motion. LieFlow, a dynamic radiance representation framework that explicitly models motion within the SE(3) Lie group, enabling coherent learning of translation and rotation in a unified geometric space. The SE(3) transformation field enforces physically inspired constraints to maintain motion continuity and geometric consistency. The evaluation includes a synthetic dataset with rigid-body trajectories and two real-world datasets capturing complex motion under natural lighting and occlusions. Across all datasets, LieFlow consistently improves view-synthesis fidelity, temporal coherence, and physical realism over NeRF-based baselines. These results confirm that SE(3)-based motion modeling offers a robust and physically grounded framework for representing dynamic 4D scenes.
- Abstract(参考訳): 4Dシーンをモデル化するには、複雑な剛性および非剛性運動の物理的に一貫した表現を必要とするため、空間構造と時間運動の両方をキャプチャする必要がある。
既存のアプローチは主に、回転を表現するのに苦労する翻訳の変位に依存しており、しばしば空間的不整合と物理的に不確実な動きをもたらす。
LieFlow(リーフロー)は、SE(3)リー群内の運動を明示的にモデル化し、統一幾何空間における翻訳と回転のコヒーレントな学習を可能にする動的放射率表現フレームワークである。
SE(3)変換場は、運動の連続性と幾何学的整合性を維持するために物理的に着想を得た制約を強制する。
評価には、剛体軌道を持つ合成データセットと、自然光と閉塞下で複雑な動きをキャプチャする2つの実世界のデータセットが含まれる。
すべてのデータセットにおいて、LieFlowは、NeRFベースのベースラインに対するビュー合成の忠実度、時間的コヒーレンス、物理的リアリズムを一貫して改善する。
これらの結果から,SE(3)に基づくモーションモデリングは動的4次元シーンを表現するための頑健で物理的基盤となることが確認された。
関連論文リスト
- TriC-Motion: Tri-Domain Causal Modeling Grounded Text-to-Motion Generation [61.94780858309546]
Tri-Domain Causal Text-to-Motion Generation (TriC-Motion)は、空間ドメインモデリングと因果介入を統合した新しい拡散ベースのフレームワークである。
TriC-Motionは、HumanML3Dデータセット上で0.612の優れたR@1を達成することによって、最先端の手法よりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2026-02-09T10:12:13Z) - Motion4D: Learning 3D-Consistent Motion and Semantics for 4D Scene Understanding [54.859943475818234]
基礎モデルからの2次元先行を統一された4次元ガウススプラッティング表現に統合する新しいフレームワークであるMotion4Dを提案する。
1) 局所的な一貫性を維持するために連続的に動き場と意味体を更新する逐次最適化,2) 長期的コヒーレンスのために全ての属性を共同で洗練するグローバル最適化,である。
提案手法は,ポイントベーストラッキング,ビデオオブジェクトセグメンテーション,新しいビュー合成など,多様なシーン理解タスクにおいて,2次元基礎モデルと既存の3Dベースアプローチの両方に優れる。
論文 参考訳(メタデータ) (2025-12-03T09:32:56Z) - SplitGaussian: Reconstructing Dynamic Scenes via Visual Geometry Decomposition [14.381223353489062]
textbfSplitGaussianは、シーン表現を静的および動的コンポーネントに明示的に分解する新しいフレームワークである。
SplitGaussianは、レンダリング品質、幾何学的安定性、動き分離において、最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-06T09:00:13Z) - DynaSplat: Dynamic-Static Gaussian Splatting with Hierarchical Motion Decomposition for Scene Reconstruction [9.391616497099422]
我々は,ガウススプラッティングをダイナミックなシーンに拡張するアプローチであるDynaSplatを提案する。
我々は、変形オフセット統計と2次元運動流の整合性の融合により、シーン要素を静的または動的に分類する。
次に、粗い大域変換ときめ細かい局所運動の両方を捉える階層的な動きモデリング戦略を導入する。
論文 参考訳(メタデータ) (2025-06-11T15:13:35Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - SurMo: Surface-based 4D Motion Modeling for Dynamic Human Rendering [45.51684124904457]
統合されたフレームワークにおける時間的ダイナミクスと人間の外見をモデル化する新しい4DモーションパラダイムであるSurMoを提案する。
効率的なコンパクトな表面ベース三面体で4次元の人間の動きをモデル化する表面ベースの動き符号化。
身体運動学習を促進するために設計された身体運動復号法。
表面条件の効率的なデコードにより、モーショントリプレーンを画像にレンダリングする4次元の外観モデリング。
論文 参考訳(メタデータ) (2024-04-01T16:34:27Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。