論文の概要: HEIR: Learning Graph-Based Motion Hierarchies
- arxiv url: http://arxiv.org/abs/2510.26786v1
- Date: Thu, 30 Oct 2025 17:57:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.96703
- Title: HEIR: Learning Graph-Based Motion Hierarchies
- Title(参考訳): HEIR:グラフベースのモーション階層学習
- Authors: Cheng Zheng, William Koch, Baiang Li, Felix Heide,
- Abstract要約: 本研究では、データから直接構造化された解釈可能な動き関係を学習する一般的な階層的な動きモデリング手法を提案する。
グラフに基づく階層構造を用いて観測された動きを表現し、グローバルな絶対運動を親継承パターンと局所的な動き残差に明示的に分解する。
実験の結果,本手法は1次元および2次元の動作階層を再構成し,動的3次元スプレイティングシーンのベースラインよりもリアルで解釈可能な変形を生じさせることがわかった。
- 参考スコア(独自算出の注目度): 30.232977288956814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hierarchical structures of motion exist across research fields, including computer vision, graphics, and robotics, where complex dynamics typically arise from coordinated interactions among simpler motion components. Existing methods to model such dynamics typically rely on manually-defined or heuristic hierarchies with fixed motion primitives, limiting their generalizability across different tasks. In this work, we propose a general hierarchical motion modeling method that learns structured, interpretable motion relationships directly from data. Our method represents observed motions using graph-based hierarchies, explicitly decomposing global absolute motions into parent-inherited patterns and local motion residuals. We formulate hierarchy inference as a differentiable graph learning problem, where vertices represent elemental motions and directed edges capture learned parent-child dependencies through graph neural networks. We evaluate our hierarchical reconstruction approach on three examples: 1D translational motion, 2D rotational motion, and dynamic 3D scene deformation via Gaussian splatting. Experimental results show that our method reconstructs the intrinsic motion hierarchy in 1D and 2D cases, and produces more realistic and interpretable deformations compared to the baseline on dynamic 3D Gaussian splatting scenes. By providing an adaptable, data-driven hierarchical modeling paradigm, our method offers a formulation applicable to a broad range of motion-centric tasks. Project Page: https://light.princeton.edu/HEIR/
- Abstract(参考訳): 運動の階層構造は、コンピュータビジョン、グラフィックス、ロボット工学などの研究分野にまたがって存在し、複雑な力学は一般的に単純な動き成分間の協調相互作用から生じる。
そのような力学をモデル化する既存の手法は、通常、手動で定義されたあるいはヒューリスティックな階層に固定された運動プリミティブを依存し、様々なタスクにおけるそれらの一般化可能性を制限する。
本研究では、データから直接構造化された解釈可能な動き関係を学習する一般的な階層的な動きモデリング手法を提案する。
グラフに基づく階層構造を用いて観測された動きを表現し、グローバルな絶対運動を親継承パターンと局所的な動き残差に明示的に分解する。
階層推論をグラフ学習問題として定式化し、頂点は要素運動を表し、有向エッジはグラフニューラルネットワークを介して学習した親子依存をキャプチャする。
1次元翻訳運動, 2次元回転運動, ガウススプラッティングによる動的3次元シーン変形の3例について階層的再構成手法の評価を行った。
実験の結果,本手法は1次元および2次元の固有運動階層を再構成し,動的3次元ガウススプラッティングシーンのベースラインと比較して,より現実的で解釈可能な変形を生じさせることがわかった。
適応的でデータ駆動型階層型モデリングのパラダイムを提供することにより、幅広い動き中心のタスクに適用可能な定式化を提供する。
Project Page: https://light.princeton.edu/HEIR/
関連論文リスト
- GGMotion: Group Graph Dynamics-Kinematics Networks for Human Motion Prediction [0.0]
GGMotionはグループグラフのダイナミックス・キネマティクスネットワークで、人間のトポロジをグループでモデル化し、ダイナミックスやキネマティクスの事前利用を改善する。
グループ間およびグループ間相互作用モジュールは、異なるスケールで関節の依存関係をキャプチャするために使用される。
本手法は,短期動作予測において有意な性能差を達成している。
論文 参考訳(メタデータ) (2025-07-10T08:02:01Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Act As You Wish: Fine-Grained Control of Motion Diffusion Model with
Hierarchical Semantic Graphs [31.244039305932287]
動き生成のきめ細かい制御のための階層的意味グラフを提案する。
動作記述を階層的なセマンティックグラフに分解し,3段階の動作,行動,具体性を含む。
提案手法は, コミュニティに多大な影響を及ぼす可能性のある, 生成した動きを連続的に改善することができる。
論文 参考訳(メタデータ) (2023-11-02T06:20:23Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。