論文の概要: Riemannian Motion Generation: A Unified Framework for Human Motion Representation and Generation via Riemannian Flow Matching
- arxiv url: http://arxiv.org/abs/2603.15016v1
- Date: Mon, 16 Mar 2026 09:19:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:57.909339
- Title: Riemannian Motion Generation: A Unified Framework for Human Motion Representation and Generation via Riemannian Flow Matching
- Title(参考訳): リーマン運動生成:リーマンフローマッチングによる人間の運動表現と生成のための統一フレームワーク
- Authors: Fangran Miao, Jian Huang, Ting Li,
- Abstract要約: 積多様体上の運動を表現し,フローマッチングにより動的に学習する統一的なフレームワークを提案する。
HumanML3Dでは、RMGはHumanML3Dフォーマット(0.043)で最先端のFIDを達成し、MotionStreamerフォーマットで報告されたすべてのメトリクスで第1位である。
アブレーションによると、$mathscrT+mathscrR$表現は最も安定で有効である。
- 参考スコア(独自算出の注目度): 4.876699603141703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion generation is often learned in Euclidean spaces, although valid motions follow structured non-Euclidean geometry. We present Riemannian Motion Generation (RMG), a unified framework that represents motion on a product manifold and learns dynamics via Riemannian flow matching. RMG factorizes motion into several manifold factors, yielding a scale-free representation with intrinsic normalization, and uses geodesic interpolation, tangent-space supervision, and manifold-preserving ODE integration for training and sampling. On HumanML3D, RMG achieves state-of-the-art FID in the HumanML3D format (0.043) and ranks first on all reported metrics under the MotionStreamer format. On MotionMillion, it also surpasses strong baselines (FID 5.6, R@1 0.86). Ablations show that the compact $\mathscr{T}+\mathscr{R}$ (translation + rotations) representation is the most stable and effective, highlighting geometry-aware modeling as a practical and scalable route to high-fidelity motion generation.
- Abstract(参考訳): 人間の運動生成はユークリッド空間でしばしば学習されるが、有効な運動は非ユークリッド幾何学に従う。
本稿では、積多様体上の運動を表現する統一フレームワークであるリーマン運動生成(RMG)を紹介し、リーマンフローマッチングを通して力学を学習する。
RMGは運動をいくつかの多様体因子に分解し、固有正規化を伴うスケールフリー表現をもたらし、測地的補間、接空間の監督、および多様体保存ODE積分を用いて訓練とサンプリングを行う。
HumanML3Dでは、RMGはHumanML3Dフォーマット(0.043)で最先端のFIDを達成し、MotionStreamerフォーマットで報告されたすべてのメトリクスで第1位である。
MotionMillionでは、強力なベースライン(FID 5.6、R@1 0.86)を超える。
アブレーションは、コンパクトな $\mathscr{T}+\mathscr{R}$ (translation + rotations) 表現が最も安定で効果的であることを示し、高忠実な運動生成への実用的でスケーラブルなルートとして幾何認識モデリングを強調している。
関連論文リスト
- Riemannian Liquid Spatio-Temporal Graph Network [6.583503277841693]
LTC(Liquid-Constant Network)は不規則サンプリングされた力学のモデリングに優れるが、基本的にユークリッド空間に限られる。
この制限は、固有の非ユークリッド構造を持つ実世界のグラフを表現する際に、顕著な幾何学的歪みをもたらす。
帰納的帰納的幾何バイアスを伴う連続時間液体力学を統一する枠組みを導入する。
RLSTGは複雑な構造を持つグラフ上で優れた性能を達成する。
論文 参考訳(メタデータ) (2026-01-20T16:09:05Z) - Riemannian Consistency Model [57.933800575074535]
本稿では,Riemannian Consistency Model (RCM)を提案する。
RCMの離散的および連続的な訓練目標に対する閉形式解を導出する。
我々は、RCMの目的を解釈するためのユニークなキネマティクスの視点を提供し、新しい理論的な角度を提供する。
論文 参考訳(メタデータ) (2025-10-01T14:57:25Z) - Geometric Neural Distance Fields for Learning Human Motion Priors [51.99890740169883]
本研究では,より頑健で時間的に整合性があり,物理的に妥当な3次元運動回復を可能にする新しい3D生成人体運動について紹介する。
AMASSデータセットをトレーニングし、NRMFは複数の入力モードにまたがって著しく一般化する。
論文 参考訳(メタデータ) (2025-09-11T17:58:18Z) - Follow the Energy, Find the Path: Riemannian Metrics from Energy-Based Models [63.331590876872944]
本稿では,事前学習したエネルギーベースモデルから直接リーマン計量を導出する手法を提案する。
これらの測度は空間的に異なる距離を定義し、測地学の計算を可能にする。
EBM由来のメトリクスは、確立されたベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-05-23T12:18:08Z) - GeoERM: Geometry-Aware Multi-Task Representation Learning on Riemannian Manifolds [14.251447722365661]
マルチタスク学習(MTL)は、関連するタスク間で共有される構造を発見し、統計力と学習効率を高めることを目的としている。
我々は、その自然なリーマン多様体上に共有表現を埋め込んだ幾何学的MTLフレームワークGeoERMを提案する。
また,GeoERMは評価精度を一定に向上し,負の伝達を低減し,逆ラベル雑音下では安定であることを示す。
論文 参考訳(メタデータ) (2025-05-05T18:56:16Z) - RMLR: Extending Multinomial Logistic Regression into General Geometries [64.16104856124029]
我々のフレームワークは、最小限の幾何学的性質しか必要とせず、広い適用性を示す。
SPD MLRの5つのファミリーを5種類のパワー変形測定値に基づいて開発する。
回転行列上では、人気のある双不変計量に基づいてリー MLR を提案する。
論文 参考訳(メタデータ) (2024-09-28T18:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。