論文の概要: Morph: A Motion-free Physics Optimization Framework for Human Motion Generation
- arxiv url: http://arxiv.org/abs/2411.14951v3
- Date: Thu, 18 Sep 2025 04:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 15:20:13.736627
- Title: Morph: A Motion-free Physics Optimization Framework for Human Motion Generation
- Title(参考訳): Morph:人間の運動生成のための動きのない物理最適化フレームワーク
- Authors: Zhuo Li, Mingshuang Luo, Ruibing Hou, Xin Zhao, Hao Liu, Hong Chang, Zimo Liu, Chen Li,
- Abstract要約: 現在の運動生成は、物理学的な制約を無視し、物理的に不可解な運動をもたらす。
雑音の多い動きデータを用いて有効な運動物理学を訓練するためのフレームワークである textbfMorph を提案する。
我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端の運動品質を実現する。
- 参考スコア(独自算出の注目度): 28.009524143770076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion generation has been widely studied due to its crucial role in areas such as digital humans and humanoid robot control. However, many current motion generation approaches disregard physics constraints, frequently resulting in physically implausible motions with pronounced artifacts such as floating and foot sliding. Meanwhile, training an effective motion physics optimizer with noisy motion data remains largely unexplored. In this paper, we propose \textbf{Morph}, a \textbf{Mo}tion-F\textbf{r}ee \textbf{ph}ysics optimization framework, consisting of a Motion Generator and a Motion Physics Refinement module, for enhancing physical plausibility without relying on expensive real-world motion data. Specifically, the motion generator is responsible for providing large-scale synthetic, noisy motion data, while the motion physics refinement module utilizes these synthetic data to learn a motion imitator within a physics simulator, enforcing physical constraints to project the noisy motions into a physically-plausible space. Additionally, we introduce a prior reward module to enhance the stability of the physics optimization process and generate smoother and more stable motions. These physically refined motions are then used to fine-tune the motion generator, further enhancing its capability. This collaborative training paradigm enables mutual enhancement between the motion generator and the motion physics refinement module, significantly improving practicality and robustness in real-world applications. Experiments on both text-to-motion and music-to-dance generation tasks demonstrate that our framework achieves state-of-the-art motion quality while improving physical plausibility drastically.
- Abstract(参考訳): ヒトの運動生成は、デジタル人間やヒューマノイドロボットの制御などにおいて重要な役割を担っているため、広く研究されている。
しかし、現在の多くの動き生成アプローチは物理学的な制約を無視しており、しばしば浮動小数点や足のすべりのような顕著な人工物による物理的に不可解な動きをもたらす。
一方、ノイズの多い動きデータを用いた効果的な運動物理オプティマイザのトレーニングはほとんど探索されていない。
本稿では,高額な実世界のモーションデータに頼ることなく,身体の可視性を向上させるために,モーションジェネレータとモーション物理リファインメントモジュールから構成される「textbf{Morph}, a \textbf{Mo}tion-F\textbf{r}ee \textbf{ph}ysics Optimization framework」を提案する。
具体的には、運動生成装置は、これらの合成データを利用して、物理シミュレータ内で運動模倣機を学習し、物理的制約を課し、ノイズのある動きを物理的に楽観的な空間に投影する。
さらに、物理最適化プロセスの安定性を高め、よりスムーズでより安定な動きを生成するための事前報酬モジュールも導入する。
これらの物理的に洗練された動きは、モーションジェネレータを微調整するために使用され、その能力をさらに強化する。
この協調トレーニングパラダイムは、モーションジェネレータとモーション物理精製モジュールの相互強化を可能にし、実世界の応用における実用性と堅牢性を大幅に向上させる。
テキスト・トゥ・モーション・タスクと音楽・ダンス・ジェネレーション・タスクの両方の実験により、我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端の動作品質を達成することを示した。
関連論文リスト
- Half-Physics: Enabling Kinematic 3D Human Model with Physical Interactions [88.01918532202716]
SMPL-Xを周囲との動的物理的相互作用が可能な有形実体に埋め込む新しい手法を提案する。
本手法は,シーンやオブジェクトとの物理的に妥当な相互作用を確保しつつ,固有のSMPL-Xポーズの運動制御を維持する。
広範かつ複雑な訓練を必要とする強化学習法とは異なり、ハーフフィック法は学習自由であり、あらゆる身体形状や運動に一般化する。
論文 参考訳(メタデータ) (2025-07-31T17:58:33Z) - RL from Physical Feedback: Aligning Large Motion Models with Humanoid Control [32.37239524019001]
本稿では,テキスト駆動型人間動作をヒューマノイドロボットの実行可能な動作に変換することに焦点を当てた。
既存のテキスト・トゥ・モーション生成手法は、実世界の展開には適さない運動を運動的にも身体的にも生成する。
本稿では,物理認識型動作評価とテキスト条件付き動作生成を統合した新しいフレームワークである物理フィードバックからの強化学習を提案する。
論文 参考訳(メタデータ) (2025-06-15T08:39:49Z) - PhysiInter: Integrating Physical Mapping for High-Fidelity Human Interaction Generation [35.563978243352764]
人間のインタラクション生成パイプライン全体に統合された物理マッピングを導入する。
具体的には、物理に基づくシミュレーション環境での運動模倣は、ターゲットの動きを物理的に有効な空間に投影するために使用される。
実験の結果,人間の運動の質は3%~89%向上した。
論文 参考訳(メタデータ) (2025-06-09T06:04:49Z) - FlexMotion: Lightweight, Physics-Aware, and Controllable Human Motion Generation [12.60677181866807]
本稿では,潜在空間で動作する計算的に軽量な拡散モデルを利用する新しいフレームワークを提案する。
FlexMotionは、マルチモーダルで事前訓練されたトランスフォーマーエンコーダデコーダを採用し、関節位置、接触力、関節のアクティベーション、筋肉の活性化を統合している。
拡張データセット上でFlexMotionを評価し、現実性、物理的妥当性、制御性の観点からその優れた性能を示す。
論文 参考訳(メタデータ) (2025-01-28T08:02:21Z) - A Plug-and-Play Physical Motion Restoration Approach for In-the-Wild High-Difficulty Motions [56.709280823844374]
動作コンテキストとビデオマスクを利用して、欠陥のある動作を修復するマスクベースの動作補正モジュール(MCM)を導入する。
また,運動模倣のための事前訓練および適応手法を用いた物理ベースの運動伝達モジュール (PTM) を提案する。
本手法は,高速な移動を含む映像モーションキャプチャ結果を物理的に洗練するためのプラグイン・アンド・プレイモジュールとして設計されている。
論文 参考訳(メタデータ) (2024-12-23T08:26:00Z) - Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - MotionBank: A Large-scale Video Motion Benchmark with Disentangled Rule-based Annotations [85.85596165472663]
我々は、13の動画アクションデータセット、1.24Mのモーションシーケンス、132.9Mの自然な、多様な人間のモーションフレームからなるMotionBankを構築した。
私たちのMotionBankは、人間のモーション生成、モーションインコンテキスト生成、そしてモーション理解といった、一般的なモーション関連タスクに役立ちます。
論文 参考訳(メタデータ) (2024-10-17T17:31:24Z) - Sitcom-Crafter: A Plot-Driven Human Motion Generation System in 3D Scenes [83.55301458112672]
Sitcom-Crafterは3D空間における人間のモーション生成システムである。
機能生成モジュールの中心は、我々の新しい3Dシーン対応ヒューマン・ヒューマン・インタラクションモジュールである。
拡張モジュールは、コマンド生成のためのプロット理解、異なるモーションタイプのシームレスな統合のためのモーション同期を含む。
論文 参考訳(メタデータ) (2024-10-14T17:56:19Z) - ReinDiffuse: Crafting Physically Plausible Motions with Reinforced Diffusion Model [9.525806425270428]
本稿では、強化学習と運動拡散モデルを組み合わせることで、物理的に信頼できる人間の動きを生成するEmphReinDiffuseを提案する。
動作拡散モデルを用いてパラメータ化された動作分布を出力し、強化学習パラダイムに適合させる。
我々のアプローチは、HumanML3DとKIT-MLという2つの主要なデータセット上で、既存の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-09T16:24:11Z) - DreamPhysics: Learning Physical Properties of Dynamic 3D Gaussians with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - DROP: Dynamics Responses from Human Motion Prior and Projective Dynamics [21.00283279991885]
DROPは、生成的mOtionと射影力学を用いた人間のダイナミクス応答をモデリングするための新しいフレームワークである。
様々な動作タスクや様々な物理的摂動にまたがってモデルを広範囲に評価し、応答のスケーラビリティと多様性を実証する。
論文 参考訳(メタデータ) (2023-09-24T20:25:59Z) - PhysDiff: Physics-Guided Human Motion Diffusion Model [101.1823574561535]
既存の運動拡散モデルは、拡散過程における物理学の法則をほとんど無視する。
PhysDiffは拡散過程に物理的制約を組み込む。
提案手法は,最先端の動作品質を実現し,身体的可視性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-12-05T18:59:52Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z) - MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model [35.32967411186489]
MotionDiffuseは拡散モデルに基づくテキスト駆動モーション生成フレームワークである。
複雑なデータ分散をモデル化し、鮮やかなモーションシーケンスを生成するのに優れています。
体の部分のきめ細かい指示に反応し、時間経過したテキストプロンプトで任意の長さのモーション合成を行う。
論文 参考訳(メタデータ) (2022-08-31T17:58:54Z) - Physics-based Human Motion Estimation and Synthesis from Videos [0.0]
単眼のRGBビデオから直接、身体的に可視な人間の動きの生成モデルを訓練するための枠組みを提案する。
提案手法のコアとなるのは,不完全な画像に基づくポーズ推定を補正する新しい最適化式である。
その結果,我々の身体的補正動作は,ポーズ推定における先行作業よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-09-21T01:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。