論文の概要: Skeleton2Stage: Reward-Guided Fine-Tuning for Physically Plausible Dance Generation
- arxiv url: http://arxiv.org/abs/2602.13778v1
- Date: Sat, 14 Feb 2026 13:48:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.417549
- Title: Skeleton2Stage: Reward-Guided Fine-Tuning for Physically Plausible Dance Generation
- Title(参考訳): Skeleton2Stage: 物理的にプラザブルなダンス生成のためのリワードガイドファインチューニング
- Authors: Jidong Jia, Youjian Zhang, Huan Fu, Dacheng Tao,
- Abstract要約: 関節の軌跡のように見える運動は、人体メッシュで可視化すると、身体の自己貫通と足球接触(FGC)異常を示すことが多い。
物理に基づく報酬をボディーメッシュから導き出すことにより、このスケルトンとメッシュのギャップに対処する。
提案手法は,生成した動きの身体的妥当性を著しく向上させ,よりリアルで美的な舞踊を生み出す。
- 参考スコア(独自算出の注目度): 49.50118203284611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite advances in dance generation, most methods are trained in the skeletal domain and ignore mesh-level physical constraints. As a result, motions that look plausible as joint trajectories often exhibit body self-penetration and Foot-Ground Contact (FGC) anomalies when visualized with a human body mesh, reducing the aesthetic appeal of generated dances and limiting their real-world applications. We address this skeleton-to-mesh gap by deriving physics-based rewards from the body mesh and applying Reinforcement Learning Fine-Tuning (RLFT) to steer the diffusion model toward physically plausible motion synthesis under mesh visualization. Our reward design combines (i) an imitation reward that measures a motion's general plausibility by its imitability in a physical simulator (penalizing penetration and foot skating), and (ii) a Foot-Ground Deviation (FGD) reward with test-time FGD guidance to better capture the dynamic foot-ground interaction in dance. However, we find that the physics-based rewards tend to push the model to generate freezing motions for fewer physical anomalies and better imitability. To mitigate it, we propose an anti-freezing reward to preserve motion dynamics while maintaining physical plausibility. Experiments on multiple dance datasets consistently demonstrate that our method can significantly improve the physical plausibility of generated motions, yielding more realistic and aesthetically pleasing dances. The project page is available at: https://jjd1123.github.io/Skeleton2Stage/
- Abstract(参考訳): ダンス生成の進歩にもかかわらず、ほとんどのメソッドは骨格ドメインでトレーニングされ、メッシュレベルの物理的な制約を無視します。
結果として、関節の軌跡のように見える動きは、人間の体メッシュで視覚化されたときに、身体の自走と足球接触(FGC)異常を示し、生成されたダンスの美的魅力を減らし、現実の応用を制限する。
この骨格間ギャップを、物理に基づく報酬を体メッシュから導出し、RLFT(Reinforcement Learning Fine-Tuning)を適用して、メッシュ可視化下での物理的に可塑性な運動合成に向けて拡散モデルを操る。
報酬デザインが組み合わさる
一 物理的なシミュレータ(ペナルティと足のスケート)において、運動の可視性によって運動の一般的な可視性を測る模倣報酬
(II)フット・グラウンド・デベレーション(FGD)報酬とテスト時間FGDガイダンスを併用し,ダンスにおける動的フット・グラウンド相互作用をよりよく捉えた。
しかし、物理学に基づく報酬は、より少ない物理異常とより良いイミタビリティのために、モデルに凍結運動を発生させる傾向にある。
そこで本研究では,身体的可視性を保ちながら運動力学を保ちつつ,凍結防止策を提案する。
複数のダンスデータセットの実験は、我々の手法が生成した動きの物理的妥当性を大幅に向上し、よりリアルで美的なダンスが得られることを一貫して示している。
プロジェクトページは、https://jjd1123.github.io/Skeleton2Stage/で公開されている。
関連論文リスト
- PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - PAMD: Plausibility-Aware Motion Diffusion Model for Long Dance Generation [51.2555550979386]
Plausibility-Aware Motion Diffusion (PAMD)は、音楽的に整列し、物理的に現実的なダンスを生成するためのフレームワークである。
生成時により効果的なガイダンスを提供するために、プリエント・モーション・ガイダンス(PMG)を取り入れる。
実験により、PAMDは音楽のアライメントを著しく改善し、生成した動きの物理的妥当性を高めることが示された。
論文 参考訳(メタデータ) (2025-05-26T14:44:09Z) - FinePhys: Fine-grained Human Action Generation by Explicitly Incorporating Physical Laws for Effective Skeletal Guidance [6.0892117964531955]
FinePhysは、物理を組み込んだ人間のアクション生成フレームワークで、効果的な骨格指導を得る。
FinePhysはまず、オンラインのやり方で2Dのポーズを推定し、2Dから3Dへのリフトを、コンテキスト内学習で行う。
純粋にデータ駆動型3次元ポーズの不安定性と限定的な解釈性を軽減するため,物理に基づく動き再推定モジュールを導入する。
論文 参考訳(メタデータ) (2025-05-19T17:58:11Z) - Morph: A Motion-free Physics Optimization Framework for Human Motion Generation [28.009524143770076]
現在の運動生成は、物理学的な制約を無視し、物理的に不可解な運動をもたらす。
雑音の多い動きデータを用いて有効な運動物理学を訓練するためのフレームワークである textbfMorph を提案する。
我々のフレームワークは、身体的可視性を大幅に向上させながら、最先端の運動品質を実現する。
論文 参考訳(メタデータ) (2024-11-22T14:09:56Z) - ReinDiffuse: Crafting Physically Plausible Motions with Reinforced Diffusion Model [9.525806425270428]
本稿では、強化学習と運動拡散モデルを組み合わせることで、物理的に信頼できる人間の動きを生成するEmphReinDiffuseを提案する。
動作拡散モデルを用いてパラメータ化された動作分布を出力し、強化学習パラダイムに適合させる。
我々のアプローチは、HumanML3DとKIT-MLという2つの主要なデータセット上で、既存の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-09T16:24:11Z) - Physics-Guided Human Motion Capture with Pose Probability Modeling [35.159506668475565]
既存の解は常にキネマティックな結果を参照運動として採用し、物理は後処理モジュールとして扱われる。
本研究では,逆拡散過程における物理法則を用いて,モデル化されたポーズ確率分布から人間の動きを再構成する。
数回の反復で、物理に基づく追跡とキネマティック・デノゲーションは互いに促進し、物理的に妥当な人間の動きを生成する。
論文 参考訳(メタデータ) (2023-08-19T05:28:03Z) - PhysDiff: Physics-Guided Human Motion Diffusion Model [101.1823574561535]
既存の運動拡散モデルは、拡散過程における物理学の法則をほとんど無視する。
PhysDiffは拡散過程に物理的制約を組み込む。
提案手法は,最先端の動作品質を実現し,身体的可視性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-12-05T18:59:52Z) - Neural MoCon: Neural Motion Control for Physically Plausible Human
Motion Capture [12.631678059354593]
我々は、高精度で微分不可能な物理シミュレータを利用して、モーションキャプチャーに動的制約を組み込む。
我々のキーイデアは、実際の物理的な監督を利用して、サンプリングベースのモーションコントロールの前にターゲットのポーズ分布をトレーニングすることです。
その結果, 複雑な地形相互作用, 人体形状の変化, 多様な行動を伴う身体的可視な人体運動が得られた。
論文 参考訳(メタデータ) (2022-03-26T12:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。