論文の概要: StableMoFusion: Towards Robust and Efficient Diffusion-based Motion Generation Framework
- arxiv url: http://arxiv.org/abs/2405.05691v1
- Date: Thu, 9 May 2024 11:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 13:32:48.053832
- Title: StableMoFusion: Towards Robust and Efficient Diffusion-based Motion Generation Framework
- Title(参考訳): StableMoFusion:ロバストかつ効率的な拡散に基づく運動生成フレームワークを目指して
- Authors: Yiheng Huang, Hui Yang, Chuanchen Luo, Yuxi Wang, Shibiao Xu, Zhaoxiang Zhang, Man Zhang, Junran Peng,
- Abstract要約: 人間の動作生成のための堅牢で効率的なフレームワークであるStableMoFusionを提案する。
我々は、効率的な高品質な人体運動生成のための各コンポーネントを調整する。
足底接触を同定し, 足底運動の補正を行う。
- 参考スコア(独自算出の注目度): 58.31279280316741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to the powerful generative capacity of diffusion models, recent years have witnessed rapid progress in human motion generation. Existing diffusion-based methods employ disparate network architectures and training strategies. The effect of the design of each component is still unclear. In addition, the iterative denoising process consumes considerable computational overhead, which is prohibitive for real-time scenarios such as virtual characters and humanoid robots. For this reason, we first conduct a comprehensive investigation into network architectures, training strategies, and inference processs. Based on the profound analysis, we tailor each component for efficient high-quality human motion generation. Despite the promising performance, the tailored model still suffers from foot skating which is an ubiquitous issue in diffusion-based solutions. To eliminate footskate, we identify foot-ground contact and correct foot motions along the denoising process. By organically combining these well-designed components together, we present StableMoFusion, a robust and efficient framework for human motion generation. Extensive experimental results show that our StableMoFusion performs favorably against current state-of-the-art methods. Project page: https://h-y1heng.github.io/StableMoFusion-page/
- Abstract(参考訳): 拡散モデルの強力な生成能力のおかげで、近年はヒトの運動生成の急速な進歩が見られた。
既存の拡散に基づく手法では、異なるネットワークアーキテクチャとトレーニング戦略が採用されている。
それぞれのコンポーネントの設計の影響はまだ不明である。
さらに、反復的復調処理は、仮想キャラクタやヒューマノイドロボットのようなリアルタイムシナリオでは禁止されている、かなりの計算オーバーヘッドを消費する。
そのため、まずネットワークアーキテクチャ、トレーニング戦略、推論プロセスに関する包括的な調査を行う。
より深い分析に基づいて、我々は、効率的な高品質な人体運動生成のための各コンポーネントを調整する。
有望な性能にもかかわらず、この調整されたモデルは、拡散ベースのソリューションにおいてユビキタスな問題であるフットスケートに悩まされている。
そこで本研究では,フットスケートを除去するために,フットグラウンドの接触を識別し,デノナイジング過程に沿ったフットモーションを補正する。
これらのよく設計されたコンポーネントを有機的に組み合わせることで、人間のモーション生成のための堅牢で効率的なフレームワークであるStableMoFusionを提示する。
我々のStableMoFusionは、現在の最先端手法に対して好適に機能することを示した。
プロジェクトページ:https://h-y1heng.github.io/StableMoFusion-page/
関連論文リスト
- ReinDiffuse: Crafting Physically Plausible Motions with Reinforced Diffusion Model [9.525806425270428]
本稿では、強化学習と運動拡散モデルを組み合わせることで、物理的に信頼できる人間の動きを生成するEmphReinDiffuseを提案する。
動作拡散モデルを用いてパラメータ化された動作分布を出力し、強化学習パラダイムに適合させる。
我々のアプローチは、HumanML3DとKIT-MLという2つの主要なデータセット上で、既存の最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-09T16:24:11Z) - Flexiffusion: Segment-wise Neural Architecture Search for Flexible Denoising Schedule [50.260693393896716]
拡散モデル(diffusion model)は、多様な高品質な画像を生成するのに適した最先端の生成モデルである。
近年,より高速な生成プロセスの自動探索技術が採用されている。
拡散モデルの高速化を目的とした新しいトレーニングフリーNASパラダイムであるFlexiffusionを紹介する。
論文 参考訳(メタデータ) (2024-09-26T06:28:05Z) - MotionMix: Weakly-Supervised Diffusion for Controllable Motion
Generation [19.999239668765885]
MotionMixはノイズと無注釈の両方のモーションシーケンスを利用する弱い教師付き拡散モデルである。
我々のフレームワークは、テキスト・トゥ・モーション、アクション・トゥ・モーション、音楽・トゥ・ダンスのタスクにおける最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2024-01-20T04:58:06Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - AAMDM: Accelerated Auto-regressive Motion Diffusion Model [10.94879097495769]
本稿では,AAMDM(Accelerated Auto-Regressive Motion Diffusion Model)を紹介する。
AAMDMは、品質、多様性、効率性を同時に達成するために設計された、新しいモーション合成フレームワークである。
AAMDMは動作品質,多様性,実行効率において,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-02T23:52:21Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Unifying Human Motion Synthesis and Style Transfer with Denoising
Diffusion Probabilistic Models [9.789705536694665]
デジタル人間のためのリアルな動きを生成することは、コンピュータアニメーションやゲームの中核だが挑戦的な部分である。
スタイル付きモーション合成のためのデノナイズ拡散モデル解を提案する。
局所的な誘導のために人の動きの側面を戦略的に生成する拡散モデルのマルチタスクアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-12-16T15:15:34Z) - MoFusion: A Framework for Denoising-Diffusion-based Motion Synthesis [73.52948992990191]
MoFusionは、高品質な条件付き人間のモーション合成のための新しいノイズ拡散ベースのフレームワークである。
本研究では,運動拡散フレームワーク内での運動可視性に対して,よく知られたキネマティック損失を導入する方法を提案する。
文献の確立されたベンチマークにおけるMoFusionの有効性を,技術の現状と比較した。
論文 参考訳(メタデータ) (2022-12-08T18:59:48Z) - PhysDiff: Physics-Guided Human Motion Diffusion Model [101.1823574561535]
既存の運動拡散モデルは、拡散過程における物理学の法則をほとんど無視する。
PhysDiffは拡散過程に物理的制約を組み込む。
提案手法は,最先端の動作品質を実現し,身体的可視性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-12-05T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。