論文の概要: RecMoDiffuse: Recurrent Flow Diffusion for Human Motion Generation
- arxiv url: http://arxiv.org/abs/2406.07169v1
- Date: Tue, 11 Jun 2024 11:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 16:13:39.206298
- Title: RecMoDiffuse: Recurrent Flow Diffusion for Human Motion Generation
- Title(参考訳): RecMoDiffuse: Recurrent Flow Diffusion for Human Motion Generation
- Authors: Mirgahney Mohamed, Harry Jake Cunningham, Marc P. Deisenroth, Lourdes Agapito,
- Abstract要約: RecMoDiffuseは時間モデリングのための新しい再帰拡散定式化である。
人間の動作の時間的モデリングにおけるRecMoDiffuseの有効性を実証する。
- 参考スコア(独自算出の注目度): 5.535590461577558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human motion generation has paramount importance in computer animation. It is a challenging generative temporal modelling task due to the vast possibilities of human motion, high human sensitivity to motion coherence and the difficulty of accurately generating fine-grained motions. Recently, diffusion methods have been proposed for human motion generation due to their high sample quality and expressiveness. However, generated sequences still suffer from motion incoherence, and are limited to short duration, and simpler motion and take considerable time during inference. To address these limitations, we propose \textit{RecMoDiffuse: Recurrent Flow Diffusion}, a new recurrent diffusion formulation for temporal modelling. Unlike previous work, which applies diffusion to the whole sequence without any temporal dependency, an approach that inherently makes temporal consistency hard to achieve. Our method explicitly enforces temporal constraints with the means of normalizing flow models in the diffusion process and thereby extends diffusion to the temporal dimension. We demonstrate the effectiveness of RecMoDiffuse in the temporal modelling of human motion. Our experiments show that RecMoDiffuse achieves comparable results with state-of-the-art methods while generating coherent motion sequences and reducing the computational overhead in the inference stage.
- Abstract(参考訳): 人の動き生成はコンピュータアニメーションにおいて最重要視されている。
人間の動きの膨大な可能性、動きのコヒーレンスに対する高い人間の感受性、きめ細かい動きを正確に生成することの難しさにより、これは困難な時間的モデリング課題である。
近年,人間の動作生成のための拡散法が提案されている。
しかし、生成したシーケンスは依然として動きの不整合に悩まされており、短い時間に制限され、より単純な動きに制限され、推論中にかなりの時間を要する。
これらの制約に対処するため、時間モデルのための新しい再帰拡散式である「textit{RecMoDiffuse: Recurrent Flow Diffusion}」を提案する。
時間的依存のない配列全体に拡散を与える以前の研究とは異なり、時間的一貫性を本質的に達成し難いアプローチである。
本手法は,拡散過程における流れモデルの正規化により時間的制約を明示的に適用し,時間的次元への拡散を拡大する。
人間の動作の時間的モデリングにおけるRecMoDiffuseの有効性を実証する。
実験の結果、RecMoDiffuse はコヒーレントな動き列を生成し、推論段階における計算オーバーヘッドを低減しつつ、最先端の手法で同等の結果が得られることがわかった。
関連論文リスト
- Human Motion Synthesis_ A Diffusion Approach for Motion Stitching and In-Betweening [2.5165775267615205]
本研究では,現実的な人間の動きを生成するための変圧器を用いた拡散モデルを提案する。
提案手法は, 中間配列の生成において高い性能を示した。
本稿では,Frechet Inception Distance(FID),Diversity,Multimodalityなどの定量的指標を用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-09-10T18:02:32Z) - Unfolding Time: Generative Modeling for Turbulent Flows in 4D [49.843505326598596]
本研究では,4次元生成拡散モデルと物理インフォームドガイダンスを導入し,現実的な流れ状態列の生成を可能にする。
提案手法は, 乱流多様体からのサブシーケンス全体のサンプリングに有効であることが示唆された。
この進展は、乱流の時間的進化を分析するために生成モデリングを適用するための扉を開く。
論文 参考訳(メタデータ) (2024-06-17T10:21:01Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - EMDM: Efficient Motion Diffusion Model for Fast and High-Quality Motion Generation [57.539634387672656]
現在の最先端生成拡散モデルでは、優れた結果が得られたが、品質を犠牲にすることなく、高速な生成に苦慮している。
高速かつ高品質な人体運動生成のための効率的な運動拡散モデル(EMDM)を提案する。
論文 参考訳(メタデータ) (2023-12-04T18:58:38Z) - TEDi: Temporally-Entangled Diffusion for Long-Term Motion Synthesis [27.23431793291876]
運動系列の時間軸に段階的拡散の概念を適用することを提案する。
私たちのキーとなる考え方は、DDPMフレームワークを拡張して、時間的に異なるデノイングをサポートし、2つの軸を絡み合わせることです。
この新しいメカニズムは、キャラクターアニメーションや他のドメインへの応用により、長期動作合成のための新しいフレームワークへの道を開く。
論文 参考訳(メタデータ) (2023-07-27T17:48:44Z) - Bidirectional Temporal Diffusion Model for Temporally Consistent Human Animation [5.78796187123888]
本研究では,1つの画像,ビデオ,ランダムノイズから時間的コヒーレントな人間のアニメーションを生成する手法を提案する。
両方向の時間的モデリングは、人間の外見の運動あいまいさを大幅に抑制することにより、生成ネットワーク上の時間的コヒーレンスを強制すると主張している。
論文 参考訳(メタデータ) (2023-07-02T13:57:45Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - PhysDiff: Physics-Guided Human Motion Diffusion Model [101.1823574561535]
既存の運動拡散モデルは、拡散過程における物理学の法則をほとんど無視する。
PhysDiffは拡散過程に物理的制約を組み込む。
提案手法は,最先端の動作品質を実現し,身体的可視性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-12-05T18:59:52Z) - Human Motion Diffusion Model [35.05219668478535]
運動拡散モデル(英: Motion Diffusion Model、MDM)は、人間の動作領域に対する変換器に基づく生成モデルである。
我々は,本モデルが軽量な資源で訓練されていることを示すとともに,テキスト・トゥ・モーションとアクション・トゥ・モーションのベンチマークにおいて,最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2022-09-29T16:27:53Z) - Perpetual Motion: Generating Unbounded Human Motion [61.40259979876424]
我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
論文 参考訳(メタデータ) (2020-07-27T21:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。