論文の概要: Deep Compositional Phase Diffusion for Long Motion Sequence Generation
- arxiv url: http://arxiv.org/abs/2510.14427v1
- Date: Thu, 16 Oct 2025 08:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.778351
- Title: Deep Compositional Phase Diffusion for Long Motion Sequence Generation
- Title(参考訳): 長動き列生成のための深部構成相拡散
- Authors: Ho Yin Au, Jie Chen, Junkun Jiang, Jingyu Xiang,
- Abstract要約: 本稿では,隣接した動きクリップからの意味指導と位相詳細を拡散過程に組み込んだ構成相拡散について述べる。
実験により,構成運動列の生成において,提案するフレームワークの競合性能を実証した。
- 参考スコア(独自算出の注目度): 7.101824215756715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research on motion generation has shown significant progress in generating semantically aligned motion with singular semantics. However, when employing these models to create composite sequences containing multiple semantically generated motion clips, they often struggle to preserve the continuity of motion dynamics at the transition boundaries between clips, resulting in awkward transitions and abrupt artifacts. To address these challenges, we present Compositional Phase Diffusion, which leverages the Semantic Phase Diffusion Module (SPDM) and Transitional Phase Diffusion Module (TPDM) to progressively incorporate semantic guidance and phase details from adjacent motion clips into the diffusion process. Specifically, SPDM and TPDM operate within the latent motion frequency domain established by the pre-trained Action-Centric Motion Phase Autoencoder (ACT-PAE). This allows them to learn semantically important and transition-aware phase information from variable-length motion clips during training. Experimental results demonstrate the competitive performance of our proposed framework in generating compositional motion sequences that align semantically with the input conditions, while preserving phase transitional continuity between preceding and succeeding motion clips. Additionally, motion inbetweening task is made possible by keeping the phase parameter of the input motion sequences fixed throughout the diffusion process, showcasing the potential for extending the proposed framework to accommodate various application scenarios. Codes are available at https://github.com/asdryau/TransPhase.
- Abstract(参考訳): 運動生成に関する最近の研究は、特異な意味論による意味的整合運動の生成において顕著な進歩を示している。
しかし、これらのモデルを用いて複数の意味的に生成されたモーションクリップを含む合成シーケンスを作成する場合、クリップ間の遷移境界における運動ダイナミクスの連続性を維持するのに苦労することが多く、不規則な遷移と急激な成果物をもたらす。
これらの課題に対処するため, セマンティック位相拡散モジュール (SPDM) と遷移位相拡散モジュール (TPDM) を併用した合成位相拡散法を提案する。
具体的には、SPDMとTPDMは、事前訓練されたAction-Centric Motion Phase Autoencoder(ACT-PAE)によって確立された潜在運動周波数領域内で動作する。
これにより、トレーニング中に可変長のモーションクリップから意味的に重要で遷移対応のフェーズ情報を学ぶことができる。
実験の結果,提案手法は,前と後との位相遷移連続性を保ちながら,入力条件にセマンティックに整合する合成運動列を生成する上での競合性能を示す。
さらに、拡散過程全体を通して固定された入力運動列の位相パラメータを保ち、様々なアプリケーションシナリオに対応するために提案されたフレームワークを拡張する可能性を示すことにより、動作間相互作用を可能にする。
コードはhttps://github.com/asdryau/TransPhase.comで入手できる。
関連論文リスト
- Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - Seamless Human Motion Composition with Blended Positional Encodings [38.85158088021282]
後処理や冗長な復調ステップを伴わずにシームレスなヒューマン・モーション・コンポジション(HMC)を生成する最初の拡散モデルであるフローMDMを紹介する。
我々はBabelとHumanML3Dデータセットの精度、リアリズム、スムーズさの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2024-02-23T18:59:40Z) - DiffusionPhase: Motion Diffusion in Frequency Domain [69.811762407278]
そこで本研究では,テキスト記述から高品質な人間の動作系列を生成する学習手法を提案する。
既存の技術は、任意の長さの動き列を生成する際に、動きの多様性と滑らかな遷移に苦しむ。
動作空間をコンパクトで表現力のあるパラメータ化位相空間に変換するネットワークエンコーダを開発する。
論文 参考訳(メタデータ) (2023-12-07T04:39:22Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Synthesizing Long-Term Human Motions with Diffusion Models via Coherent
Sampling [74.62570964142063]
テキスト・トゥ・モーション・ジェネレーションは注目されているが、既存の手法のほとんどは短期的な動きに限られている。
本稿では,2つのコヒーレントサンプリング手法を用いた過去の拡散モデルを用いた新しい手法を提案する。
提案手法は,ユーザの指示した長文ストリームによって制御された,構成的かつコヒーレントな3次元人間の動作を生成することができる。
論文 参考訳(メタデータ) (2023-08-03T16:18:32Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。