論文の概要: A Plug-and-Play Multi-Criteria Guidance for Diverse In-Betweening Human Motion Generation
- arxiv url: http://arxiv.org/abs/2508.01590v1
- Date: Sun, 03 Aug 2025 05:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.956363
- Title: A Plug-and-Play Multi-Criteria Guidance for Diverse In-Betweening Human Motion Generation
- Title(参考訳): 多様な人体動作生成のためのプラグアンドプレイ多チャンネル誘導
- Authors: Hua Yu, Jiao Liu, Xu Gui, Melvin Wong, Yaqing Hou, Yew-Soon Ong,
- Abstract要約: 本稿では,Multi-Criteria Guidance with In-Betweening Motion Model (MCG-IMM) と呼ばれる新しい手法を提案する。
MCG-IMMの重要な強みはプラグ・アンド・プレイの性質であり、追加のパラメータを導入することなく事前訓練されたモデルによって生成された動きの多様性を高めることである。
一般的な4つのモーションデータセットの実験により、MDG-IMMは、中間動作生成タスクにおいて一貫して最先端の手法を示す。
- 参考スコア(独自算出の注目度): 22.473976066685594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-betweening human motion generation aims to synthesize intermediate motions that transition between user-specified keyframes. In addition to maintaining smooth transitions, a crucial requirement of this task is to generate diverse motion sequences. It is still challenging to maintain diversity, particularly when it is necessary for the motions within a generated batch sampling to differ meaningfully from one another due to complex motion dynamics. In this paper, we propose a novel method, termed the Multi-Criteria Guidance with In-Betweening Motion Model (MCG-IMM), for in-betweening human motion generation. A key strength of MCG-IMM lies in its plug-and-play nature: it enhances the diversity of motions generated by pretrained models without introducing additional parameters This is achieved by providing a sampling process of pretrained generative models with multi-criteria guidance. Specifically, MCG-IMM reformulates the sampling process of pretrained generative model as a multi-criteria optimization problem, and introduces an optimization process to explore motion sequences that satisfy multiple criteria, e.g., diversity and smoothness. Moreover, our proposed plug-and-play multi-criteria guidance is compatible with different families of generative models, including denoised diffusion probabilistic models, variational autoencoders, and generative adversarial networks. Experiments on four popular human motion datasets demonstrate that MCG-IMM consistently state-of-the-art methods in in-betweening motion generation task.
- Abstract(参考訳): in-betweening human motion generationは、ユーザーが指定したキーフレーム間で遷移する中間動作を合成することを目的としている。
滑らかな遷移を維持することに加えて、このタスクの重要な要件は、多様な動き列を生成することである。
特に、複雑な動きのダイナミクスのため、生成したバッチサンプリング内の動きが互いに有意に異なる場合、多様性を維持することは依然として困難である。
本稿では,人体における動作生成のための,MCG-IMM(Multi-Criteria Guidance with In-Betweening Motion Model)と呼ばれる新しい手法を提案する。
MCG-IMMの重要な強みはプラグ・アンド・プレイの性質にある: 追加のパラメータを導入することなく事前訓練されたモデルによって生成された動きの多様性を高める。
具体的には、MCG-IMMは、事前学習された生成モデルのサンプリング過程を多重基準最適化問題として再構成し、複数の基準を満たす動き列を探索する最適化プロセスを導入する。
さらに,本提案手法は,分散確率モデル,変分オートエンコーダ,生成逆数ネットワークなど,様々な生成モデルのファミリと互換性がある。
一般的な4つのモーションデータセットの実験により、MDG-IMMは、中間動作生成タスクにおいて一貫して最先端の手法を示す。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Deterministic-to-Stochastic Diverse Latent Feature Mapping for Human Motion Synthesis [31.082402451716973]
人間の動作合成は、人間の動作シーケンスを生成することを目的としている。
近年のスコアベース生成モデル (SGM) は, この課題に対して顕著な成果を上げている。
本研究では,人間の動作合成のための決定論的-確率的横性特徴マッピング法(DSDFM)を提案する。
論文 参考訳(メタデータ) (2025-05-02T04:48:28Z) - Merging Models on the Fly Without Retraining: A Sequential Approach to Scalable Continual Model Merging [75.93960998357812]
ディープモデルマージ(Deep Modelmerging)は、複数の微調整モデルを組み合わせて、さまざまなタスクやドメインにまたがる能力を活用する、新たな研究方向を示すものだ。
現在のモデルマージ技術は、全ての利用可能なモデルを同時にマージすることに集中しており、重量行列に基づく手法が主要なアプローチである。
本稿では,モデルを逐次処理するトレーニングフリーなプロジェクションベース連続マージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T13:17:24Z) - Multi-Resolution Generative Modeling of Human Motion from Limited Data [3.5229503563299915]
限られたトレーニングシーケンスから人間の動きを合成することを学ぶ生成モデルを提案する。
このモデルは、骨格の畳み込み層とマルチスケールアーキテクチャを統合することで、人間の動きパターンを順応的にキャプチャする。
論文 参考訳(メタデータ) (2024-11-25T15:36:29Z) - Hierarchical Generation of Human-Object Interactions with Diffusion
Probabilistic Models [71.64318025625833]
本稿では,対象物と相互作用する人間の3次元運動を生成するための新しいアプローチを提案する。
私たちのフレームワークはまず一連のマイルストーンを生成し、それに沿って動きを合成します。
NSM, COUCH, SAMPデータセットを用いた実験では, 従来の手法よりも品質と多様性に大きな差があることが示されている。
論文 参考訳(メタデータ) (2023-10-03T17:50:23Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Stochastic Multi-Person 3D Motion Forecasting [21.915057426589744]
我々は、人間の動き予測に先立つ作業において、無視された現実世界の複雑さに対処する。
私たちのフレームワークは一般的なもので、異なる生成モデルでインスタンス化します。
このアプローチは多種多人数の予測を多種多様な精度で生成し,技術水準を著しく上回っている。
論文 参考訳(メタデータ) (2023-06-08T17:59:09Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Dynamic Gaussian Mixture based Deep Generative Model For Robust
Forecasting on Sparse Multivariate Time Series [43.86737761236125]
本研究では,孤立した特徴表現ではなく,潜在クラスタの遷移を追跡する新しい生成モデルを提案する。
新たに設計された動的ガウス混合分布が特徴であり、クラスタリング構造のダイナミクスを捉えている。
帰納的解析を可能にするために構造化推論ネットワークも設計されている。
論文 参考訳(メタデータ) (2021-03-03T04:10:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。