論文の概要: Motion Synthesis with Sparse and Flexible Keyjoint Control
- arxiv url: http://arxiv.org/abs/2503.15557v1
- Date: Tue, 18 Mar 2025 21:21:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 15:30:52.09333
- Title: Motion Synthesis with Sparse and Flexible Keyjoint Control
- Title(参考訳): フレキシブルキージョイント制御による運動合成
- Authors: Inwoo Hwang, Jinseok Bae, Donggeun Lim, Young Min Kim,
- Abstract要約: スパースおよびフレキシブルなキージョイント信号を尊重する制御可能なモーション合成フレームワークを提案する。
多様なデータセットやシナリオに関する総合的な実験を通じて,スパースかつフレキシブルなキージョイント制御の有効性を実証する。
- 参考スコア(独自算出の注目度): 10.592822014277631
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Creating expressive character animations is labor-intensive, requiring intricate manual adjustment of animators across space and time. Previous works on controllable motion generation often rely on a predefined set of dense spatio-temporal specifications (e.g., dense pelvis trajectories with exact per-frame timing), limiting practicality for animators. To process high-level intent and intuitive control in diverse scenarios, we propose a practical controllable motions synthesis framework that respects sparse and flexible keyjoint signals. Our approach employs a decomposed diffusion-based motion synthesis framework that first synthesizes keyjoint movements from sparse input control signals and then synthesizes full-body motion based on the completed keyjoint trajectories. The low-dimensional keyjoint movements can easily adapt to various control signal types, such as end-effector position for diverse goal-driven motion synthesis, or incorporate functional constraints on a subset of keyjoints. Additionally, we introduce a time-agnostic control formulation, eliminating the need for frame-specific timing annotations and enhancing control flexibility. Then, the shared second stage can synthesize a natural whole-body motion that precisely satisfies the task requirement from dense keyjoint movements. We demonstrate the effectiveness of sparse and flexible keyjoint control through comprehensive experiments on diverse datasets and scenarios.
- Abstract(参考訳): 表現力のあるキャラクターアニメーションを作成することは労働集約的であり、空間と時間にまたがるアニメーターの複雑な手作業による調整を必要とする。
制御可能な運動生成に関する以前の研究は、しばしば事前に定義された高密度な時空間仕様(例えば、フレーム毎の正確なタイミングで高密度なペルビス軌道)に依存し、アニメーターの実用性を制限する。
多様なシナリオにおける高レベルな意図と直感的な制御を処理するために,スパースかつフレキシブルなキージョイント信号を尊重する実用的な制御可能なモーション合成フレームワークを提案する。
提案手法では,まず疎入力制御信号からキージョイント運動を合成し,得られたキージョイント軌道に基づいてフルボディ動作を合成する。
低次元キージョイント運動は、様々なゴール駆動モーション合成のためのエンドエフェクタ位置などの様々な制御信号タイプに容易に適応できる。
さらに、時間に依存しない制御の定式化を導入し、フレーム固有のタイミングアノテーションの必要性を排除し、制御の柔軟性を向上させる。
そして、共有された第2段階は、密接なキージョイント運動からタスク要求を正確に満たす自然な全身運動を合成することができる。
多様なデータセットやシナリオに関する総合的な実験を通じて,スパースかつフレキシブルなキージョイント制御の有効性を実証する。
関連論文リスト
- PMG: Progressive Motion Generation via Sparse Anchor Postures Curriculum Learning [5.247557449370603]
ProMoGenは、軌跡誘導とスパースアンカー動作制御を統合する新しいフレームワークである。
ProMoGenは、統合トレーニングプロセス内で、二重制御パラダイムと単一制御パラダイムの両方をサポートする。
われわれのアプローチはパーソナライズされた動作と構造化されたガイダンスをシームレスに統合し、最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-04-23T13:51:42Z) - Towards Synthesized and Editable Motion In-Betweening Through Part-Wise Phase Representation [20.697417033585577]
スタイル付きモーションはコンピュータのアニメーションやゲームには不可欠だ。
身体部分レベルでの動作スタイルをモデル化する新しいフレームワークを提案する。
我々のアプローチはよりニュアンスで表現力のあるアニメーションを可能にする。
論文 参考訳(メタデータ) (2025-03-11T08:44:27Z) - Real-time Diverse Motion In-betweening with Space-time Control [4.910937238451485]
本研究では,キネマティックキャラクタのための多種多様な相互動作を生成するためのデータ駆動型フレームワークを提案する。
本手法は,移動動作と非構造動作の両方を合成し,リッチで汎用的で高品質なアニメーション生成を可能にする。
論文 参考訳(メタデータ) (2024-09-30T22:45:53Z) - FreeMotion: A Unified Framework for Number-free Text-to-Motion Synthesis [65.85686550683806]
そこで本稿では, 条件付き動作分布を用いて, 単独動作と多人数動作を統一する動き生成手法を提案する。
筆者らの枠組みに基づいて,現在ある一対一動作空間制御手法をシームレスに統合し,多対一動作の正確な制御を実現する。
論文 参考訳(メタデータ) (2024-05-24T17:57:57Z) - TLControl: Trajectory and Language Control for Human Motion Synthesis [68.09806223962323]
本稿では,人間のリアルな動き合成のための新しい手法であるTLControlを提案する。
低レベルのTrajectoryと高レベルのLanguage semanticsコントロールが組み込まれている。
インタラクティブで高品質なアニメーション生成には実用的である。
論文 参考訳(メタデータ) (2023-11-28T18:54:16Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - OmniControl: Control Any Joint at Any Time for Human Motion Generation [46.293854851116215]
テキスト条件付き人体動作生成モデルにフレキシブルな空間制御信号を統合するために,OmniControlという新しい手法を提案する。
本稿では,入力制御信号に厳密に適合した動作を実現するための解析的空間ガイダンスを提案する。
同時に、全ての関節を洗練してよりコヒーレントな動きを生み出すためにリアリズムガイダンスが導入された。
論文 参考訳(メタデータ) (2023-10-12T17:59:38Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Multi-Scale Control Signal-Aware Transformer for Motion Synthesis
without Phase [72.01862340497314]
マルチスケール制御信号認識変換器(MCS-T)を提案する。
MCS-Tは補助情報を用いてメソッドが生成した動作に匹敵する動作をうまく生成できる。
論文 参考訳(メタデータ) (2023-03-03T02:56:44Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。