論文の概要: Controllable Single-shot Animation Blending with Temporal Conditioning
- arxiv url: http://arxiv.org/abs/2508.18525v1
- Date: Mon, 25 Aug 2025 21:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.608933
- Title: Controllable Single-shot Animation Blending with Temporal Conditioning
- Title(参考訳): テンポラルコンディショニングによるシングルショットアニメーションの制御
- Authors: Eleni Tselepi, Spyridon Thermos, Gerasimos Potamianos,
- Abstract要約: 生成過程を時間的に条件付けすることでシームレスなブレンディングを可能にする,最初の単発モーションブレンディングフレームワークを提案する。
本手法では,運動間の遷移を誘導する骨格認識の正規化機構を導入し,運動がいつどのように混在するかを円滑にデータ駆動制御する。
- 参考スコア(独自算出の注目度): 8.59272170632301
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Training a generative model on a single human skeletal motion sequence without being bound to a specific kinematic tree has drawn significant attention from the animation community. Unlike text-to-motion generation, single-shot models allow animators to controllably generate variations of existing motion patterns without requiring additional data or extensive retraining. However, existing single-shot methods do not explicitly offer a controllable framework for blending two or more motions within a single generative pass. In this paper, we present the first single-shot motion blending framework that enables seamless blending by temporally conditioning the generation process. Our method introduces a skeleton-aware normalization mechanism to guide the transition between motions, allowing smooth, data-driven control over when and how motions blend. We perform extensive quantitative and qualitative evaluations across various animation styles and different kinematic skeletons, demonstrating that our approach produces plausible, smooth, and controllable motion blends in a unified and efficient manner.
- Abstract(参考訳): 特定のキネマティックツリーに縛られることなく、単一のヒト骨格運動列に生成モデルを訓練することは、アニメーションコミュニティから大きな注目を集めている。
テキスト・トゥ・モーション生成とは異なり、単発モデルでは、アニメーターは追加のデータや広範囲なリトレーニングを必要とせず、既存の動きパターンの変動を制御できる。
しかし、既存のシングルショット法は、単一の生成パス内に2つ以上のモーションをブレンドするための制御可能なフレームワークを明示的に提供していない。
本稿では,生成プロセスの時間的条件付けによるシームレスなブレンディングを可能にする,最初の単発モーションブレンディングフレームワークを提案する。
本手法では,運動間の遷移を誘導する骨格認識の正規化機構を導入し,運動がいつどのように混在するかを円滑にデータ駆動制御する。
我々は様々なアニメーションスタイルや様々なキネマティックスケルトンにまたがる定量的・定性的な評価を行い、本手法が可塑性、滑らか、制御可能なモーションブレンドを統一的かつ効率的な方法で生成することを示した。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Towards Synthesized and Editable Motion In-Betweening Through Part-Wise Phase Representation [29.62788252114547]
スタイル付きモーションはコンピュータのアニメーションやゲームには不可欠だ。
身体部分レベルでの動作スタイルをモデル化する新しいフレームワークを提案する。
我々のアプローチはよりニュアンスで表現力のあるアニメーションを可能にする。
論文 参考訳(メタデータ) (2025-03-11T08:44:27Z) - FreeMotion: A Unified Framework for Number-free Text-to-Motion Synthesis [65.85686550683806]
そこで本稿では, 条件付き動作分布を用いて, 単独動作と多人数動作を統一する動き生成手法を提案する。
筆者らの枠組みに基づいて,現在ある一対一動作空間制御手法をシームレスに統合し,多対一動作の正確な制御を実現する。
論文 参考訳(メタデータ) (2024-05-24T17:57:57Z) - MotionMix: Weakly-Supervised Diffusion for Controllable Motion
Generation [19.999239668765885]
MotionMixはノイズと無注釈の両方のモーションシーケンスを利用する弱い教師付き拡散モデルである。
我々のフレームワークは、テキスト・トゥ・モーション、アクション・トゥ・モーション、音楽・トゥ・ダンスのタスクにおける最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2024-01-20T04:58:06Z) - MotionCrafter: One-Shot Motion Customization of Diffusion Models [66.44642854791807]
ワンショットのインスタンス誘導モーションカスタマイズ手法であるMotionCrafterを紹介する。
MotionCrafterは、基準運動をベースモデルの時間成分に注入する並列時空間アーキテクチャを採用している。
トレーニング中、凍結ベースモデルは外見の正規化を提供し、運動から効果的に外見を分離する。
論文 参考訳(メタデータ) (2023-12-08T16:31:04Z) - TapMo: Shape-aware Motion Generation of Skeleton-free Characters [64.83230289993145]
骨格のない3Dキャラクタの広帯域における動作のためのテキスト駆動アニメーションパイプラインであるTapMoを提案する。
TapMoはMesh Handle PredictorとShape-aware Diffusion Moduleの2つの主要コンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-10-19T12:14:32Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。