論文の概要: Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation
- arxiv url: http://arxiv.org/abs/2510.14976v1
- Date: Thu, 16 Oct 2025 17:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:15.00953
- Title: Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation
- Title(参考訳): Ponimator:人間と人間の対話アニメーションのための対話型メッセージの展開
- Authors: Shaowei Liu, Chuan Guo, Bing Zhou, Jian Wang,
- Abstract要約: 密接な確率的な人間と人間の対話的なポーズは、相互作用のダイナミクスに関する豊富な文脈情報を伝達する。
Ponimatorはインタラクティブなポーズに固定されたフレームワークで、多目的なインタラクションアニメーションを提供する。
Ponimatorは、画像ベースのインタラクションアニメーション、リアクションアニメーション、テキスト対インタラクション合成など、さまざまなタスクをサポートする。
- 参考スコア(独自算出の注目度): 14.555640323663438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Close-proximity human-human interactive poses convey rich contextual information about interaction dynamics. Given such poses, humans can intuitively infer the context and anticipate possible past and future dynamics, drawing on strong priors of human behavior. Inspired by this observation, we propose Ponimator, a simple framework anchored on proximal interactive poses for versatile interaction animation. Our training data consists of close-contact two-person poses and their surrounding temporal context from motion-capture interaction datasets. Leveraging interactive pose priors, Ponimator employs two conditional diffusion models: (1) a pose animator that uses the temporal prior to generate dynamic motion sequences from interactive poses, and (2) a pose generator that applies the spatial prior to synthesize interactive poses from a single pose, text, or both when interactive poses are unavailable. Collectively, Ponimator supports diverse tasks, including image-based interaction animation, reaction animation, and text-to-interaction synthesis, facilitating the transfer of interaction knowledge from high-quality mocap data to open-world scenarios. Empirical experiments across diverse datasets and applications demonstrate the universality of the pose prior and the effectiveness and robustness of our framework.
- Abstract(参考訳): 密接な確率的な人間と人間の対話的なポーズは、相互作用のダイナミクスに関する豊富な文脈情報を伝達する。
このようなポーズを前提として、人間は文脈を直感的に推測し、人間の行動の強い先行性に基づいて過去と将来のダイナミクスを予測できる。
この観察にインスパイアされたPonimatorは、多目的対話アニメーションのための近距離対話型ポーズに固定されたシンプルなフレームワークである。
トレーニングデータは、近接した2人のポーズと、モーションキャプチャー相互作用データセットからの周囲の時間的文脈から構成される。
Ponimator は,対話型ポーズの先行を生かした2つの条件付き拡散モデルを用いており,(1) 対話型ポーズから動的動作列を生成するために時間的事前を利用するポーズアニメーター,(2) 対話型ポーズが利用できない場合に,対話型ポーズから対話型ポーズを合成する前に空間的に適用するポーズジェネレータである。
Ponimatorは、画像ベースのインタラクションアニメーション、反応アニメーション、テキスト間インタラクション合成など、さまざまなタスクをサポートし、高品質なモキャップデータからオープンワールドシナリオへのインタラクション知識の転送を容易にする。
多様なデータセットやアプリケーションにまたがる実証実験は、ポーズの普遍性と、我々のフレームワークの有効性と堅牢性を示している。
関連論文リスト
- Fine-grained text-driven dual-human motion generation via dynamic hierarchical interaction [31.055662466004254]
本研究では,動的階層的相互作用をモデル化するための微細なデュアルヒューマンモーション生成法,すなわちファインダールを提案する。
最初の段階である自己学習段階(Self-Learning Stage)は、二重人間全体のテキストを個々のテキストに分割する。
第2段階である適応調整段階(Adaptive Adjustment Stage)は、相互作用距離予測器によって相互作用距離を予測する。
最後のステージであるTeacher-Guided Refinement Stageは、全体レベルでの動作機能を洗練するためのガイダンスとして、全体的なテキスト機能を利用する。
論文 参考訳(メタデータ) (2025-10-09T14:18:53Z) - MoReact: Generating Reactive Motion from Textual Descriptions [57.642436102978245]
MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-28T14:31:41Z) - InterAnimate: Taming Region-aware Diffusion Model for Realistic Human Interaction Animation [47.103725372531784]
本稿では,現実的な顔のインタラクションをアニメーションするための新しい動作パラダイムを提案する。
本手法は, 解剖学的・時間的接触力学と生体力学的に妥当な変形効果を同時に学習する。
結果は、InterAnimateが非常にリアルなアニメーションを生成し、新しいベンチマークを設定していることを示している。
論文 参考訳(メタデータ) (2025-04-15T06:32:45Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。