論文の概要: Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation
- arxiv url: http://arxiv.org/abs/2510.14976v1
- Date: Thu, 16 Oct 2025 17:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:15.00953
- Title: Ponimator: Unfolding Interactive Pose for Versatile Human-human Interaction Animation
- Title(参考訳): Ponimator:人間と人間の対話アニメーションのための対話型メッセージの展開
- Authors: Shaowei Liu, Chuan Guo, Bing Zhou, Jian Wang,
- Abstract要約: 密接な確率的な人間と人間の対話的なポーズは、相互作用のダイナミクスに関する豊富な文脈情報を伝達する。
Ponimatorはインタラクティブなポーズに固定されたフレームワークで、多目的なインタラクションアニメーションを提供する。
Ponimatorは、画像ベースのインタラクションアニメーション、リアクションアニメーション、テキスト対インタラクション合成など、さまざまなタスクをサポートする。
- 参考スコア(独自算出の注目度): 14.555640323663438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Close-proximity human-human interactive poses convey rich contextual information about interaction dynamics. Given such poses, humans can intuitively infer the context and anticipate possible past and future dynamics, drawing on strong priors of human behavior. Inspired by this observation, we propose Ponimator, a simple framework anchored on proximal interactive poses for versatile interaction animation. Our training data consists of close-contact two-person poses and their surrounding temporal context from motion-capture interaction datasets. Leveraging interactive pose priors, Ponimator employs two conditional diffusion models: (1) a pose animator that uses the temporal prior to generate dynamic motion sequences from interactive poses, and (2) a pose generator that applies the spatial prior to synthesize interactive poses from a single pose, text, or both when interactive poses are unavailable. Collectively, Ponimator supports diverse tasks, including image-based interaction animation, reaction animation, and text-to-interaction synthesis, facilitating the transfer of interaction knowledge from high-quality mocap data to open-world scenarios. Empirical experiments across diverse datasets and applications demonstrate the universality of the pose prior and the effectiveness and robustness of our framework.
- Abstract(参考訳): 密接な確率的な人間と人間の対話的なポーズは、相互作用のダイナミクスに関する豊富な文脈情報を伝達する。
このようなポーズを前提として、人間は文脈を直感的に推測し、人間の行動の強い先行性に基づいて過去と将来のダイナミクスを予測できる。
この観察にインスパイアされたPonimatorは、多目的対話アニメーションのための近距離対話型ポーズに固定されたシンプルなフレームワークである。
トレーニングデータは、近接した2人のポーズと、モーションキャプチャー相互作用データセットからの周囲の時間的文脈から構成される。
Ponimator は,対話型ポーズの先行を生かした2つの条件付き拡散モデルを用いており,(1) 対話型ポーズから動的動作列を生成するために時間的事前を利用するポーズアニメーター,(2) 対話型ポーズが利用できない場合に,対話型ポーズから対話型ポーズを合成する前に空間的に適用するポーズジェネレータである。
Ponimatorは、画像ベースのインタラクションアニメーション、反応アニメーション、テキスト間インタラクション合成など、さまざまなタスクをサポートし、高品質なモキャップデータからオープンワールドシナリオへのインタラクション知識の転送を容易にする。
多様なデータセットやアプリケーションにまたがる実証実験は、ポーズの普遍性と、我々のフレームワークの有効性と堅牢性を示している。
関連論文リスト
- Interact2Ar: Full-Body Human-Human Interaction Generation via Autoregressive Diffusion Models [80.28579390566298]
テキスト条件付き自己回帰拡散モデルであるInteract2Arを導入する。
ハンドキネマティクスは専用のパラレルブランチを通じて組み込まれ、高忠実度フルボディ生成を可能にする。
我々のモデルは、時間的動きの合成、外乱へのリアルタイム適応、ディヤディックからマルチパーソンシナリオへの拡張など、一連のダウンストリームアプリケーションを可能にする。
論文 参考訳(メタデータ) (2025-12-22T18:59:50Z) - Fine-grained text-driven dual-human motion generation via dynamic hierarchical interaction [31.055662466004254]
本研究では,動的階層的相互作用をモデル化するための微細なデュアルヒューマンモーション生成法,すなわちファインダールを提案する。
最初の段階である自己学習段階(Self-Learning Stage)は、二重人間全体のテキストを個々のテキストに分割する。
第2段階である適応調整段階(Adaptive Adjustment Stage)は、相互作用距離予測器によって相互作用距離を予測する。
最後のステージであるTeacher-Guided Refinement Stageは、全体レベルでの動作機能を洗練するためのガイダンスとして、全体的なテキスト機能を利用する。
論文 参考訳(メタデータ) (2025-10-09T14:18:53Z) - MoReact: Generating Reactive Motion from Textual Descriptions [57.642436102978245]
MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-28T14:31:41Z) - InterAct: A Large-Scale Dataset of Dynamic, Expressive and Interactive Activities between Two People in Daily Scenarios [40.42003202491803]
2人の活動を同時にモデル化し、客観的、動的、意味論的に一貫した相互作用を目標にすることを提案する。
我々は、241のモーションシーケンスからなるInterActと呼ばれる新しいマルチモーダルデータセットをキャプチャする。
InterActには、個人の多様で複雑な動きと、これまでほとんど見られなかった興味深い、比較的長期にわたる相互作用パターンが含まれている。
論文 参考訳(メタデータ) (2025-09-06T15:36:47Z) - InterAnimate: Taming Region-aware Diffusion Model for Realistic Human Interaction Animation [47.103725372531784]
本稿では,現実的な顔のインタラクションをアニメーションするための新しい動作パラダイムを提案する。
本手法は, 解剖学的・時間的接触力学と生体力学的に妥当な変形効果を同時に学習する。
結果は、InterAnimateが非常にリアルなアニメーションを生成し、新しいベンチマークを設定していることを示している。
論文 参考訳(メタデータ) (2025-04-15T06:32:45Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Interaction Transformer for Human Reaction Generation [61.22481606720487]
本稿では,時間的,空間的両方の注意を持つトランスフォーマーネットワークからなる対話型トランスフォーマー(InterFormer)を提案する。
我々の手法は一般的であり、より複雑で長期的な相互作用を生成するのに利用できる。
論文 参考訳(メタデータ) (2022-07-04T19:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。