論文の概要: Generative human motion mimicking through feature extraction in denoising diffusion settings
- arxiv url: http://arxiv.org/abs/2511.00011v1
- Date: Thu, 16 Oct 2025 14:41:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-09 16:58:40.023645
- Title: Generative human motion mimicking through feature extraction in denoising diffusion settings
- Title(参考訳): 発声拡散設定における特徴抽出による擬似人体運動の生成
- Authors: Alexander Okupnik, Johannes Schneider, Kyriakos Flouris,
- Abstract要約: モーションキャプチャ(MoCap)データに基づく対話型モデルを構築する。
部分的に模倣して人工的な他物を生成し、また、入力された動きデータのシーケンスを「創造的に」拡張する。
- 参考スコア(独自算出の注目度): 44.88972654079152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent success with large language models has sparked a new wave of verbal human-AI interaction. While such models support users in a variety of creative tasks, they lack the embodied nature of human interaction. Dance, as a primal form of human expression, is predestined to complement this experience. To explore creative human-AI interaction exemplified by dance, we build an interactive model based on motion capture (MoCap) data. It generates an artificial other by partially mimicking and also "creatively" enhancing an incoming sequence of movement data. It is the first model, which leverages single-person motion data and high level features in order to do so and, thus, it does not rely on low level human-human interaction data. It combines ideas of two diffusion models, motion inpainting, and motion style transfer to generate movement representations that are both temporally coherent and responsive to a chosen movement reference. The success of the model is demonstrated by quantitatively assessing the convergence of the feature distribution of the generated samples and the test set which serves as simulating the human performer. We show that our generations are first steps to creative dancing with AI as they are both diverse showing various deviations from the human partner while appearing realistic.
- Abstract(参考訳): 近年の大規模言語モデルの成功は、言語とAIの相互作用の新たな波を引き起こしている。
このようなモデルは、様々なクリエイティブなタスクでユーザをサポートするが、人間のインタラクションの具体的性質は欠如している。
人間の表現の原始的な形態としてのダンスは、この経験を補完するために先導される。
ダンスによって実証された創造的人間とAIの相互作用を探索するため,モーションキャプチャ(MoCap)データに基づく対話モデルを構築した。
部分的に模倣して人工的な他物を生成し、また、入力された動きデータのシーケンスを「創造的に」拡張する。
シングルパーソン動作データと高レベルの特徴を活用して実現した最初のモデルであり、低レベルの人間と人間のインタラクションデータに依存しない。
これは2つの拡散モデル、動きの塗装、動きスタイルの伝達のアイデアを組み合わせて、時間的に一貫性があり、選択された動き参照に応答する動き表現を生成する。
モデルの成功は、生成されたサンプルの特徴分布の収束度と、人間の演奏者をシミュレートするテストセットを定量的に評価することによって示される。
私たちは、私たちの世代がAIで創造的なダンスをする最初のステップであることを示します。
関連論文リスト
- MoReact: Generating Reactive Motion from Textual Descriptions [57.642436102978245]
MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-28T14:31:41Z) - InterDance:Reactive 3D Dance Generation with Realistic Duet Interactions [67.37790144477503]
動きの質、データスケール、さまざまなダンスジャンルを大幅に向上させる大規模なデュエットダンスデータセットであるInterDanceを提案する。
本稿では,対話のリアリズムを段階的に最適化するためのインタラクション改善指導戦略を備えた拡散型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-22T11:53:51Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Bipartite Graph Diffusion Model for Human Interaction Generation [11.732108478773196]
二部グラフ拡散法(BiGraphDiff)を提案する。
提案手法は,人間のインタラクション生成タスクの先行ベンチマークにおいて,最新の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-24T16:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。