論文の概要: Dancing Points: Synthesizing Ballroom Dancing with Three-Point Inputs
- arxiv url: http://arxiv.org/abs/2601.02096v1
- Date: Mon, 05 Jan 2026 13:24:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.146028
- Title: Dancing Points: Synthesizing Ballroom Dancing with Three-Point Inputs
- Title(参考訳): ダンスポイント: 3点入力によるボールルームダンスの合成
- Authors: Peizhuo Li, Sebastian Starke, Yuting Ye, Olga Sorkine-Hornung,
- Abstract要約: バーチャルリアリティ(VR)デバイスから利用可能な3点軌跡は,ダンサーの動作記述子として効果的に機能することを示す。
我々は、リーダーの3点入力から直接、フォロワーの3点軌道を予測するために効率的なネットワークを利用する。
提案手法は,没入型ペアダンスアプリケーションに新たな可能性をもたらす,計算的かつデータ効率のよいソリューションを提供する。
- 参考スコア(独自算出の注目度): 20.689779727878648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ballroom dancing is a structured yet expressive motion category. Its highly diverse movement and complex interactions between leader and follower dancers make the understanding and synthesis challenging. We demonstrate that the three-point trajectory available from a virtual reality (VR) device can effectively serve as a dancer's motion descriptor, simplifying the modeling and synthesis of interplay between dancers' full-body motions down to sparse trajectories. Thanks to the low dimensionality, we can employ an efficient MLP network to predict the follower's three-point trajectory directly from the leader's three-point input for certain types of ballroom dancing, addressing the challenge of modeling high-dimensional full-body interaction. It also prevents our method from overfitting thanks to its compact yet explicit representation. By leveraging the inherent structure of the movements and carefully planning the autoregressive procedure, we show a deterministic neural network is able to translate three-point trajectories into a virtual embodied avatar, which is typically considered under-constrained and requires generative models for common motions. In addition, we demonstrate this deterministic approach generalizes beyond small, structured datasets like ballroom dancing, and performs robustly on larger, more diverse datasets such as LaFAN. Our method provides a computationally- and data-efficient solution, opening new possibilities for immersive paired dancing applications. Code and pre-trained models for this paper are available at https://peizhuoli.github.io/dancing-points.
- Abstract(参考訳): ボールルームダンス(英: Ballroom dance)は、構造化されているが表現力のある動きのカテゴリーである。
リーダーと従者ダンサーの間の非常に多様な動きと複雑な相互作用は、理解と合成を困難にしている。
本研究では,バーチャルリアリティ(VR)デバイスから利用可能な3点軌跡が,ダンサーの動作記述子として効果的に機能し,ダンサーのフルボディ動作のモデリングと合成を簡略化し,スパース軌跡まで簡易に行えることを示す。
低次元性により、特定の種類の舞踏会におけるリーダーの3点入力から直接、フォロワーの3点軌道を予測するために効率的なMLPネットワークを利用することができ、高次元のフルボディインタラクションのモデル化の課題に対処できる。
また、コンパクトで明示的な表現により、我々の手法が過度に適合することを防ぐ。
動作の固有の構造を活用し,自己回帰的手順を慎重に計画することにより,3点トラジェクトリを仮想的エンボディアバターに変換する決定論的ニューラルネットワークが実現可能であることを示す。
さらに、この決定論的アプローチは、ボールルームダンスのような小さな構造化されたデータセットを超えて一般化し、LaFANのようなより大きく多様なデータセットで堅牢に機能することを示した。
提案手法は,没入型ペアダンスアプリケーションに新たな可能性をもたらす,計算的かつデータ効率のよいソリューションを提供する。
この論文のコードと事前訓練されたモデルはhttps://peizhuoli.github.io/dancing-points.comで公開されている。
関連論文リスト
- InterDance:Reactive 3D Dance Generation with Realistic Duet Interactions [67.37790144477503]
動きの質、データスケール、さまざまなダンスジャンルを大幅に向上させる大規模なデュエットダンスデータセットであるInterDanceを提案する。
本稿では,対話のリアリズムを段階的に最適化するためのインタラクション改善指導戦略を備えた拡散型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-22T11:53:51Z) - DiffDance: Cascaded Human Motion Diffusion Model for Dance Generation [89.50310360658791]
本稿では,高分解能長周期ダンス生成のための新しい動き拡散モデルDiffDanceを提案する。
本モデルは、音楽間拡散モデルとシーケンス超解像拡散モデルとから構成される。
DiffDanceは、入力された音楽と効果的に一致したリアルなダンスシーケンスを生成することができることを実証する。
論文 参考訳(メタデータ) (2023-08-05T16:18:57Z) - TM2D: Bimodality Driven 3D Dance Generation via Music-Text Integration [75.37311932218773]
テキストと音楽の両方を同時に組み込んだ3Dダンス運動を生成するための新しいタスクを提案する。
本手法は,テキストと音楽の両方に調和した現実的かつ一貫性のあるダンスの動きを生成できると同時に,2つの単一モーダルと同等の性能を維持することができる。
論文 参考訳(メタデータ) (2023-04-05T12:58:33Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Transflower: probabilistic autoregressive dance generation with
multimodal attention [31.308435764603658]
本稿では,従来のポーズに条件付き正規化フローと音楽文脈をモデル化した,確率的自己回帰型アーキテクチャを提案する。
第2に,プロとカジュアルの両方のダンサーを含む,さまざまなモーションキャプチャ技術で得られた,現在最大の3Dダンスモーションデータセットを紹介する。
論文 参考訳(メタデータ) (2021-06-25T20:14:28Z) - DanceFormer: Music Conditioned 3D Dance Generation with Parametric
Motion Transformer [23.51701359698245]
本稿では、2段階のプロセス, ie, キーポーズ生成, そしてパラメトリックな動き曲線の予測によってそれを再構成する。
本稿では,経験的アニメーターによって正確にラベル付けされた大規模な音楽条件付き3DダンスデータセットPhantomDanceを提案する。
実験により、提案手法は既存のデータセットで訓練されても、流動的で、演奏的で、音楽にマッチした3Dダンスを生成できることが示されている。
論文 参考訳(メタデータ) (2021-03-18T12:17:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。