論文の概要: Synergy and Synchrony in Couple Dances
- arxiv url: http://arxiv.org/abs/2409.04440v1
- Date: Fri, 6 Sep 2024 17:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 15:05:01.187255
- Title: Synergy and Synchrony in Couple Dances
- Title(参考訳): カップルダンスにおけるシナジーとシンフォニー
- Authors: Vongani Maluleke, Lea Müller, Jathushan Rajasegaran, Georgios Pavlakos, Shiry Ginosar, Angjoo Kanazawa, Jitendra Malik,
- Abstract要約: カップルとして踊る2人のダンサーの設定において,社会的相互作用が人の行動にどの程度影響するかを検討した。
まず,ダンサーの過去の動きのみをパートナーに関係なく予測するベースラインを考える。
次に,ダンスパートナーの動きも考慮し,社会的情報を考慮に入れるという利点を考察する。
- 参考スコア(独自算出の注目度): 62.88254856013913
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper asks to what extent social interaction influences one's behavior. We study this in the setting of two dancers dancing as a couple. We first consider a baseline in which we predict a dancer's future moves conditioned only on their past motion without regard to their partner. We then investigate the advantage of taking social information into account by conditioning also on the motion of their dancing partner. We focus our analysis on Swing, a dance genre with tight physical coupling for which we present an in-the-wild video dataset. We demonstrate that single-person future motion prediction in this context is challenging. Instead, we observe that prediction greatly benefits from considering the interaction partners' behavior, resulting in surprisingly compelling couple dance synthesis results (see supp. video). Our contributions are a demonstration of the advantages of socially conditioned future motion prediction and an in-the-wild, couple dance video dataset to enable future research in this direction. Video results are available on the project website: https://von31.github.io/synNsync
- Abstract(参考訳): 本稿では,社会的相互作用が行動にどの程度影響するかを問う。
私たちは、カップルとして踊る2人のダンサーの設定でこれを研究します。
まず,ダンサーの過去の動きのみをパートナーに関係なく予測するベースラインを考える。
次に,ダンスパートナーの動きも考慮し,社会的情報を考慮に入れるという利点を考察する。
スウィング(Swing)は、強く物理的に結合したダンスのジャンルであり、私たちはそのジャンルの動画データセットを提示する。
この文脈における一人ひとりの将来の動きの予測は困難であることを示す。
その代わり、相互作用パートナーの振る舞いを考えることで予測が大きな恩恵を受け、驚くほど説得力のあるカップルのダンス合成結果が得られます(ビデオ参照)。
我々のコントリビューションは、社会的に条件付き将来の動き予測の利点の実証と、この方向における将来の研究を可能にするために、現在進行中のカップルダンスビデオデータセットのデモである。
ビデオはプロジェクトのWebサイト(https://von31.github.io/synNsync)で公開されている。
関連論文リスト
- May the Dance be with You: Dance Generation Framework for Non-Humanoids [6.029154142020362]
人間の映像からダンスを学ぶための非ヒューマノイドエージェントのための枠組みを提案する。
1)光学的フローと音楽の関係を知覚する報酬モデルを訓練する。
実験結果から、生成したダンスの動きが音楽のビートと適切に一致できることが判明した。
論文 参考訳(メタデータ) (2024-05-30T06:43:55Z) - Automatic Dance Video Segmentation for Understanding Choreography [10.053913399613764]
本研究では,ダンスビデオを自動的に各動作に分割する手法を提案する。
トレーニングデータセットを構築するために、AIST Dance Video Databaseでセグメンテーションポイントをアノテートしてビデオをダンスする。
評価の結果,提案手法は高い精度でセグメンテーション点を推定できることがわかった。
論文 参考訳(メタデータ) (2024-05-30T06:19:01Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - DanceCamera3D: 3D Camera Movement Synthesis with Music and Dance [50.01162760878841]
DCMは、カメラの動きとダンスモーションと音楽オーディオを組み合わせた、新しいマルチモーダルな3Dデータセットである。
このデータセットは、アニメコミュニティからのペアダンスカメラ音楽データの108のダンスシーケンス(3.2時間)を含む。
本研究では,新しいボディアテンション損失と条件分離戦略を組み込んだトランスフォーマーに基づく拡散モデルであるDanceCamera3Dを提案する。
論文 参考訳(メタデータ) (2024-03-20T15:24:57Z) - Dance with You: The Diversity Controllable Dancer Generation via
Diffusion Models [27.82646255903689]
本稿では,パートナーダンサー生成と呼ばれる新しいマルチダンサー合成タスクを提案する。
このタスクの中核は、生成されたパートナーダンサーのコントロール可能な多様性を保証することです。
マルチパーソンデータセットの欠如に対処するために、パートナーダンサー生成のための新しいデータセットであるAIST-Mを導入する。
論文 参考訳(メタデータ) (2023-08-23T15:54:42Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - DanceIt: Music-inspired Dancing Video Synthesis [38.87762996956861]
本稿では,コンピュータビジョンシステム内での人間関係のこのような能力の再現を提案する。
提案システムは3つのモジュールから構成される。
生成されたダンスビデオは、音楽の内容とリズムにマッチします。
論文 参考訳(メタデータ) (2020-09-17T02:29:13Z) - Feel The Music: Automatically Generating A Dance For An Input Song [58.653867648572]
本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
ダンスの構造は音楽の構造と一致すべきである。
論文 参考訳(メタデータ) (2020-06-21T20:29:50Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z) - Music2Dance: DanceNet for Music-driven Dance Generation [11.73506542921528]
本研究では,音楽のスタイル,リズム,メロディを制御信号とする自己回帰生成モデルDanceNetを提案する。
プロのダンサーによる複数の同期音楽ダンスペアをキャプチャし、高品質な音楽ダンスペアデータセットを構築する。
論文 参考訳(メタデータ) (2020-02-02T17:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。