論文の概要: Invisible Strings: Revealing Latent Dancer-to-Dancer Interactions with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.04816v1
- Date: Tue, 04 Mar 2025 20:08:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 15:57:05.781349
- Title: Invisible Strings: Revealing Latent Dancer-to-Dancer Interactions with Graph Neural Networks
- Title(参考訳): Invisible Strings:グラフニューラルネットワークによる潜在ダンサー-ダンサー間相互作用の解明
- Authors: Luis Vitor Zerkowski, Zixuan Wang, Ilya Vidrin, Mariel Pettee,
- Abstract要約: グラフニューラルネットワークを用いて、2人のダンサーが共有する複雑な接続をハイライトし、解釈する。
デュエットの協調的ダイナミクスの代替モデルを構築するためのグラフベースの手法の可能性を示す。
- 参考スコア(独自算出の注目度): 6.67162793750123
- License:
- Abstract: Dancing in a duet often requires a heightened attunement to one's partner: their orientation in space, their momentum, and the forces they exert on you. Dance artists who work in partnered settings might have a strong embodied understanding in the moment of how their movements relate to their partner's, but typical documentation of dance fails to capture these varied and subtle relationships. Working closely with dance artists interested in deepening their understanding of partnering, we leverage Graph Neural Networks (GNNs) to highlight and interpret the intricate connections shared by two dancers. Using a video-to-3D-pose extraction pipeline, we extract 3D movements from curated videos of contemporary dance duets, apply a dedicated pre-processing to improve the reconstruction, and train a GNN to predict weighted connections between the dancers. By visualizing and interpreting the predicted relationships between the two movers, we demonstrate the potential for graph-based methods to construct alternate models of the collaborative dynamics of duets. Finally, we offer some example strategies for how to use these insights to inform a generative and co-creative studio practice.
- Abstract(参考訳): デュエットでのダンスは、しばしば、宇宙における彼らの配向、彼らの運動量、そして彼らがあなたに与える力といった、パートナーに対する高めの注意を必要とする。
提携した舞台で活動するダンスアーティストは、彼らの動きがパートナーとどのように関係しているかという瞬間に強い具体的理解を持つかもしれないが、ダンスの典型的な文書は、これらの多様性と微妙な関係を捉えていない。
パートナーシップの理解を深めることに関心のあるダンスアーティストと密接に協力し、グラフニューラルネットワーク(GNN)を活用して、2人のダンサーが共有する複雑なつながりを強調し、解釈する。
ビデオから3D位置抽出パイプラインを用いて、現代ダンスデュエットのキュレートされたビデオから3Dの動きを抽出し、専用の前処理を適用して再構成を改善し、GNNを訓練してダンサー間の重み付き接続を予測する。
2つの移動体間の予測された関係を可視化し、解釈することにより、デュエットの協調力学の代替モデルを構築するグラフベースの手法の可能性を示す。
最後に、これらの洞察を用いて、生成的で共同創造的なスタジオの実践を通知する方法の例を挙げる。
関連論文リスト
- Synergy and Synchrony in Couple Dances [62.88254856013913]
カップルとして踊る2人のダンサーの設定において,社会的相互作用が人の行動にどの程度影響するかを検討した。
まず,ダンサーの過去の動きのみをパートナーに関係なく予測するベースラインを考える。
次に,ダンスパートナーの動きも考慮し,社会的情報を考慮に入れるという利点を考察する。
論文 参考訳(メタデータ) (2024-09-06T17:59:01Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - LM2D: Lyrics- and Music-Driven Dance Synthesis [28.884929875333846]
LM2Dは、音楽と歌詞の両方で、ひとつの拡散生成ステップでダンスコンディションを作成するように設計されている。
ポーズ推定技術を用いて,音楽と歌詞の両方を包含する最初の3次元ダンスモーションデータセットを提案する。
その結果、LM2Dは歌詞と音楽の両方にマッチするリアルで多様なダンスを制作できることを示した。
論文 参考訳(メタデータ) (2024-03-14T13:59:04Z) - Dance with You: The Diversity Controllable Dancer Generation via
Diffusion Models [27.82646255903689]
本稿では,パートナーダンサー生成と呼ばれる新しいマルチダンサー合成タスクを提案する。
このタスクの中核は、生成されたパートナーダンサーのコントロール可能な多様性を保証することです。
マルチパーソンデータセットの欠如に対処するために、パートナーダンサー生成のための新しいデータセットであるAIST-Mを導入する。
論文 参考訳(メタデータ) (2023-08-23T15:54:42Z) - BRACE: The Breakdancing Competition Dataset for Dance Motion Synthesis [123.73677487809418]
ダンス・モーション・シンセサイザーにおける一般的な仮定に挑戦する新しいデータセットを提案する。
我々は、アクロバティックな動きと絡み合った姿勢を特徴とするブレイクダンスに焦点を当てている。
BRACEデータセットは、3時間30分以上の濃密な注釈付きポーズを含む。
論文 参考訳(メタデータ) (2022-07-20T18:03:54Z) - Bailando: 3D Dance Generation by Actor-Critic GPT with Choreographic
Memory [92.81383016482813]
そこで我々は3Dキャラクターを1曲の楽曲に追従して踊るための新しい音楽間距離フレームワークBailandoを提案する。
本稿では,音楽に忠実な流麗なダンスにユニットを構成するアクタ批判型生成事前学習変換器(GPT)を紹介する。
提案するフレームワークは,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-24T13:06:43Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。