論文の概要: Reimagining Dance: Real-time Music Co-creation between Dancers and AI
- arxiv url: http://arxiv.org/abs/2506.12008v1
- Date: Fri, 13 Jun 2025 17:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.914768
- Title: Reimagining Dance: Real-time Music Co-creation between Dancers and AI
- Title(参考訳): Reimagining Dance: ダンサーとAIのリアルタイム音楽制作
- Authors: Olga Vechtomova, Jeff Bos,
- Abstract要約: 本研究では,ダンサーが動きによって動的に音楽環境を形成できるシステムを提案する。
我々のマルチモーダルアーキテクチャは、ダンスの動きに応じて、事前に録音された音楽クリップをインテリジェントに組み合わせることで、コヒーレントな音楽構成を生成する。
- 参考スコア(独自算出の注目度): 5.708964539699851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dance performance traditionally follows a unidirectional relationship where movement responds to music. While AI has advanced in various creative domains, its application in dance has primarily focused on generating choreography from musical input. We present a system that enables dancers to dynamically shape musical environments through their movements. Our multi-modal architecture creates a coherent musical composition by intelligently combining pre-recorded musical clips in response to dance movements, establishing a bidirectional creative partnership where dancers function as both performers and composers. Through correlation analysis of performance data, we demonstrate emergent communication patterns between movement qualities and audio features. This approach reconceptualizes the role of AI in performing arts as a responsive collaborator that expands possibilities for both professional dance performance and improvisational artistic expression across broader populations.
- Abstract(参考訳): 伝統的にダンスパフォーマンスは、運動が音楽に反応する一方向の関係に従っている。
AIは様々な創造的領域で進歩してきたが、ダンスにおけるその応用は主に音楽入力から振付を生成することに焦点を当てている。
本研究では,ダンサーが動きによって動的に音楽環境を形成できるシステムを提案する。
我々のマルチモーダル・アーキテクチャーは、ダンスの動きに応じて事前に録音された音楽クリップをインテリジェントに組み合わせ、ダンサーがパフォーマーと作曲家の両方として機能する双方向の創造的なパートナーシップを確立することによって、コヒーレントな音楽構成を生成する。
性能データの相関解析により,動作特性と音声特徴との間の創発的なコミュニケーションパターンを示す。
このアプローチは、プロのダンスパフォーマンスと、より広い範囲にわたる即興的な芸術表現の両方の可能性を広げる、レスポンシブ・コラボレータとしての芸能におけるAIの役割を再認識する。
関連論文リスト
- Dyads: Artist-Centric, AI-Generated Dance Duets [6.67162793750123]
既存のAI生成ダンス手法は、主にソロダンスのパフォーマンスからモーションキャプチャーデータをトレーニングする。
この研究は、ダンサーのペア間の複雑な相互作用をモデル化するAI手法を提案することによって、フィールドの両方のニーズに対処する。
論文 参考訳(メタデータ) (2025-03-05T22:58:03Z) - Invisible Strings: Revealing Latent Dancer-to-Dancer Interactions with Graph Neural Networks [6.67162793750123]
グラフニューラルネットワークを用いて、2人のダンサーが共有する複雑な接続をハイライトし、解釈する。
デュエットの協調的ダイナミクスの代替モデルを構築するためのグラフベースの手法の可能性を示す。
論文 参考訳(メタデータ) (2025-03-04T20:08:31Z) - Duolando: Follower GPT with Off-Policy Reinforcement Learning for Dance Accompaniment [87.20240797625648]
舞踊伴奏と呼ばれる3次元舞踊生成の分野における新しい課題を紹介する。
これは、リードダンサーの動きと、基礎となる音楽リズムと同期した「フォロワー」と呼ばれるダンスパートナーからの応答的な動きを生成する必要がある。
本稿では,GPTに基づくDuolandoモデルを提案する。このモデルでは,音楽の協調情報,リーダの動作,従者の動きに基づいて,後続のトークン化動作を自動回帰予測する。
論文 参考訳(メタデータ) (2024-03-27T17:57:02Z) - Learning Music-Dance Representations through Explicit-Implicit Rhythm
Synchronization [22.279424952432677]
音楽距離表現は、(a)ダンス分類、(b)音楽距離検索、(c)音楽距離の3つの下流タスクに適用することができる。
音楽のリズム分析にインスパイアされた視覚的外観と動きの手がかりに基づいてダンスリズムを導出し、その後、音響強度の振幅によって抽出される音楽リズムと時間的に一致させる。
論文 参考訳(メタデータ) (2022-07-07T09:44:44Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Dual Learning Music Composition and Dance Choreography [57.55406449959893]
音楽とダンスは常に人間の活動の柱として共存しており、文化的、社会的、娯楽的な機能に大きく貢献している。
近年の研究では、音楽に調和したダンスシーケンスの生成モデルについて研究されている。
両タスクを二重学習アプローチで共同でモデル化する,新しい拡張を提案する。
論文 参考訳(メタデータ) (2022-01-28T09:20:28Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Learning to Generate Diverse Dance Motions with Transformer [67.43270523386185]
ダンス・モーション・シンセサイザーのための完全なシステムを提案する。
大規模なダンスモーションデータセットはYouTubeビデオから作成される。
新たな2ストリームモーショントランス生成モデルでは、高い柔軟性で動作シーケンスを生成することができる。
論文 参考訳(メタデータ) (2020-08-18T22:29:40Z) - Feel The Music: Automatically Generating A Dance For An Input Song [58.653867648572]
本稿では,機械が任意の入力音楽に対してダンスを生成するための一般的な計算手法を提案する。
ダンスの構造は音楽の構造と一致すべきである。
論文 参考訳(メタデータ) (2020-06-21T20:29:50Z) - Music2Dance: DanceNet for Music-driven Dance Generation [11.73506542921528]
本研究では,音楽のスタイル,リズム,メロディを制御信号とする自己回帰生成モデルDanceNetを提案する。
プロのダンサーによる複数の同期音楽ダンスペアをキャプチャし、高品質な音楽ダンスペアデータセットを構築する。
論文 参考訳(メタデータ) (2020-02-02T17:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。