論文の概要: The Ghost in the Keys: A Disklavier Demo for Human-AI Musical Co-Creativity
- arxiv url: http://arxiv.org/abs/2511.01663v1
- Date: Mon, 03 Nov 2025 15:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.309255
- Title: The Ghost in the Keys: A Disklavier Demo for Human-AI Musical Co-Creativity
- Title(参考訳): The Ghost in the Keys: The Disklavier Demo for Human-AI Musical Co-Creativity
- Authors: Louis Bradshaw, Alexander Spangher, Stella Biderman, Simon Colton,
- Abstract要約: Aria-Duetは、人間のピアニストと最先端のジェネレーティブモデルであるAriaのリアルタイム音楽デュエットを容易にするインタラクティブシステムである。
音楽学的な観点からシステムのアウトプットを分析し,そのモデルがスタイリスティックなセマンティクスを維持でき,コヒーレントなフレーズのアイデアを発達させることができることを発見した。
- 参考スコア(独自算出の注目度): 59.78509280246215
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While generative models for music composition are increasingly capable, their adoption by musicians is hindered by text-prompting, an asynchronous workflow disconnected from the embodied, responsive nature of instrumental performance. To address this, we introduce Aria-Duet, an interactive system facilitating a real-time musical duet between a human pianist and Aria, a state-of-the-art generative model, using a Yamaha Disklavier as a shared physical interface. The framework enables a turn-taking collaboration: the user performs, signals a handover, and the model generates a coherent continuation performed acoustically on the piano. Beyond describing the technical architecture enabling this low-latency interaction, we analyze the system's output from a musicological perspective, finding the model can maintain stylistic semantics and develop coherent phrasal ideas, demonstrating that such embodied systems can engage in musically sophisticated dialogue and open a promising new path for human-AI co-creation.
- Abstract(参考訳): 作曲のための生成モデルはますます有能になるが、音楽家による採用は、楽器演奏の具体的で応答性のある性質から分離された非同期ワークフローであるテキスト・プロンプティングによって妨げられる。
そこで本稿では,人間のピアニストとアリアのリアルタイム音楽デュエットを支援する対話型システムであるAria-Duetについて紹介する。
このフレームワークは、ユーザが実行し、ハンドオーバを信号し、モデルがピアノで音響的に実行されるコヒーレント継続を生成する、ターンテイク協調を可能にする。
この低レイテンシ相互作用を実現する技術アーキテクチャを説明することに加えて、我々は、音楽学的観点からシステムのアウトプットを分析し、そのモデルがスタイリスティックなセマンティクスを維持でき、コヒーレントなフレーズのアイデアを発達させることができることを発見し、そのような具体化されたシステムが音楽的に洗練された対話に関わり、人間とAIの共創のための有望な新しい道を開くことを実証する。
関連論文リスト
- Adaptive Accompaniment with ReaLchords [60.690020661819055]
ユーザのメロディに合わせてコード伴奏を即興するオンライン生成モデルであるReaLchordsを提案する。
まず、最大で事前訓練されたオンラインモデルから始め、強化学習を使用して、オンライン使用のためのモデルを微調整します。
論文 参考訳(メタデータ) (2025-06-17T16:59:05Z) - Dialogue in Resonance: An Interactive Music Piece for Piano and Real-Time Automatic Transcription System [7.108713005834857]
Dialogue in Resonance>は、人間のピアニストとコンピュータ制御ピアノのためのインタラクティブな楽曲である。
コンピュータは、人間の演奏者の入力をリアルタイムで解釈して応答し、音楽対話を作成する。
論文 参考訳(メタデータ) (2025-05-22T05:50:13Z) - Apollo: An Interactive Environment for Generating Symbolic Musical Phrases using Corpus-based Style Imitation [5.649205001069577]
本研究では,従来の西洋音楽の記号句を生成する対話型音楽アプリケーションApolloを紹介する。
このシステムにより、音楽アーティストや研究者は、提案したコーパスのスタイルで新しい音楽フレーズを作成できる。
MIDIフォーマットでエンコードされた生成されたシンボリック・ミュージック・マテリアルは、様々な目的でエクスポートまたはストリーミングすることができる。
論文 参考訳(メタデータ) (2025-04-18T19:53:51Z) - ReaLJam: Real-Time Human-AI Music Jamming with Reinforcement Learning-Tuned Transformers [53.63950017886757]
ReaLJamは、人間とトランスフォーマーをベースとしたAIエージェントが強化学習でトレーニングしたライブ音楽ジャミングセッションのためのインタフェースとプロトコルである。
エージェントが継続的にパフォーマンスを予測し,ユーザに対してその計画を視覚的に伝達する,予測という概念を用いてリアルタイムインタラクションを可能にする。
論文 参考訳(メタデータ) (2025-02-28T17:42:58Z) - Musical Agent Systems: MACAT and MACataRT [6.349140286855134]
我々は,人間ミュージシャンとAIの対話的音楽制作を促進するために,MACATとMACataRTという2つの異なる音楽エージェントシステムを紹介した。
MaCATはエージェント主導のパフォーマンスに最適化されており、リアルタイム合成と自己リスニングを利用して出力を自律的に形作る。
MacataRTは、音声モザイクとシーケンスベースの学習を通じて協調的な即興性を実現するフレキシブルな環境を提供する。
論文 参考訳(メタデータ) (2025-01-19T22:04:09Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Interactive Melody Generation System for Enhancing the Creativity of
Musicians [0.0]
本研究では,人間同士の協調構成の過程を列挙するシステムを提案する。
複数のリカレントニューラルネットワーク(RNN)モデルを統合することにより、このシステムは、複数の作曲家とのコラボレーションに似たエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2024-03-06T01:33:48Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。