論文の概要: Dialogue in Resonance: An Interactive Music Piece for Piano and Real-Time Automatic Transcription System
- arxiv url: http://arxiv.org/abs/2505.16259v1
- Date: Thu, 22 May 2025 05:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.066616
- Title: Dialogue in Resonance: An Interactive Music Piece for Piano and Real-Time Automatic Transcription System
- Title(参考訳): 共振における対話: ピアノとリアルタイム自動転写システムのための対話型音楽ピース
- Authors: Hayeon Bang, Taegyun Kwon, Juhan Nam,
- Abstract要約: Dialogue in Resonance>は、人間のピアニストとコンピュータ制御ピアノのためのインタラクティブな楽曲である。
コンピュータは、人間の演奏者の入力をリアルタイムで解釈して応答し、音楽対話を作成する。
- 参考スコア(独自算出の注目度): 7.108713005834857
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents <Dialogue in Resonance>, an interactive music piece for a human pianist and a computer-controlled piano that integrates real-time automatic music transcription into a score-driven framework. Unlike previous approaches that primarily focus on improvisation-based interactions, our work establishes a balanced framework that combines composed structure with dynamic interaction. Through real-time automatic transcription as its core mechanism, the computer interprets and responds to the human performer's input in real time, creating a musical dialogue that balances compositional intent with live interaction while incorporating elements of unpredictability. In this paper, we present the development process from composition to premiere performance, including technical implementation, rehearsal process, and performance considerations.
- Abstract(参考訳): 本稿では,人間ピアニストのためのインタラクティブな楽曲であるDialogue in Resonanceと,リアルタイム自動楽譜を楽譜駆動のフレームワークに統合するコンピュータ制御ピアノについて述べる。
即興的なインタラクションに主にフォーカスする従来のアプローチとは異なり、我々の研究は、構成された構造と動的相互作用を組み合わせたバランスの取れたフレームワークを確立します。
リアルタイム自動転写を中心となるメカニズムとして、コンピュータは人間のパフォーマーの入力をリアルタイムで解釈し、応答し、予測不可能な要素を取り入れながら、作曲意図とライブインタラクションのバランスをとる音楽対話を生成する。
本稿では,技術実装,リハーサルプロセス,パフォーマンス考慮など,作曲から初演までの開発プロセスについて述べる。
関連論文リスト
- A Real-Time Gesture-Based Control Framework [2.432598153985671]
そこで我々は,リアルタイム・ヒューマン・イン・ザ・ループ・ジェスチャ・コントロール・フレームワークを提案する。
人間の動きに基づいて、オーディオと音楽を動的に適応させることができる。
システムはライブパフォーマンス、インタラクティブなインストール、個人利用のために設計されている。
論文 参考訳(メタデータ) (2025-04-28T03:57:28Z) - Musical Agent Systems: MACAT and MACataRT [6.349140286855134]
我々は,人間ミュージシャンとAIの対話的音楽制作を促進するために,MACATとMACataRTという2つの異なる音楽エージェントシステムを紹介した。
MaCATはエージェント主導のパフォーマンスに最適化されており、リアルタイム合成と自己リスニングを利用して出力を自律的に形作る。
MacataRTは、音声モザイクとシーケンスベースの学習を通じて協調的な即興性を実現するフレキシブルな環境を提供する。
論文 参考訳(メタデータ) (2025-01-19T22:04:09Z) - Interactive Melody Generation System for Enhancing the Creativity of
Musicians [0.0]
本研究では,人間同士の協調構成の過程を列挙するシステムを提案する。
複数のリカレントニューラルネットワーク(RNN)モデルを統合することにより、このシステムは、複数の作曲家とのコラボレーションに似たエクスペリエンスを提供する。
論文 参考訳(メタデータ) (2024-03-06T01:33:48Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - Towards Context-Aware Neural Performance-Score Synchronisation [2.0305676256390934]
音楽の同期は、音楽の複数の表現を統一的にナビゲートする手段を提供する。
従来の同期手法は知識駆動と性能分析のアプローチを用いてアライメントを計算する。
このPhDは、データ駆動型コンテクスト対応アライメントアプローチの提案により、パフォーマンススコア同期の研究をさらに進める。
論文 参考訳(メタデータ) (2022-05-31T16:45:25Z) - Flat latent manifolds for music improvisation between human and machine [9.571383193449648]
相互即興化が新たな体験につながるような環境では,音楽生成アルゴリズムを人間の音楽家に対抗するものとみなす。
学習モデルでは、潜在空間の定量化により新しい音楽系列を生成する。
そこで我々は,音楽実験を通じて提案手法の実証的証拠を提供し,プロのドラマーと対話的なジャムセッションのためのモデルを展開した。
論文 参考訳(メタデータ) (2022-02-23T09:00:17Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。