論文の概要: RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2002.03082v1
- Date: Sat, 8 Feb 2020 03:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:09:04.012641
- Title: RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning
- Title(参考訳): RL-Duet:Deep Reinforcement Learningを用いたオンライン音楽伴奏生成
- Authors: Nan Jiang, Sheng Jin, Zhiyao Duan, Changshui Zhang
- Abstract要約: 本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
- 参考スコア(独自算出の注目度): 69.20460466735852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a deep reinforcement learning algorithm for online
accompaniment generation, with potential for real-time interactive
human-machine duet improvisation. Different from offline music generation and
harmonization, online music accompaniment requires the algorithm to respond to
human input and generate the machine counterpart in a sequential order. We cast
this as a reinforcement learning problem, where the generation agent learns a
policy to generate a musical note (action) based on previously generated
context (state). The key of this algorithm is the well-functioning reward
model. Instead of defining it using music composition rules, we learn this
model from monophonic and polyphonic training data. This model considers the
compatibility of the machine-generated note with both the machine-generated
context and the human-generated context. Experiments show that this algorithm
is able to respond to the human part and generate a melodic, harmonic and
diverse machine part. Subjective evaluations on preferences show that the
proposed algorithm generates music pieces of higher quality than the baseline
method.
- Abstract(参考訳): 本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
オフライン音楽の生成と調和とは異なり、オンライン音楽の伴奏は、アルゴリズムが人間の入力に応答し、順番にマシンを生成する必要がある。
我々はこれを強化学習問題とみなし、生成エージェントは以前に生成された文脈(状態)に基づいて音符(アクション)を生成するポリシーを学習する。
このアルゴリズムの鍵は、よく機能する報酬モデルである。
音楽合成規則を用いて定義する代わりに、モノフォニックとポリフォニックのトレーニングデータからこのモデルを学習する。
このモデルは、機械生成された文脈と人間生成された文脈の両方との互換性を考慮する。
実験により、このアルゴリズムは人間の部分に反応し、旋律的、調和的、多様な機械部品を生成できることが示されている。
選好の主観評価は,提案アルゴリズムがベースライン法よりも高品質な楽曲を生成することを示す。
関連論文リスト
- A Survey of Music Generation in the Context of Interaction [3.6522809408725223]
機械学習は、メロディーとポリフォニックの両方の曲の作曲と生成に成功している。
これらのモデルのほとんどは、ライブインタラクションによる人間と機械の共創には適していない。
論文 参考訳(メタデータ) (2024-02-23T12:41:44Z) - CoCoFormer: A controllable feature-rich polyphonic music generation
method [2.501600004190393]
本稿では,コードとリズムの入力をきめ細かいレベルで制御することで,モデルの出力を制御するコンディション合唱変換器(CoCoFormer)を提案する。
本稿では,CoCoFormerが現在のモデルよりも優れたレベルに達したことを実証する。
論文 参考訳(メタデータ) (2023-10-15T14:04:48Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Comparision Of Adversarial And Non-Adversarial LSTM Music Generative
Models [2.569647910019739]
この研究は、MIDIデータに基づいて、リカレントニューラルネットワーク音楽作曲家の敵対的および非敵対的な訓練を実装し、比較する。
この評価は, 対人訓練がより審美的に楽しむ音楽を生み出すことを示唆している。
論文 参考訳(メタデータ) (2022-11-01T20:23:49Z) - BacHMMachine: An Interpretable and Scalable Model for Algorithmic
Harmonization for Four-part Baroque Chorales [23.64897650817862]
BacHMMachineは、音楽作曲の原則によって導かれる「理論駆動」の枠組みを採用している。
与えられた旋律線から鍵変調と和音の進行を学習するための確率的フレームワークを提供する。
これにより計算負荷が大幅に減少し、解釈可能性も向上する。
論文 参考訳(メタデータ) (2021-09-15T23:39:45Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。