論文の概要: Generating Coherent Drum Accompaniment With Fills And Improvisations
- arxiv url: http://arxiv.org/abs/2209.00291v1
- Date: Thu, 1 Sep 2022 08:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:23:34.635000
- Title: Generating Coherent Drum Accompaniment With Fills And Improvisations
- Title(参考訳): フィルと改善によるコヒーレントドラムの伴奏生成
- Authors: Rishabh Dahale, Vaibhav Talwadker, Preeti Rao, Prateek Verma
- Abstract要約: 4つのメロディック楽器が演奏する伴奏音楽に基づくドラムパターン生成の課題に取り組む。
本稿では,近隣のバーの即興度を推定する新規関数を提案する。
メロディック伴奏トラックから即興位置を予測するためのモデルを訓練する。
- 参考スコア(独自算出の注目度): 8.334918207379172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a complex work of art like music necessitates profound creativity.
With recent advancements in deep learning and powerful models such as
transformers, there has been huge progress in automatic music generation. In an
accompaniment generation context, creating a coherent drum pattern with
apposite fills and improvisations at proper locations in a song is a
challenging task even for an experienced drummer. Drum beats tend to follow a
repetitive pattern through stanzas with fills or improvisation at section
boundaries. In this work, we tackle the task of drum pattern generation
conditioned on the accompanying music played by four melodic instruments:
Piano, Guitar, Bass, and Strings. We use the transformer sequence to sequence
model to generate a basic drum pattern conditioned on the melodic accompaniment
to find that improvisation is largely absent, attributed possibly to its
expectedly relatively low representation in the training data. We propose a
novelty function to capture the extent of improvisation in a bar relative to
its neighbors. We train a model to predict improvisation locations from the
melodic accompaniment tracks. Finally, we use a novel BERT-inspired in-filling
architecture, to learn the structure of both the drums and melody to in-fill
elements of improvised music.
- Abstract(参考訳): 音楽のような複雑な芸術作品を作るには、深い創造性が必要です。
近年のディープラーニングの進歩とトランスフォーマーのような強力なモデルにより、自動音楽生成に大きな進歩があった。
伴奏生成の文脈では、経験豊富なドラマーであっても、曲中の適切な場所でアポサイトフィリングと即興によるコヒーレントドラムパターンを作成することは難しい課題である。
ドラムビートは、セクション境界での埋め合わせや即興でスタンザを通して繰り返しパターンに従う傾向がある。
そこで本研究では,4つの旋律楽器(ピアノ,ギター,ベース,弦楽器)が演奏する伴奏音楽に基づくドラムパターン生成の課題に取り組んだ。
我々は、トランスフォーマーシーケンスをシーケンスモデルに使用して、メロディ伴奏に条件付けされた基本ドラムパターンを生成し、即興化がほとんど欠落していること、おそらくトレーニングデータにおける比較的低い表現に起因することを見出す。
バー内の即興の程度を隣人と比較して捉えるための新規関数を提案する。
メロディック伴奏トラックから即興位置を予測するためのモデルを訓練する。
最後に、即興音楽のインフィル要素にドラムとメロディの両方の構造を学ぶために、bertにインスパイアされた新しいインフィル構造を用いる。
関連論文リスト
- SongCreator: Lyrics-based Universal Song Generation [53.248473603201916]
SongCreatorは、声楽と伴奏の両方で曲を生成するという課題に取り組むために設計された曲生成システムである。
モデルには2つの新しいデザインがある: ボーカルの情報と伴奏を収録するための巧妙に設計された二重系列言語モデル (M) と、DSLMのための一連の注意マスク戦略である。
実験では,8つのタスクすべてに対して,最先端ないし競争的なパフォーマンスを実現することにより,SongCreatorの有効性を示す。
論文 参考訳(メタデータ) (2024-09-09T19:37:07Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - Subtractive Training for Music Stem Insertion using Latent Diffusion Models [35.91945598575059]
本稿では,他の楽器を文脈として与えた個々の楽器茎を合成する方法であるSubtractive Trainingを提案する。
以上の結果から,既存のトラックとシームレスにブレンドしたドラムステムを創り出すためのサブトラクティブトレーニングの有効性が示された。
我々はこの技術をMIDIフォーマットに拡張し、不完全なアレンジメントのために、互換性のあるベース、ドラム、ギター部品をうまく生成する。
論文 参考訳(メタデータ) (2024-06-27T16:59:14Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Setting the rhythm scene: deep learning-based drum loop generation from
arbitrary language cues [0.0]
言語キューの「ムード」を具現化した4ピースドラムパターンの2コンパスを生成する新しい手法を提案する。
我々は,このツールを電子音楽とオーディオヴィジュアルサウンドトラック制作のための作曲支援,あるいはライブ演奏のための即興ツールとして想定する。
このモデルのトレーニングサンプルを作成するため,各曲のコンセンサス・ドラムトラックを抽出する新たな手法を考案した。
論文 参考訳(メタデータ) (2022-09-20T21:53:35Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Conditional Drums Generation using Compound Word Representations [4.435094091999926]
複合語表現にインスパイアされた新しいデータ符号化方式を用いて、条件付きドラム生成の課題に取り組む。
本稿では,双方向長短期メモリ(BiLSTM)が条件パラメータに関する情報を受信するシーケンス・ツー・シーケンスアーキテクチャを提案する。
比較的グローバルな注目を集めたトランスフォーマーベースのデコーダが生成したドラムシーケンスを生成する。
論文 参考訳(メタデータ) (2022-02-09T13:49:27Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Artificial Neural Networks Jamming on the Beat [20.737171876839238]
本稿では,ドラムパターンの大規模データセットと対応するメロディについて述べる。
ドラムパターンの潜伏した空間を探索すれば 特定の音楽スタイルで 新しいドラムパターンを創り出すことができます
単純な人工ニューラルネットワークは、入力として使用されるドラムパッターに対応するメロディを生成するように訓練することができる。
論文 参考訳(メタデータ) (2020-07-13T10:09:20Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。