論文の概要: Generating Coherent Drum Accompaniment With Fills And Improvisations
- arxiv url: http://arxiv.org/abs/2209.00291v1
- Date: Thu, 1 Sep 2022 08:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:23:34.635000
- Title: Generating Coherent Drum Accompaniment With Fills And Improvisations
- Title(参考訳): フィルと改善によるコヒーレントドラムの伴奏生成
- Authors: Rishabh Dahale, Vaibhav Talwadker, Preeti Rao, Prateek Verma
- Abstract要約: 4つのメロディック楽器が演奏する伴奏音楽に基づくドラムパターン生成の課題に取り組む。
本稿では,近隣のバーの即興度を推定する新規関数を提案する。
メロディック伴奏トラックから即興位置を予測するためのモデルを訓練する。
- 参考スコア(独自算出の注目度): 8.334918207379172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a complex work of art like music necessitates profound creativity.
With recent advancements in deep learning and powerful models such as
transformers, there has been huge progress in automatic music generation. In an
accompaniment generation context, creating a coherent drum pattern with
apposite fills and improvisations at proper locations in a song is a
challenging task even for an experienced drummer. Drum beats tend to follow a
repetitive pattern through stanzas with fills or improvisation at section
boundaries. In this work, we tackle the task of drum pattern generation
conditioned on the accompanying music played by four melodic instruments:
Piano, Guitar, Bass, and Strings. We use the transformer sequence to sequence
model to generate a basic drum pattern conditioned on the melodic accompaniment
to find that improvisation is largely absent, attributed possibly to its
expectedly relatively low representation in the training data. We propose a
novelty function to capture the extent of improvisation in a bar relative to
its neighbors. We train a model to predict improvisation locations from the
melodic accompaniment tracks. Finally, we use a novel BERT-inspired in-filling
architecture, to learn the structure of both the drums and melody to in-fill
elements of improvised music.
- Abstract(参考訳): 音楽のような複雑な芸術作品を作るには、深い創造性が必要です。
近年のディープラーニングの進歩とトランスフォーマーのような強力なモデルにより、自動音楽生成に大きな進歩があった。
伴奏生成の文脈では、経験豊富なドラマーであっても、曲中の適切な場所でアポサイトフィリングと即興によるコヒーレントドラムパターンを作成することは難しい課題である。
ドラムビートは、セクション境界での埋め合わせや即興でスタンザを通して繰り返しパターンに従う傾向がある。
そこで本研究では,4つの旋律楽器(ピアノ,ギター,ベース,弦楽器)が演奏する伴奏音楽に基づくドラムパターン生成の課題に取り組んだ。
我々は、トランスフォーマーシーケンスをシーケンスモデルに使用して、メロディ伴奏に条件付けされた基本ドラムパターンを生成し、即興化がほとんど欠落していること、おそらくトレーニングデータにおける比較的低い表現に起因することを見出す。
バー内の即興の程度を隣人と比較して捉えるための新規関数を提案する。
メロディック伴奏トラックから即興位置を予測するためのモデルを訓練する。
最後に、即興音楽のインフィル要素にドラムとメロディの両方の構造を学ぶために、bertにインスパイアされた新しいインフィル構造を用いる。
関連論文リスト
- Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - Setting the rhythm scene: deep learning-based drum loop generation from
arbitrary language cues [0.0]
言語キューの「ムード」を具現化した4ピースドラムパターンの2コンパスを生成する新しい手法を提案する。
我々は,このツールを電子音楽とオーディオヴィジュアルサウンドトラック制作のための作曲支援,あるいはライブ演奏のための即興ツールとして想定する。
このモデルのトレーニングサンプルを作成するため,各曲のコンセンサス・ドラムトラックを抽出する新たな手法を考案した。
論文 参考訳(メタデータ) (2022-09-20T21:53:35Z) - Compose & Embellish: Well-Structured Piano Performance Generation via A
Two-Stage Approach [36.49582705724548]
まずリードシートを構成する2段階のTransformerベースのフレームワークを考案し,それを伴奏と表現力のあるタッチで実装する。
目的および主観的な実験により,コンポジション・アンド・エンベリッシュは芸術の現在の状態と実演の間の構造的ギャップを半分に縮め,豊かさやコヒーレンスといった他の音楽的側面も改善することが示された。
論文 参考訳(メタデータ) (2022-09-17T01:20:59Z) - Re-creation of Creations: A New Paradigm for Lyric-to-Melody Generation [158.54649047794794]
Re-creation of Creations (ROC)は、歌詞からメロディ生成のための新しいパラダイムである。
ROCは、Lyric-to-Meody生成において、優れたLyric-Meody特徴アライメントを実現する。
論文 参考訳(メタデータ) (2022-08-11T08:44:47Z) - Conditional Drums Generation using Compound Word Representations [4.435094091999926]
複合語表現にインスパイアされた新しいデータ符号化方式を用いて、条件付きドラム生成の課題に取り組む。
本稿では,双方向長短期メモリ(BiLSTM)が条件パラメータに関する情報を受信するシーケンス・ツー・シーケンスアーキテクチャを提案する。
比較的グローバルな注目を集めたトランスフォーマーベースのデコーダが生成したドラムシーケンスを生成する。
論文 参考訳(メタデータ) (2022-02-09T13:49:27Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - Artificial Neural Networks Jamming on the Beat [20.737171876839238]
本稿では,ドラムパターンの大規模データセットと対応するメロディについて述べる。
ドラムパターンの潜伏した空間を探索すれば 特定の音楽スタイルで 新しいドラムパターンを創り出すことができます
単純な人工ニューラルネットワークは、入力として使用されるドラムパッターに対応するメロディを生成するように訓練することができる。
論文 参考訳(メタデータ) (2020-07-13T10:09:20Z) - Dance Revolution: Long-Term Dance Generation with Music via Curriculum
Learning [55.854205371307884]
音楽条件付きダンス生成をシーケンス・ツー・シーケンスの学習問題として定式化する。
本稿では,長動き列生成における自己回帰モデルの誤り蓄積を軽減するための新しいカリキュラム学習戦略を提案する。
提案手法は,自動計測と人的評価において,既存の最先端技術よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-06-11T00:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。