論文の概要: Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation
- arxiv url: http://arxiv.org/abs/2006.13331v4
- Date: Mon, 20 Jul 2020 20:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:43:22.891573
- Title: Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation
- Title(参考訳): 音楽生成のための連続データセット拡張における音楽知識の導入
- Authors: Alisa Liu, Alexander Fang, Ga\"etan Hadjeres, Prem Seetharaman, Bryan
Pardo
- Abstract要約: Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
- 参考スコア(独自算出の注目度): 69.06413031969674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has rapidly become the state-of-the-art approach for music
generation. However, training a deep model typically requires a large training
set, which is often not available for specific musical styles. In this paper,
we present augmentative generation (Aug-Gen), a method of dataset augmentation
for any music generation system trained on a resource-constrained domain. The
key intuition of this method is that the training data for a generative system
can be augmented by examples the system produces during the course of training,
provided these examples are of sufficiently high quality and variety. We apply
Aug-Gen to Transformer-based chorale generation in the style of J.S. Bach, and
show that this allows for longer training and results in better generative
output.
- Abstract(参考訳): 深層学習は急速に音楽生成の最先端のアプローチになりつつある。
しかし、深層モデルの訓練には、通常大きなトレーニングセットが必要であり、特定の音楽スタイルでは使用できないことが多い。
本稿では,資源制約領域で学習した音楽生成システムにおいて,データ拡張の手法である拡張生成(aug-gen)を提案する。
この方法の重要な直感は、生成システムのトレーニングデータが、トレーニング中にシステムが生成する例によって拡張可能であることであり、これらの例が十分に高品質で多様なものであることを前提としている。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
関連論文リスト
- MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - GENIE: Large Scale Pre-training for Text Generation with Diffusion Model [86.2022500090247]
GENIEは、Transformerと拡散を組み合わせたシーケンス・ツー・シーケンスのテキスト生成モデルである。
本研究では,拡散モデルの特徴を基礎として,連続段落認知という新しい事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T13:17:11Z) - Generating music with sentiment using Transformer-GANs [0.0]
本研究では,人間の感情から得られるデータによって条件付けられた記号音楽の生成モデルを提案する。
我々は,効率の良い線形バージョンの注意と識別器を用いることで,上記の問題に対処しようと試みている。
論文 参考訳(メタデータ) (2022-12-21T15:59:35Z) - Musika! Fast Infinite Waveform Music Generation [0.0]
Musikaは、何百時間もの音楽を、単一の消費者向けGPUを使って訓練できる音楽生成システムだ。
まず、逆自己エンコーダを用いて分光器の大きさと位相のコンパクトな可逆表現を学習する。
潜在座標系は任意の長さの抜粋列を並列に生成することができ、一方、グローバルな文脈ベクトルは、時間を通してスタイリスティックに整合性を保つことができる。
論文 参考訳(メタデータ) (2022-08-18T08:31:15Z) - Personalized Popular Music Generation Using Imitation and Structure [1.971709238332434]
そこで本研究では,特定の例のシード曲から構造,メロディ,和音,バススタイルを捉え,模倣できる統計的機械学習モデルを提案する。
10曲のポップソングによる評価は,我々の新しい表現と手法が高品質なスタイリスティック音楽を作り出すことができることを示している。
論文 参考訳(メタデータ) (2021-05-10T23:43:00Z) - Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss [0.0]
本稿では,音楽生成,特に電子舞踊音楽のリズムパターンに着目し,深層学習を用いて新しいリズムを生成できるかを論じる。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、データセット固有の分布から分岐することを奨励する。
提案したGANは、音楽リズムのように聞こえるリズムパターンを生成できるが、トレーニングデータセットのどのジャンルにも属さないことを示す。
論文 参考訳(メタデータ) (2020-11-25T23:22:12Z) - A Study of Transfer Learning in Music Source Separation [12.819592416207728]
関連するドメインから学習を移すことが,ディープラーニングシステムの性能向上につながることはよく知られている。
本研究では,事前学習におけるデータ拡張の有効性について検討する。
また、最終目標タスクにおいて、一度事前トレーニングされたモデルがどの程度再トレーニングされなければならないかについても検討する。
論文 参考訳(メタデータ) (2020-10-23T20:29:47Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。