論文の概要: Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss
- arxiv url: http://arxiv.org/abs/2011.13062v1
- Date: Wed, 25 Nov 2020 23:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:32:37.946934
- Title: Can GAN originate new electronic dance music genres? -- Generating novel
rhythm patterns using GAN with Genre Ambiguity Loss
- Title(参考訳): GANは電子ダンス音楽のジャンルを創出できるのか?
--ジャンルあいまいさ損失ganを用いた新しいリズムパターンの生成
- Authors: Nao Tokui
- Abstract要約: 本稿では,音楽生成,特に電子舞踊音楽のリズムパターンに着目し,深層学習を用いて新しいリズムを生成できるかを論じる。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、データセット固有の分布から分岐することを奨励する。
提案したGANは、音楽リズムのように聞こえるリズムパターンを生成できるが、トレーニングデータセットのどのジャンルにも属さないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the introduction of deep learning, researchers have proposed content
generation systems using deep learning and proved that they are competent to
generate convincing content and artistic output, including music. However, one
can argue that these deep learning-based systems imitate and reproduce the
patterns inherent within what humans have created, instead of generating
something new and creative. This paper focuses on music generation, especially
rhythm patterns of electronic dance music, and discusses if we can use deep
learning to generate novel rhythms, interesting patterns not found in the
training dataset. We extend the framework of Generative Adversarial
Networks(GAN) and encourage it to diverge from the dataset's inherent
distributions by adding additional classifiers to the framework. The paper
shows that our proposed GAN can generate rhythm patterns that sound like music
rhythms but do not belong to any genres in the training dataset. The source
code, generated rhythm patterns, and a supplementary plugin software for a
popular Digital Audio Workstation software are available on our website.
- Abstract(参考訳): ディープラーニングの導入以来、研究者はディープラーニングを用いたコンテンツ生成システムを提案し、音楽を含む説得力のあるコンテンツや芸術的なアウトプットを生成する能力があることを証明してきた。
しかし、これらの深層学習ベースのシステムは、新しい創造性を生み出すのではなく、人間が生み出したものに内在するパターンを模倣し、再現していると主張することができる。
本稿では,音楽生成,特に電子ダンス音楽のリズムパターンに注目し,学習データセットにない興味深いパターンである新しいリズムをディープラーニングで生成できるかどうかを考察する。
我々は、GAN(Generative Adversarial Networks)のフレームワークを拡張し、フレームワークに新たな分類器を追加することで、データセット固有の分布から分岐することを奨励する。
提案するganは,音楽のリズムのように聞こえるが,トレーニングデータセットのどのジャンルにも属さないリズムパターンを生成できることを示す。
ソースコード、リズムパターンの生成、および人気のあるデジタルオーディオワークステーションソフトウェアのための補足プラグインソフトウェアは、当社のウェブサイトで利用可能です。
関連論文リスト
- MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - An Autoethnographic Exploration of XAI in Algorithmic Composition [7.775986202112564]
本稿では,アイルランド音楽で学習した潜在次元の解釈可能な測度VeE生成音楽XAIモデルを用いた自己エスノグラフィー研究を紹介する。
音楽作成ワークフローの探索的性質は、生成モデル自体の特徴ではなく、トレーニングデータセットの音楽的特徴を前提としていることが示唆されている。
論文 参考訳(メタデータ) (2023-08-11T12:03:17Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Music-to-Dance Generation with Optimal Transport [48.92483627635586]
本稿では,音楽から3Dダンス振付を生成するためのMDOT-Net(Music-to-Dance with Optimal Transport Network)を提案する。
生成したダンス分布とグロモフ=ワッサーシュタイン距離の信頼度を評価するための最適な移動距離を導入し、ダンス分布と入力音楽の対応性を測定する。
論文 参考訳(メタデータ) (2021-12-03T09:37:26Z) - GANs & Reels: Creating Irish Music using a Generative Adversarial
Network [2.6604997762611204]
本稿では, 逐次成分を伴わない生成的逆数ネットワークを用いたメロディ生成手法を提案する。
音楽生成は、リカレントニューラルネットワークを使用して成功し、モデルが真正な鳴き声を生成するのに役立つシーケンス情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-29T17:16:22Z) - Melody-Conditioned Lyrics Generation with SeqGANs [81.2302502902865]
本稿では,SeqGAN(Sequence Generative Adversarial Networks)に基づく,エンドツーエンドのメロディ条件付き歌詞生成システムを提案する。
入力条件が評価指標に悪影響を及ぼすことなく,ネットワークがより有意義な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-28T02:35:40Z) - Artificial Neural Networks Jamming on the Beat [20.737171876839238]
本稿では,ドラムパターンの大規模データセットと対応するメロディについて述べる。
ドラムパターンの潜伏した空間を探索すれば 特定の音楽スタイルで 新しいドラムパターンを創り出すことができます
単純な人工ニューラルネットワークは、入力として使用されるドラムパッターに対応するメロディを生成するように訓練することができる。
論文 参考訳(メタデータ) (2020-07-13T10:09:20Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z) - From Artificial Neural Networks to Deep Learning for Music Generation --
History, Concepts and Trends [0.0]
本稿では,ディープラーニング技術に基づく音楽生成のチュートリアルを提供する。
1980年代後半から、音楽生成のための人工ニューラルネットワークを用いて、いくつかの初期の作品を分析している。
論文 参考訳(メタデータ) (2020-04-07T00:33:56Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。