論文の概要: Personalized Popular Music Generation Using Imitation and Structure
- arxiv url: http://arxiv.org/abs/2105.04709v1
- Date: Mon, 10 May 2021 23:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:49:32.461189
- Title: Personalized Popular Music Generation Using Imitation and Structure
- Title(参考訳): 模倣と構造を用いたパーソナライズされたポピュラー音楽生成
- Authors: Shuqi Dai, Xichu Ma, Ye Wang, Roger B. Dannenberg
- Abstract要約: そこで本研究では,特定の例のシード曲から構造,メロディ,和音,バススタイルを捉え,模倣できる統計的機械学習モデルを提案する。
10曲のポップソングによる評価は,我々の新しい表現と手法が高品質なスタイリスティック音楽を作り出すことができることを示している。
- 参考スコア(独自算出の注目度): 1.971709238332434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many practices have been presented in music generation recently. While
stylistic music generation using deep learning techniques has became the main
stream, these models still struggle to generate music with high musicality,
different levels of music structure, and controllability. In addition, more
application scenarios such as music therapy require imitating more specific
musical styles from a few given music examples, rather than capturing the
overall genre style of a large data corpus. To address requirements that
challenge current deep learning methods, we propose a statistical machine
learning model that is able to capture and imitate the structure, melody,
chord, and bass style from a given example seed song. An evaluation using 10
pop songs shows that our new representations and methods are able to create
high-quality stylistic music that is similar to a given input song. We also
discuss potential uses of our approach in music evaluation and music therapy.
- Abstract(参考訳): 最近は音楽業界で多くの実践がなされている。
深層学習技術を用いたスタイリスティックな音楽生成が主流となっているが、これらのモデルは高い音楽性、異なるレベルの音楽構造、制御性を持つ音楽の生成に苦慮している。
さらに、音楽セラピーのようなアプリケーションシナリオでは、大規模なデータコーパスの全体的なジャンルスタイルを捉えるのではなく、いくつかの特定の音楽例から特定の音楽スタイルを模倣する必要がある。
現在のディープラーニング手法に挑戦する要件に対処するために,与えられたサンプル種歌から構造,メロディ,和音,バススタイルをキャプチャし,模倣できる統計的機械学習モデルを提案する。
10曲のポップソングを用いた評価では,新たな表現や手法によって,与えられた入力歌に類似した高品質なスタイル音楽が作成できることが示されている。
また,音楽評価や音楽療法におけるアプローチの可能性についても論じる。
関連論文リスト
- MusicFlow: Cascaded Flow Matching for Text Guided Music Generation [53.63948108922333]
MusicFlowは、フローマッチングに基づくケースドテキストから音楽への生成モデルである。
学習目的としてマスク予測を活用することで,音楽の充実や継続といった他のタスクにモデルを一般化することができる。
論文 参考訳(メタデータ) (2024-10-27T15:35:41Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Evaluating Deep Music Generation Methods Using Data Augmentation [13.72212417973239]
我々は,アルゴリズムによって生成された楽曲のサンプルを評価するための,均質で客観的な枠組みに焦点をあてる。
生成した楽曲の楽譜評価は行わず,感情や気分やテーマに関する意味のある情報が含まれているかを探る。
論文 参考訳(メタデータ) (2021-12-31T20:35:46Z) - Multi-task Learning with Metadata for Music Mood Classification [0.0]
ムード認識は音楽情報学において重要な問題であり、音楽発見とレコメンデーションに重要な応用がある。
マルチタスク学習手法を提案する。この手法では、共有されたモデルが、気分やメタデータの予測タスクに対して同時に訓練される。
我々の手法を既存の最先端の畳み込みニューラルネットワークに適用することにより、その性能を継続的に改善する。
論文 参考訳(メタデータ) (2021-10-10T11:36:34Z) - Controllable deep melody generation via hierarchical music structure
representation [14.891975420982511]
MusicFrameworksは階層的な音楽構造表現であり、フル長のメロディを作成するための多段階の生成プロセスである。
各フレーズでメロディを生成するために、2つの異なるトランスフォーマーベースネットワークを用いてリズムとベーシックメロディを生成する。
さまざまな曲をカスタマイズしたり追加したりするために、音楽フレームワークのコード、基本的なメロディ、リズム構造を変更して、それに応じてネットワークがメロディを生成する。
論文 参考訳(メタデータ) (2021-09-02T01:31:14Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - A Comprehensive Survey on Deep Music Generation: Multi-level
Representations, Algorithms, Evaluations, and Future Directions [10.179835761549471]
本稿では,深層学習を用いた音楽生成レベルの違いによる様々な作曲課題の概要について述べる。
さらに,多様なタスクに適したデータセットを要約し,音楽表現,評価方法,および異なるレベルの課題について考察し,最後にいくつかの今後の方向性を指摘する。
論文 参考訳(メタデータ) (2020-11-13T08:01:20Z) - Incorporating Music Knowledge in Continual Dataset Augmentation for
Music Generation [69.06413031969674]
Aug-Genは、リソース制約のあるドメインでトレーニングされた任意の音楽生成システムに対するデータセット拡張の方法である。
我々は、Aug-Gen をトランスフォーマーベースのコラール生成に J.S. Bach のスタイルで適用し、これによりより長いトレーニングが可能となり、より優れた生成出力が得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。