論文の概要: Evaluating Deep Music Generation Methods Using Data Augmentation
- arxiv url: http://arxiv.org/abs/2201.00052v1
- Date: Fri, 31 Dec 2021 20:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 15:56:58.632123
- Title: Evaluating Deep Music Generation Methods Using Data Augmentation
- Title(参考訳): データ拡張を用いた深層音楽生成手法の評価
- Authors: Toby Godwin and Georgios Rizos and Alice Baird and Najla D. Al Futaisi
and Vincent Brisse and Bjoern W. Schuller
- Abstract要約: 我々は,アルゴリズムによって生成された楽曲のサンプルを評価するための,均質で客観的な枠組みに焦点をあてる。
生成した楽曲の楽譜評価は行わず,感情や気分やテーマに関する意味のある情報が含まれているかを探る。
- 参考スコア(独自算出の注目度): 13.72212417973239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite advances in deep algorithmic music generation, evaluation of
generated samples often relies on human evaluation, which is subjective and
costly. We focus on designing a homogeneous, objective framework for evaluating
samples of algorithmically generated music. Any engineered measures to evaluate
generated music typically attempt to define the samples' musicality, but do not
capture qualities of music such as theme or mood. We do not seek to assess the
musical merit of generated music, but instead explore whether generated samples
contain meaningful information pertaining to emotion or mood/theme. We achieve
this by measuring the change in predictive performance of a music mood/theme
classifier after augmenting its training data with generated samples. We
analyse music samples generated by three models -- SampleRNN, Jukebox, and DDSP
-- and employ a homogeneous framework across all methods to allow for objective
comparison. This is the first attempt at augmenting a music genre
classification dataset with conditionally generated music. We investigate the
classification performance improvement using deep music generation and the
ability of the generators to make emotional music by using an additional,
emotion annotation of the dataset. Finally, we use a classifier trained on real
data to evaluate the label validity of class-conditionally generated samples.
- Abstract(参考訳): 深層アルゴリズム音楽生成の進歩にもかかわらず、生成したサンプルの評価は、主観的でコストがかかる人間の評価に依存することが多い。
アルゴリズムによって生成された楽曲のサンプルを評価するための,均質で客観的なフレームワークの設計に着目する。
生成した音楽を評価するための工学的な手段は、通常、サンプルの音楽性を定義しようとするが、テーマやムードといった音楽の質を捉えない。
生成した楽曲の楽譜評価は行わず,感情や気分やテーマに関する意味のある情報が含まれているかを探る。
そこで本研究では,音楽のムード・テーマ分類器の学習データに生成したサンプルを加味して,予測性能の変化を計測する。
我々は,SampleRNN,Jukebox,DDSPの3つのモデルで生成された楽曲のサンプルを分析し,客観的比較を可能にするため,すべての手法で同質なフレームワークを使用している。
これは条件付き音楽で音楽ジャンル分類データセットを増強する最初の試みである。
本研究では、深層音楽生成を用いた分類性能向上と、データセットの追加的な感情アノテーションを用いて感情音楽作成能力について検討する。
最後に,実データに基づいて学習した分類器を用いて,クラス条件付き生成サンプルのラベル妥当性を評価する。
関連論文リスト
- Generating High-quality Symbolic Music Using Fine-grained Discriminators [42.200747558496055]
本稿では,メロディとリズムを音楽から分離し,それに対応する微粒な識別器を設計することを提案する。
具体的には、ピッチ増強戦略を備えるメロディ判別器は、生成されたサンプルによって提示されるメロディ変動を識別する。
バーレベルの相対的な位置エンコーディングで強化されたリズム判別器は、生成された音符の速度に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-03T07:32:21Z) - Can MusicGen Create Training Data for MIR Tasks? [3.8980564330208662]
我々は,AIに基づく生成音楽システムを用いて音楽情報検索タスクの学習データを生成するという,より広範な概念について検討している。
我々は50000以上のジャンルを規定したテキスト記述を構築し、5つのジャンルをカバーした楽曲の抜粋を作成した。
予備的な結果は,提案モデルが実世界の音楽録音を一般化した人工音楽トラックからジャンル特有な特徴を学習できることを示唆している。
論文 参考訳(メタデータ) (2023-11-15T16:41:56Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - RMSSinger: Realistic-Music-Score based Singing Voice Synthesis [56.51475521778443]
RMS-SVSは、異なる音符タイプでリアル音楽のスコアを与えられた高品質な歌声を生成することを目的としている。
RMS-SVS方式であるRMSSingerを提案する。
RMSSingerでは,時間を要する音素の持続時間アノテーションと複雑な音素レベルのメルノートアライメントを避けるために,単語レベルのモデリングを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:57:51Z) - Comparision Of Adversarial And Non-Adversarial LSTM Music Generative
Models [2.569647910019739]
この研究は、MIDIデータに基づいて、リカレントニューラルネットワーク音楽作曲家の敵対的および非敵対的な訓練を実装し、比較する。
この評価は, 対人訓練がより審美的に楽しむ音楽を生み出すことを示唆している。
論文 参考訳(メタデータ) (2022-11-01T20:23:49Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - A Comprehensive Survey on Deep Music Generation: Multi-level
Representations, Algorithms, Evaluations, and Future Directions [10.179835761549471]
本稿では,深層学習を用いた音楽生成レベルの違いによる様々な作曲課題の概要について述べる。
さらに,多様なタスクに適したデータセットを要約し,音楽表現,評価方法,および異なるレベルの課題について考察し,最後にいくつかの今後の方向性を指摘する。
論文 参考訳(メタデータ) (2020-11-13T08:01:20Z) - Unsupervised Cross-Domain Singing Voice Conversion [105.1021715879586]
任意の同一性から音声変換を行うタスクに対して,wav-to-wav生成モデルを提案する。
提案手法は,自動音声認識のタスクのために訓練された音響モデルとメロディ抽出機能の両方を用いて波形ベースジェネレータを駆動する。
論文 参考訳(メタデータ) (2020-08-06T18:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。