論文の概要: LooPy: A Research-Friendly Mix Framework for Music Information Retrieval
on Electronic Dance Music
- arxiv url: http://arxiv.org/abs/2305.01051v1
- Date: Mon, 1 May 2023 19:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 16:21:39.686937
- Title: LooPy: A Research-Friendly Mix Framework for Music Information Retrieval
on Electronic Dance Music
- Title(参考訳): LooPy: 電子ダンス音楽における音楽情報検索のための研究用ミックスフレームワーク
- Authors: Xinyu Li
- Abstract要約: 自動EDM音声生成のためのPythonパッケージを,EMM楽曲のMIR基盤として提案する。
プロレベルのテンプレートを構築するためのフレームワークを提供しています。
実験により、我々のミックスは、世界的に有名なアーティストが制作したオリジナル・レファレンス・ソングと同じ品質を達成できることが示された。
- 参考スコア(独自算出の注目度): 8.102989872457156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Music information retrieval (MIR) has gone through an explosive development
with the advancement of deep learning in recent years. However, music genres
like electronic dance music (EDM) has always been relatively less investigated
compared to others. Considering its wide range of applications, we present a
Python package for automated EDM audio generation as an infrastructure for MIR
for EDM songs, to mitigate the difficulty of acquiring labelled data. It is a
convenient tool that could be easily concatenated to the end of many symbolic
music generation pipelines. Inside this package, we provide a framework to
build professional-level templates that could render a well-produced track from
specified melody and chords, or produce massive tracks given only a specific
key by our probabilistic symbolic melody generator. Experiments show that our
mixes could achieve the same quality of the original reference songs produced
by world-famous artists, with respect to both subjective and objective
criteria. Our code is accessible in this repository:
https://github.com/Gariscat/loopy and the official site of the project is also
online https://loopy4edm.com .
- Abstract(参考訳): 音楽情報検索(MIR)は近年,深層学習の進展とともに爆発的な発展を遂げている。
しかしながら、電子舞踊音楽(EDM)のような音楽ジャンルは、他のものに比べて比較的少ない調査がなされている。
広い範囲のアプリケーションを考えると、ラベル付きデータ取得の難しさを軽減するため、EDM楽曲のMIR基盤として自動EDM音声生成のためのPythonパッケージを提示する。
多くのシンボリックな音楽生成パイプラインの終わりに簡単に結合できる便利なツールである。
このパッケージ内では、特定のメロディとコードからよく生産されたトラックをレンダリングしたり、確率的シンボリックなメロディジェネレータによって特定のキーのみを与えられた巨大なトラックを生成できるプロレベルのテンプレートを構築するためのフレームワークを提供する。
実験の結果,我々のミックスは,主観的基準と客観的基準の両方において,世界的に有名なアーティストが制作したオリジナル・リファレンス・ソングと同等の品質を達成できることがわかった。
私たちのコードは、このリポジトリでアクセスできます。 https://github.com/Gariscat/loopy。
関連論文リスト
- Benchmarking Sub-Genre Classification For Mainstage Dance Music [6.042939894766715]
この研究は、新しいデータセットとベースラインからなる新しいベンチマークを導入する。
我々のデータセットは、世界中の音楽祭のトップDJによる最新のメインステージのライブセットをカバーするために、サブジャンルの数を拡張しています。
ベースラインとして,現在最先端のマルチモデル言語モデルよりも優れたディープラーニングモデルを開発した。
論文 参考訳(メタデータ) (2024-09-10T17:54:00Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - InstructME: An Instruction Guided Music Edit And Remix Framework with
Latent Diffusion Models [42.2977676825086]
本稿では,遅延拡散モデルに基づくインストラクションガイド付き音楽編集・リミックスフレームワークであるInstructMEを開発する。
本フレームワークは,編集前後の一貫性を維持するため,U-Netをマルチスケールアグリゲーションで強化する。
提案手法は, 音質, テキスト関連性, 調和性において, 先行するシステムを大幅に上回っている。
論文 参考訳(メタデータ) (2023-08-28T07:11:42Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - Musika! Fast Infinite Waveform Music Generation [0.0]
Musikaは、何百時間もの音楽を、単一の消費者向けGPUを使って訓練できる音楽生成システムだ。
まず、逆自己エンコーダを用いて分光器の大きさと位相のコンパクトな可逆表現を学習する。
潜在座標系は任意の長さの抜粋列を並列に生成することができ、一方、グローバルな文脈ベクトルは、時間を通してスタイリスティックに整合性を保つことができる。
論文 参考訳(メタデータ) (2022-08-18T08:31:15Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - PopMAG: Pop Music Accompaniment Generation [190.09996798215738]
単一シーケンスでの同時マルチトラック生成が可能なMUlti-track MIDI表現(MuMIDI)を提案する。
MuMIDIはシーケンス長を拡大し、長期音楽モデリングの新しい課題をもたらす。
我々は,ポップミュージックの伴奏生成をPopMAGと呼ぶ。
論文 参考訳(メタデータ) (2020-08-18T02:28:36Z) - POP909: A Pop-song Dataset for Music Arrangement Generation [10.0454303747519]
POP909はプロのミュージシャンが作成した909曲のピアノ編曲の複数バージョンを含むデータセットである。
データセットの本体は、音声メロディ、リード楽器メロディ、および元のオーディオファイルに整列したMIDIフォーマットで各曲のピアノ伴奏を含む。
我々はテンポ、ビート、キー、コードなどのアノテーションを提供し、テンポ曲線は手作業でラベル付けされ、その他はMIRアルゴリズムによって行われる。
論文 参考訳(メタデータ) (2020-08-17T08:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。