論文の概要: HouseX: A Fine-grained House Music Dataset and its Potential in the
Music Industry
- arxiv url: http://arxiv.org/abs/2207.11690v1
- Date: Sun, 24 Jul 2022 08:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 16:06:14.407957
- Title: HouseX: A Fine-grained House Music Dataset and its Potential in the
Music Industry
- Title(参考訳): housex: きめ細かなハウス音楽データセットとその音楽産業における可能性
- Authors: Xinyu Li
- Abstract要約: 我々は、将来の家、ベースハウス、プログレッシブハウス、メロディックハウスという4つのサブジャンルのレーベルを提供するハウスミュージックのデータセットを収集し、注釈付けした。
我々は,トラックのメル-スペクトログラムに基づいてサブジャンルを分類するベースラインモデルを構築し,競争力のある結果を得た。
- 参考スコア(独自算出の注目度): 8.102989872457156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine sound classification has been one of the fundamental tasks of music
technology. A major branch of sound classification is the classification of
music genres. However, though covering most genres of music, existing music
genre datasets often do not contain fine-grained labels that indicate the
detailed sub-genres of music. In consideration of the consistency of genres of
songs in a mixtape or in a DJ (live) set, we have collected and annotated a
dataset of house music that provide 4 sub-genre labels, namely future house,
bass house, progressive house and melodic house. Experiments show that our
annotations well exhibit the characteristics of different categories. Also, we
have built baseline models that classify the sub-genre based on the
mel-spectrograms of a track, achieving strongly competitive results. Besides,
we have put forward a few application scenarios of our dataset and baseline
model, with a simulated sci-fi tunnel as a short demo built and rendered in a
3D modeling software, with the colors of the lights automated by the output of
our model.
- Abstract(参考訳): 機械音の分類は音楽技術の基本課題の1つである。
音の分類の主要な分野は音楽ジャンルの分類である。
しかし、ほとんどの音楽ジャンルをカバーしているが、既存の音楽ジャンルのデータセットは、音楽の詳細なサブジャンルを示す詳細なラベルを含まないことが多い。
ミックステープやDJ(ライブ)セットにおける楽曲のジャンルの整合性を考慮して,我々は,将来のハウス,ベースハウス,プログレッシブハウス,メロディックハウスという4つのサブジャンルのレーベルを提供するハウスミュージックのデータセットを収集し,注釈した。
実験の結果,アノテーションは様々なカテゴリの特徴を示すことがわかった。
また,トラックのメルスペクトルに基づいてサブジャンルを分類するベースラインモデルを構築し,競争力のある結果を得た。
さらに、当社のデータセットとベースラインモデルのいくつかのアプリケーションシナリオを、モデル出力によって照明の色が自動化された3dモデリングソフトウェアで構築され、レンダリングされた短いデモとしてシミュレートしたsci-fiトンネルで実施しました。
関連論文リスト
- Attention-guided Spectrogram Sequence Modeling with CNNs for Music Genre Classification [0.0]
注意に基づく時間的シグネチャモデリングを用いて音楽ジャンルを分類する革新的なモデルを提案する。
我々のアプローチは各作品の中でもっとも時間的に重要な瞬間を捉え、ジャンル識別のためのユニークな「シグナチャ」を作り上げる。
この研究は、技術的分類タスクと、ジャンルの微妙で人間的な経験のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-11-18T21:57:03Z) - Benchmarking Sub-Genre Classification For Mainstage Dance Music [6.042939894766715]
この研究は、新しいデータセットとベースラインからなる新しいベンチマークを導入する。
我々のデータセットは、世界中の音楽祭のトップDJによる最新のメインステージのライブセットをカバーするために、サブジャンルの数を拡張しています。
ベースラインとして,現在最先端のマルチモデル言語モデルよりも優れたディープラーニングモデルを開発した。
論文 参考訳(メタデータ) (2024-09-10T17:54:00Z) - Can MusicGen Create Training Data for MIR Tasks? [3.8980564330208662]
我々は,AIに基づく生成音楽システムを用いて音楽情報検索タスクの学習データを生成するという,より広範な概念について検討している。
我々は50000以上のジャンルを規定したテキスト記述を構築し、5つのジャンルをカバーした楽曲の抜粋を作成した。
予備的な結果は,提案モデルが実世界の音楽録音を一般化した人工音楽トラックからジャンル特有な特徴を学習できることを示唆している。
論文 参考訳(メタデータ) (2023-11-15T16:41:56Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - GETMusic: Generating Any Music Tracks with a Unified Representation and
Diffusion Framework [58.64512825534638]
シンボリック・ミュージック・ジェネレーションは、ユーザーが音楽を作るのに役立つ音符を作成することを目的としている。
私たちは「GETMusic」と呼ばれるフレームワークを紹介します。「GET'」は「GEnerate Music Tracks」の略です。
GETScoreは、音符をトークンとして表現し、2D構造でトークンを整理する。
提案する表現は,非自己回帰生成モデルと組み合わせて,任意のソース・ターゲットトラックの組み合わせでGETMusicに音楽を生成する。
論文 参考訳(メタデータ) (2023-05-18T09:53:23Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - MATT: A Multiple-instance Attention Mechanism for Long-tail Music Genre
Classification [1.8275108630751844]
不均衡音楽ジャンル分類は音楽情報検索(MIR)分野において重要な課題である。
既存のモデルのほとんどは、クラスバランスの音楽データセット用に設計されている。
末尾クラスを特定するために,MATT(Multi-Instance Attention)と呼ばれる新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2022-09-09T03:52:44Z) - Genre-conditioned Acoustic Models for Automatic Lyrics Transcription of
Polyphonic Music [73.73045854068384]
本稿では,新ジャンルネットワークを用いたポリフォニック音楽の歌詞の書き起こしを提案する。
提案するネットワークは,事前学習されたモデルパラメータを採用し,階層間のジャンルアダプタを組み込んで,歌詞とジャンルのペアのジャンルの特色を抽出する。
実験の結果,提案するジャンル条件付きネットワークは既存の歌詞の書き起こしシステムよりも優れていた。
論文 参考訳(メタデータ) (2022-04-07T09:15:46Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。