論文の概要: Large-Scale MIDI-based Composer Classification
- arxiv url: http://arxiv.org/abs/2010.14805v1
- Date: Wed, 28 Oct 2020 08:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:33:08.557878
- Title: Large-Scale MIDI-based Composer Classification
- Title(参考訳): 大規模MIDIベースコンストラクタ分類
- Authors: Qiuqiang Kong, Keunwoo Choi, Yuxuan Wang
- Abstract要約: 広義MIDIピアノを用いたMIDIに基づく大規模楽曲分類システムを提案する。
我々は、最大100人の作曲家による作曲家の分類問題を調査した最初の人物である。
本システムでは,0.648と0.385の10コンポーザと100コンポーザの分類精度を実現する。
- 参考スコア(独自算出の注目度): 13.815200249190529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music classification is a task to classify a music piece into labels such as
genres or composers. We propose large-scale MIDI based composer classification
systems using GiantMIDI-Piano, a transcription-based dataset. We propose to use
piano rolls, onset rolls, and velocity rolls as input representations and use
deep neural networks as classifiers. To our knowledge, we are the first to
investigate the composer classification problem with up to 100 composers. By
using convolutional recurrent neural networks as models, our MIDI based
composer classification system achieves a 10-composer and a 100-composer
classification accuracies of 0.648 and 0.385 (evaluated on 30-second clips) and
0.739 and 0.489 (evaluated on music pieces), respectively. Our MIDI based
composer system outperforms several audio-based baseline classification
systems, indicating the effectiveness of using compact MIDI representations for
composer classification.
- Abstract(参考訳): 音楽の分類は、楽曲をジャンルや作曲家などのラベルに分類する作業である。
本稿では,GitanMIDI-Pianoを用いた大規模なMIDIベース作曲分類システムを提案する。
本稿では,ピアノロール,オンセットロール,速度ロールを入力表現として使用し,ディープニューラルネットワークを分類器として用いることを提案する。
私たちの知る限りでは、100人までの作曲家による作曲家分類問題を最初に調査した。
畳み込み型リカレントニューラルネットワークをモデルとして、midiベースの作曲家分類システムは、それぞれ0.648と0.385(30秒クリップで評価)と0.739と0.489(楽曲で評価)の10作曲家と100作曲者分類アキュラをそれぞれ達成する。
midiベースのコントリビュータシステムは,複数のオーディオベースベースベースライン分類システムよりも優れており,コンパクトmidi表現を用いたコントリビュータ分類の有効性を示す。
関連論文リスト
- Arabic Music Classification and Generation using Deep Learning [1.4721222689583375]
本稿では,古典・新エジプト音楽の作曲家による分類と類似音楽の生成のための機械学習手法を提案する。
提案システムは,畳み込みニューラルネットワーク(CNN)を分類に用い,CNNオートエンコーダを生成に用いた。
81.4%の精度で作曲者による楽曲の分類を行い,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-25T17:47:08Z) - Music Genre Classification using Large Language Models [50.750620612351284]
本稿では,音楽ジャンル分類のための事前学習された大規模言語モデル(LLM)のゼロショット機能を利用する。
提案手法は、音声信号を20ミリ秒のチャンクに分割し、畳み込み特徴エンコーダで処理する。
推論中、個々のチャンクの予測は最終ジャンル分類のために集約される。
論文 参考訳(メタデータ) (2024-10-10T19:17:56Z) - Cluster and Separate: a GNN Approach to Voice and Staff Prediction for Score Engraving [5.572472212662453]
本稿では,音符を量子化された記号楽曲(例えばMIDIファイル)から複数の音声とステーブに分離する問題にアプローチする。
本稿では,同じ和音に属する音符を音声の一部であればエッジで接続する,グラフニューラルネットワークに基づくエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:36:13Z) - RMSSinger: Realistic-Music-Score based Singing Voice Synthesis [56.51475521778443]
RMS-SVSは、異なる音符タイプでリアル音楽のスコアを与えられた高品質な歌声を生成することを目的としている。
RMS-SVS方式であるRMSSingerを提案する。
RMSSingerでは,時間を要する音素の持続時間アノテーションと複雑な音素レベルのメルノートアライメントを避けるために,単語レベルのモデリングを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:57:51Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - MeloForm: Generating Melody with Musical Form based on Expert Systems
and Neural Networks [146.59245563763065]
MeloFormは、エキスパートシステムとニューラルネットワークを使用して、音楽形式でメロディを生成するシステムである。
詩やコーラス形式、ロンド形式、変奏形式、ソナタ形式など、様々な形式をサポートすることができる。
論文 参考訳(メタデータ) (2022-08-30T15:44:15Z) - BERT-like Pre-training for Symbolic Piano Music Classification Tasks [15.02723006489356]
本稿では,BERT (Bidirectional Representations from Transformers) を用いたシンボリックピアノ音楽分類のベンチマーク研究について述べる。
BERT手法を用いて2つの12層トランスフォーマーモデルを事前訓練し、4つの下流分類タスクでそれらを微調整する。
評価の結果,BERTアプローチはリカレントニューラルネットワーク(RNN)ベースラインよりも高い分類精度が得られた。
論文 参考訳(メタデータ) (2021-07-12T07:03:57Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Deep Composer Classification Using Symbolic Representation [6.656753488329095]
本研究では,シンボリックドメイン上で作曲家を分類するために,ディープニューラルネットワークを訓練する。
このモデルでは、2チャンネルの2次元入力をMIDIレコードから変換し、シングルラベルの分類を行う。
MAESTROデータセットで行った実験では、13種類の作曲家を分類するためにF1値0.8333を報告した。
論文 参考訳(メタデータ) (2020-10-02T07:40:44Z) - POP909: A Pop-song Dataset for Music Arrangement Generation [10.0454303747519]
POP909はプロのミュージシャンが作成した909曲のピアノ編曲の複数バージョンを含むデータセットである。
データセットの本体は、音声メロディ、リード楽器メロディ、および元のオーディオファイルに整列したMIDIフォーマットで各曲のピアノ伴奏を含む。
我々はテンポ、ビート、キー、コードなどのアノテーションを提供し、テンポ曲線は手作業でラベル付けされ、その他はMIRアルゴリズムによって行われる。
論文 参考訳(メタデータ) (2020-08-17T08:08:14Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。