論文の概要: PDMX: A Large-Scale Public Domain MusicXML Dataset for Symbolic Music Processing
- arxiv url: http://arxiv.org/abs/2409.10831v1
- Date: Tue, 17 Sep 2024 01:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 18:20:31.768709
- Title: PDMX: A Large-Scale Public Domain MusicXML Dataset for Symbolic Music Processing
- Title(参考訳): PDMX:シンボリックな音楽処理のための大規模パブリックドメインミュージックXMLデータセット
- Authors: Phillip Long, Zachary Novack, Taylor Berg-Kirkpatrick, Julian McAuley,
- Abstract要約: PDMX: スコア共有フォーラムMuseScoreから収集した250万以上のパブリックドメイン MusicXML スコアからなる大規模なオープンソースデータセット。
このデータセットは、私たちの知識にとって最大の著作権のないシンボリック音楽データセットです。
我々は、PDMXの異なる代表部分集合が下流モデルにおける異なる挙動にどのように寄与するかを評価するマルチトラック音楽生成実験を行う。
- 参考スコア(独自算出の注目度): 43.61383132919089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent explosion of generative AI-Music systems has raised numerous concerns over data copyright, licensing music from musicians, and the conflict between open-source AI and large prestige companies. Such issues highlight the need for publicly available, copyright-free musical data, in which there is a large shortage, particularly for symbolic music data. To alleviate this issue, we present PDMX: a large-scale open-source dataset of over 250K public domain MusicXML scores collected from the score-sharing forum MuseScore, making it the largest available copyright-free symbolic music dataset to our knowledge. PDMX additionally includes a wealth of both tag and user interaction metadata, allowing us to efficiently analyze the dataset and filter for high quality user-generated scores. Given the additional metadata afforded by our data collection process, we conduct multitrack music generation experiments evaluating how different representative subsets of PDMX lead to different behaviors in downstream models, and how user-rating statistics can be used as an effective measure of data quality. Examples can be found at https://pnlong.github.io/PDMX.demo/.
- Abstract(参考訳): 最近の生成AI-音楽システムの爆発は、データ著作権、ミュージシャンからの音楽のライセンス、そしてオープンソースのAIと大手企業間の対立に多くの懸念を巻き起こしている。
このような問題は、特に象徴的な音楽データに対して、膨大な量の不足がある公開可能な著作権のない音楽データの必要性を浮き彫りにしている。
この問題を緩和するために、PDMX:250万以上のパブリックドメインの大規模なオープンソースデータセット MusicXMLスコアをスコア共有フォーラムMuseScoreから収集した。
PDMXにはタグとユーザインタラクションのメタデータが豊富に含まれており、データセットを効率的に分析し、高品質なユーザ生成スコアをフィルタすることができます。
データ収集プロセスで得られる追加メタデータを考慮し、PDMXの異なる代表的サブセットが下流モデルでどのように異なる振る舞いを導くか、データ品質の効果的な指標としてユーザ評価統計をどのように利用できるかを評価するマルチトラック音楽生成実験を行う。
例はhttps://pnlong.github.io/PDMX.demo/にある。
関連論文リスト
- PIAST: A Multimodal Piano Dataset with Audio, Symbolic and Text [8.382511298208003]
PIAST(PIAST, PIano dataset with Audio, Symbolic, and Text)は、ピアノ音楽のデータセットである。
われわれはYouTubeから9,673曲を収集し、音楽の専門家による2,023曲の人間のアノテーションを追加した。
どちらも、オーディオ、テキスト、タグアノテーション、そして最先端のピアノの書き起こしとビート追跡モデルを利用したMIDIの書き起こしである。
論文 参考訳(メタデータ) (2024-11-04T19:34:13Z) - MOSA: Music Motion with Semantic Annotation Dataset for Cross-Modal Music Processing [3.3162176082220975]
高品質な3次元モーションキャプチャーデータ、アライメント音声記録、ピッチ、ビート、フレーズ、動的、調音、ハーモニーを含むMOSA(Music mOtion with Semantic )データセットを23人のプロミュージシャンによる742のプロ音楽演奏に対して提示する。
私たちの知る限り、これはこれまでのノートレベルのアノテーションを備えた、最大のクロスモーダルな音楽データセットです。
論文 参考訳(メタデータ) (2024-06-10T15:37:46Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - WikiMuTe: A web-sourced dataset of semantic descriptions for music audio [7.4327407361824935]
音楽の豊かな意味記述を含む新しいオープンデータセットWikiMuTeを提案する。
このデータはウィキペディアの豊富な楽曲に関する記事のカタログから得られたものである。
我々は、テキストと音声の表現を共同で学習し、モーダル検索を行うモデルを訓練する。
論文 参考訳(メタデータ) (2023-12-14T18:38:02Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - LooPy: A Research-Friendly Mix Framework for Music Information Retrieval
on Electronic Dance Music [8.102989872457156]
自動EDM音声生成のためのPythonパッケージを,EMM楽曲のMIR基盤として提案する。
プロレベルのテンプレートを構築するためのフレームワークを提供しています。
実験により、我々のミックスは、世界的に有名なアーティストが制作したオリジナル・レファレンス・ソングと同じ品質を達成できることが示された。
論文 参考訳(メタデータ) (2023-05-01T19:30:47Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。