論文の概要: Sheet Music Benchmark: Standardized Optical Music Recognition Evaluation
- arxiv url: http://arxiv.org/abs/2506.10488v1
- Date: Thu, 12 Jun 2025 08:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.655782
- Title: Sheet Music Benchmark: Standardized Optical Music Recognition Evaluation
- Title(参考訳): Sheet Music Benchmark: 標準化された光音楽認識評価
- Authors: Juan C. Martinez-Sevilla, Joan Cerveto-Serrano, Noelia Luna, Greg Chapman, Craig Sapp, David Rizo, Jorge Calvo-Zaragoza,
- Abstract要約: Sheet Music Benchmark (SMB) は、光学音楽認識(OMR)研究のベンチマーク用に特別に設計された600ページと805ページのデータセットである。
OMR正規化編集距離(OMR-NED)は、OMRの性能を評価するために明示的に調整された新しい指標である。
- 参考スコア(独自算出の注目度): 6.2874069879764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce the Sheet Music Benchmark (SMB), a dataset of six hundred and eighty-five pages specifically designed to benchmark Optical Music Recognition (OMR) research. SMB encompasses a diverse array of musical textures, including monophony, pianoform, quartet, and others, all encoded in Common Western Modern Notation using the Humdrum **kern format. Alongside SMB, we introduce the OMR Normalized Edit Distance (OMR-NED), a new metric tailored explicitly for evaluating OMR performance. OMR-NED builds upon the widely-used Symbol Error Rate (SER), offering a fine-grained and detailed error analysis that covers individual musical elements such as note heads, beams, pitches, accidentals, and other critical notation features. The resulting numeric score provided by OMR-NED facilitates clear comparisons, enabling researchers and end-users alike to identify optimal OMR approaches. Our work thus addresses a long-standing gap in OMR evaluation, and we support our contributions with baseline experiments using standardized SMB dataset splits for training and assessing state-of-the-art methods.
- Abstract(参考訳): そこで本研究では,OMR(Optical Music Recognition)研究のベンチマークを目的とした,600ページと85ページのデータセットである Sheet Music Benchmark (SMB) について紹介する。
SMBは、モノフォニー、ピアノ形式、四重奏曲など、様々な音楽的テクスチャを包含しており、すべてHumdrum **kern形式を用いて共通西洋現代記法で符号化されている。
SMBと並行して,OMR性能を評価するための新しい指標であるOMR正規化編集距離(OMR-NED)を導入する。
OMR-NEDは広く使われている記号誤り率(SER)に基づいており、ノートヘッド、ビーム、ピッチ、事故、その他の重要な表記機能などの個々の音楽要素をカバーする、きめ細かい詳細な誤り分析を提供する。
OMR-NEDによる結果の数値スコアは、明確な比較を容易にするため、研究者やエンドユーザも最適なOMRアプローチを特定できる。
我々は,OMR評価における長年のギャップに対処し,標準化されたSMBデータセットスプリットを用いたベースライン実験によるコントリビューションを支援し,最先端の手法のトレーニングと評価を行う。
関連論文リスト
- Toward a More Complete OMR Solution [49.74172035862698]
光音楽認識は、音楽の表記をデジタル形式に変換することを目的としている。
OMRに取り組む1つのアプローチは、画像内の視覚音楽の表記要素を最初に検出するマルチステージパイプラインである。
YOLOv8に基づく音楽オブジェクト検出器を導入し,検出性能を向上する。
第2に、検出出力に基づいて記法組立段階を完了する教師付きトレーニングパイプラインを導入する。
論文 参考訳(メタデータ) (2024-08-31T01:09:12Z) - Knowledge Discovery in Optical Music Recognition: Enhancing Information Retrieval with Instance Segmentation [0.0]
光音楽認識(OMR)は、画像からMusicXML、MEI、MIDIなどの機械可読フォーマットに音符の書き起こしを自動化する。
本研究では,MAsk R-CNNを用いたサンプルセグメンテーションを適用してOMRにおける知識発見について検討し,楽譜における記号の検出とデライン化を強化する。
論文 参考訳(メタデータ) (2024-08-27T12:34:41Z) - A Unified Representation Framework for the Evaluation of Optical Music Recognition Systems [4.936226952764696]
共通の音楽表現言語の必要性を特定し,MTNフォーマットを提案する。
この形式は、音楽を高吸収ノードにまとめるプリミティブの集合として表現する。
また,この概念の実証として,特定のOMRメトリックセットとタイプセットスコアデータセットを開発した。
論文 参考訳(メタデータ) (2023-12-20T10:45:22Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Benchmarks and leaderboards for sound demixing tasks [44.99833362998488]
音源分離タスクのための2つの新しいベンチマークを導入する。
これらのベンチマークでは、音のデミックスやアンサンブルなどの人気モデルを比較します。
また,特定の茎に最適な異なるモデルのアンサンブルに基づく,音声分離のための新しいアプローチも開発している。
論文 参考訳(メタデータ) (2023-05-12T14:00:26Z) - DoReMi: First glance at a universal OMR dataset [0.0]
DoReMiはOMRの主な課題に対処するOMRデータセットである。
6400点以上の印刷された楽譜と付随するメタデータを含んでいる。
データの半分を用いた物体検出において平均平均精度(mAP)は64%であった。
論文 参考訳(メタデータ) (2021-07-16T09:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。