論文の概要: Recognizing Ornaments in Vocal Indian Art Music with Active Annotation
- arxiv url: http://arxiv.org/abs/2505.04419v1
- Date: Wed, 07 May 2025 13:52:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.098137
- Title: Recognizing Ornaments in Vocal Indian Art Music with Active Annotation
- Title(参考訳): アクティブアノテーションによる声道インド音楽のオーナメント認識
- Authors: Sumit Kumar, Parampreet Singh, Vipul Arora,
- Abstract要約: R=aga Ornamentation Detection (ROD) は、インドのクラシック音楽の録音を専門のミュージシャンがキュレートした新しいデータセットである。
このデータセットは、カスタムのHuman-in-the-Loopツールを使用して、イベントベースのラベルとしてマークされた6つのボーカル装飾に注釈付けされている。
我々は,長い音声録音のチャンク中に,装飾境界を保った深部時系列解析に基づく装飾検出モデルを開発した。
- 参考スコア(独自算出の注目度): 2.9219095364935885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ornamentations, embellishments, or microtonal inflections are essential to melodic expression across many musical traditions, adding depth, nuance, and emotional impact to performances. Recognizing ornamentations in singing voices is key to MIR, with potential applications in music pedagogy, singer identification, genre classification, and controlled singing voice generation. However, the lack of annotated datasets and specialized modeling approaches remains a major obstacle for progress in this research area. In this work, we introduce R\=aga Ornamentation Detection (ROD), a novel dataset comprising Indian classical music recordings curated by expert musicians. The dataset is annotated using a custom Human-in-the-Loop tool for six vocal ornaments marked as event-based labels. Using this dataset, we develop an ornamentation detection model based on deep time-series analysis, preserving ornament boundaries during the chunking of long audio recordings. We conduct experiments using different train-test configurations within the ROD dataset and also evaluate our approach on a separate, manually annotated dataset of Indian classical concert recordings. Our experimental results support the superior performance of our proposed approach over the baseline CRNN.
- Abstract(参考訳): オーナメンテーション、エンプレッシュメント、マイクロトナールインフレクションは、多くの音楽伝統にまたがるメロディックな表現に不可欠であり、演奏に深さ、ニュアンス、感情的な影響を加える。
歌唱音声における装飾の認識は、音楽教育、歌手の識別、ジャンル分類、歌唱音声生成の制御など、MIRの鍵となる。
しかし、注釈付きデータセットや特殊なモデリングアプローチが欠如していることは、この研究領域における進歩の大きな障害である。
本稿では,プロのミュージシャンが編集したインドのクラシック音楽の録音を含む新しいデータセットであるR\=aga Ornamentation Detection (ROD)を紹介する。
このデータセットは、カスタムのHuman-in-the-Loopツールを使用して、イベントベースのラベルとしてマークされた6つのボーカル装飾に注釈付けされている。
このデータセットを用いて、長い音声録音のチャンク中に装飾境界を保存する深層時系列解析に基づく装飾検出モデルを構築する。
RODデータセット内の異なるトレインテスト構成を用いて実験を行い、インド古典コンサート録音の別途手動注釈付きデータセットに対するアプローチを評価する。
提案手法がベースラインCRNNよりも優れていることを示す実験結果を得た。
関連論文リスト
- Automatic Estimation of Singing Voice Musical Dynamics [9.343063100314687]
本稿では,データセットキュレーションの方法論を提案する。
我々は163のスコアファイルと一致して509の楽曲のダイナミックスを歌声の演奏に注釈付けしたデータセットをコンパイルする。
我々は、様々なウィンドウサイズを持つCNNモデルを訓練し、音楽力学を推定するの有効性を評価する。
実験の結果,バークスケールによる音声力学予測は対数メル特徴よりも優れていた。
論文 参考訳(メタデータ) (2024-10-27T18:15:18Z) - Perceptual Musical Features for Interpretable Audio Tagging [2.1730712607705485]
本研究では,音楽の自動タグ付けにおける解釈可能性の関連性について検討する。
3つの異なる情報抽出手法を組み込んだワークフローを構築した。
MTG-JamendoデータセットとGTZANデータセットの2つのデータセットについて実験を行った。
論文 参考訳(メタデータ) (2023-12-18T14:31:58Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - A Phoneme-Informed Neural Network Model for Note-Level Singing
Transcription [11.951441023641975]
本稿では,歌唱の言語的特徴を活用して,より正確に歌唱音声の音節オンセットを見つける方法を提案する。
本手法は, 歌唱文の書き起こし性能を大幅に向上させ, 歌唱分析における言語的特徴の重要性を強調している。
論文 参考訳(メタデータ) (2023-04-12T15:36:01Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。