論文の概要: A Hierarchical Deep Learning Approach for Minority Instrument Detection
- arxiv url: http://arxiv.org/abs/2506.21167v1
- Date: Thu, 26 Jun 2025 11:56:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.067378
- Title: A Hierarchical Deep Learning Approach for Minority Instrument Detection
- Title(参考訳): マイノリティ機器検出のための階層的深層学習手法
- Authors: Dylan Sechet, Francesca Bugiotti, Matthieu Kowalski, Edouard d'Hérouville, Filip Langiewicz,
- Abstract要約: この研究は階層構造をモデルに統合し、階層音楽予測のための新しいモデルのクラスをテストする戦略を示す。
本研究は、詳細な楽器識別とグループレベルの認識のギャップを埋めることで、より信頼性の高い粗い楽器検出を示す。
- 参考スコア(独自算出の注目度): 2.0971479389679337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying instrument activities within audio excerpts is vital in music information retrieval, with significant implications for music cataloging and discovery. Prior deep learning endeavors in musical instrument recognition have predominantly emphasized instrument classes with ample data availability. Recent studies have demonstrated the applicability of hierarchical classification in detecting instrument activities in orchestral music, even with limited fine-grained annotations at the instrument level. Based on the Hornbostel-Sachs classification, such a hierarchical classification system is evaluated using the MedleyDB dataset, renowned for its diversity and richness concerning various instruments and music genres. This work presents various strategies to integrate hierarchical structures into models and tests a new class of models for hierarchical music prediction. This study showcases more reliable coarse-level instrument detection by bridging the gap between detailed instrument identification and group-level recognition, paving the way for further advancements in this domain.
- Abstract(参考訳): 音声の抜粋における楽器活動の特定は、音楽情報検索において不可欠であり、音楽のカタログ化や発見に重要な意味を持つ。
楽器認識における先行的な深層学習の取り組みは、十分なデータを持つ楽器のクラスを主に強調してきた。
近年の研究では、楽器レベルでの細かいアノテーションが限られている場合でも、オーケストラ音楽における楽器活動の検出において階層的な分類が適用可能であることが示されている。
Hornbostel-Sachs分類に基づいて、様々な楽器や音楽ジャンルに関する多様性と豊かさで有名なMedleyDBデータセットを用いて、このような階層的な分類システムを評価する。
本研究は、階層構造をモデルに統合し、階層音楽予測のための新しいモデルのクラスをテストするための様々な戦略を示す。
本研究は,詳細な楽器識別とグループレベルの認識のギャップを埋めることにより,より信頼性の高い粗い楽器検出を行う。
関連論文リスト
- Progressive Rock Music Classification [0.0]
本研究では,複雑な構成と多種多様な楽器を特徴とするジャンルである,プログレッシブ・ロック音楽の分類について検討する。
我々は、スペクトログラム、Mel-Frequency Cepstral Coefficients (MFCC)、クロマグラム、歌のスニペットからのビート位置などの総合的なオーディオ特徴を抽出した。
スニペットレベルの予測を最終曲分類に集約するために、すべての投票を勝者とする戦略が採用された。
論文 参考訳(メタデータ) (2025-04-15T02:48:52Z) - Music Genre Classification: Ensemble Learning with Subcomponents-level Attention [2.553456266022126]
Music Genre Classificationは、音楽情報検索(MIR)とデジタル信号処理の分野で最も人気のあるトピックの1つである。
本論文は,アンサンブル学習とサブコンポーネントへの注意を組み合わせ,音楽ジャンルの同定精度を高めることを目的とした,新たなアプローチを提案する。
提案手法は,GTZANデータセット上でトレーニングおよび試験を行った他の最先端技術と比較して,精度の面で優れている。
論文 参考訳(メタデータ) (2024-12-20T06:50:31Z) - Low-Data Classification of Historical Music Manuscripts: A Few-Shot Learning Approach [0.0]
歴史的写本における記号分類のための自己指導型学習フレームワークを開発した。
この課題を克服するために、ニューラルネットワークによる特徴抽出器を非ラベルデータでトレーニングし、最小限のサンプルで効果的な分類を可能にする。
論文 参考訳(メタデータ) (2024-11-25T14:14:25Z) - Improving Musical Instrument Classification with Advanced Machine Learning Techniques [0.0]
近年の機械学習、特にディープラーニングの進歩により、楽器を音声信号から識別し分類する能力が強化されている。
本研究では,Naive Bayes,Support Vector Machines,Random Forests,AdaBoostやXGBoostといったBootingテクニックなど,さまざまな機械学習手法を適用した。
これらの手法の有効性を,注釈付き音声の大規模リポジトリであるN Synthデータセットを用いて評価した。
論文 参考訳(メタデータ) (2024-11-01T00:13:46Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Leveraging Hierarchical Structures for Few-Shot Musical Instrument
Recognition [9.768677073327423]
我々は,楽器間の階層的関係を利用して,より広い範囲の楽器の分類を可能にする。
非階層的な少数ショットベースラインと比較すると,本手法は分類精度が著しく向上し,訓練中に見つからない楽器類に対する誤り重大度が著しく低下する。
論文 参考訳(メタデータ) (2021-07-14T22:50:24Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Visual Attention for Musical Instrument Recognition [72.05116221011949]
本研究では,楽器認識の性能向上を図るため,音節時間感覚における注意機構,すなわち視覚的注意(la visual attention)の活用について検討する。
第1のアプローチは,各音節時間インスタンスに基づく予測をアグリゲーション前に注意重み付けし,最終的な予測を生成するスライディング・ウインドウ・パラダイムに注意機構を適用した。
第2のアプローチは、ネットワークがスペクトログラムの一部にのみ参加し、限られた回数の視覚的注意を前提として、次にどこに出席するかを決定する、反復的な視覚的注意モデルに基づいている。
論文 参考訳(メタデータ) (2020-06-17T03:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。