論文の概要: Concept-Based Techniques for "Musicologist-friendly" Explanations in a
Deep Music Classifier
- arxiv url: http://arxiv.org/abs/2208.12485v2
- Date: Mon, 29 Aug 2022 09:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 11:11:31.137307
- Title: Concept-Based Techniques for "Musicologist-friendly" Explanations in a
Deep Music Classifier
- Title(参考訳): 深層音楽分類器における「音楽学者にやさしい」説明のための概念ベース手法
- Authors: Francesco Foscarin, Katharina Hoedt, Verena Praher, Arthur Flexer,
Gerhard Widmer
- Abstract要約: ハイレベルな音楽概念に基づくより人間フレンドリーな説明に焦点を当てる。
我々の研究は、訓練されたシステム(ポストホックな説明)をターゲットとし、2つのアプローチを探求する。
既存のシンボリック作曲家分類システムにおいて,両手法を実証し,その可能性を示し,本質的な限界を強調した。
- 参考スコア(独自算出の注目度): 5.442298461804281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current approaches for explaining deep learning systems applied to musical
data provide results in a low-level feature space, e.g., by highlighting
potentially relevant time-frequency bins in a spectrogram or time-pitch bins in
a piano roll. This can be difficult to understand, particularly for
musicologists without technical knowledge. To address this issue, we focus on
more human-friendly explanations based on high-level musical concepts. Our
research targets trained systems (post-hoc explanations) and explores two
approaches: a supervised one, where the user can define a musical concept and
test if it is relevant to the system; and an unsupervised one, where musical
excerpts containing relevant concepts are automatically selected and given to
the user for interpretation. We demonstrate both techniques on an existing
symbolic composer classification system, showcase their potential, and
highlight their intrinsic limitations.
- Abstract(参考訳): 音楽データに適用されるディープラーニングシステムを説明する現在のアプローチは、例えば、スペクトログラムやピアノロールのタイムピッチビンで、潜在的に関連する時間周波数ビンを強調することで、低レベルの特徴空間を提供する。
これは、特に技術的な知識のない音楽学者にとって理解が難しい。
この問題に対処するために,ハイレベルな音楽概念に基づくより人間フレンドリな説明に焦点を当てる。
本研究は,訓練されたシステム (ポストホックな説明) を対象とし,ユーザが音楽概念を定義し,そのシステムに関連するかどうかを検証できる教師付きシステムと,関連する概念を含む楽曲の抜粋を自動的に選択し,ユーザに解釈するための教師なしシステムという2つのアプローチを探求する。
既存のシンボリック作曲家分類システムにおいて,両手法を実証し,その可能性を示し,本質的な限界を強調する。
関連論文リスト
- Attention-guided Spectrogram Sequence Modeling with CNNs for Music Genre Classification [0.0]
注意に基づく時間的シグネチャモデリングを用いて音楽ジャンルを分類する革新的なモデルを提案する。
我々のアプローチは各作品の中でもっとも時間的に重要な瞬間を捉え、ジャンル識別のためのユニークな「シグナチャ」を作り上げる。
この研究は、技術的分類タスクと、ジャンルの微妙で人間的な経験のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-11-18T21:57:03Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - Music Genre Classification with ResNet and Bi-GRU Using Visual
Spectrograms [4.354842354272412]
手動のジャンル分類の限界は、より高度なシステムの必要性を強調している。
従来の機械学習技術はジャンル分類の可能性を示してきたが、音楽データの完全な複雑さを捉えられなかった。
本研究では,視覚スペクトログラムを入力として用いる新しいアプローチを提案し,Residual Neural Network(ResNet)とGated Recurrent Unit(GRU)の強みを組み合わせたハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2023-07-20T11:10:06Z) - Pitchclass2vec: Symbolic Music Structure Segmentation with Chord
Embeddings [0.8701566919381222]
シンボリックコードアノテーションに基づく新しい楽曲セグメンテーション手法であるpitchclass2vecを提案する。
提案アルゴリズムは,Long-Short term memory(LSTM)ニューラルネットワークをベースとして,現場における記号コードアノテーションに基づく最先端技術より優れている。
論文 参考訳(メタデータ) (2023-03-24T10:23:15Z) - Learning Unsupervised Hierarchies of Audio Concepts [13.400413055847084]
コンピュータビジョンでは、正しい抽象化レベルに説明を調整するために概念学習が提案された。
本稿では,概念学習を音楽の領域に適用し,その特異性について述べる。
音声から多数の音楽概念を学習し,それらを階層化し,相互関係を明らかにする手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T16:34:31Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Bach or Mock? A Grading Function for Chorales in the Style of J.S. Bach [74.09517278785519]
本稿では,J.S.バッハ様式の4パート合唱曲を重要な音楽的特徴とともに評価するグレーディング機能を提案する。
この機能は,Bach合唱曲とモデル生成の合唱曲を区別する上で,人間専門家より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:02:55Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。