論文の概要: MUSE-Explainer: Counterfactual Explanations for Symbolic Music Graph Classification Models
- arxiv url: http://arxiv.org/abs/2509.26521v1
- Date: Tue, 30 Sep 2025 16:58:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.627426
- Title: MUSE-Explainer: Counterfactual Explanations for Symbolic Music Graph Classification Models
- Title(参考訳): MUSE-Explainer:シンボリック・ミュージックグラフの分類モデルに対する非現実的説明
- Authors: Baptiste Hilaire, Emmanouil Karystinaios, Gerhard Widmer,
- Abstract要約: MUSE-Explainerは音楽のグラフニューラルネットワークモデルがどのように決定を下すかを明らかにする新しい手法である。
提案手法は,音楽スコアグラフの小型かつ有意義な変更を行うことによって,反実的説明を生成する。
既存の方法とは異なり、MUSE-Explainerは音楽データの構造の説明を調整し、非現実的あるいは紛らわしい出力を避ける。
- 参考スコア(独自算出の注目度): 8.936641769532693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is essential for deploying deep learning models in symbolic music analysis, yet most research emphasizes model performance over explanation. To address this, we introduce MUSE-Explainer, a new method that helps reveal how music Graph Neural Network models make decisions by providing clear, human-friendly explanations. Our approach generates counterfactual explanations by making small, meaningful changes to musical score graphs that alter a model's prediction while ensuring the results remain musically coherent. Unlike existing methods, MUSE-Explainer tailors its explanations to the structure of musical data and avoids unrealistic or confusing outputs. We evaluate our method on a music analysis task and show it offers intuitive insights that can be visualized with standard music tools such as Verovio.
- Abstract(参考訳): 記号的音楽分析における深層学習モデルの展開には解釈可能性が不可欠であるが,ほとんどの研究は説明よりもモデル性能を重視している。
MUSE-Explainerは、音楽のグラフニューラルネットワークモデルがどのように決定を下すかを明らかにするのに役立つ新しい手法である。
提案手法は,結果が音楽的に整合性を維持しつつ,モデルの予測を変化させる音楽スコアグラフを小型かつ有意義に変化させることによって,反実的説明を生成する。
既存の方法とは異なり、MUSE-Explainerは音楽データの構造の説明を調整し、非現実的あるいは紛らわしい出力を避ける。
提案手法を音楽分析タスクで評価し,Verovioのような標準的な音楽ツールで視覚化可能な直感的な洞察を提供することを示す。
関連論文リスト
- Towards an AI Musician: Synthesizing Sheet Music Problems for Musical Reasoning [69.78158549955384]
本稿では,ビートやインターバルをプログラム関数として扱うような,コア音楽理論のルールを扱う新しいアプローチを提案する。
このアプローチは、テキストと視覚の両方で検証可能な楽譜の質問を生成する。
SSMR-Benchの評価結果は,楽譜の解釈における重要な役割を浮き彫りにした。
論文 参考訳(メタデータ) (2025-09-04T09:42:17Z) - Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - Combinatorial music generation model with song structure graph analysis [18.71152526968065]
音符列や楽器などの情報をノードの特徴として用いたグラフを構築し,音符列間の相関がエッジの特徴として機能する。
グラフニューラルネットワークを用いてノード表現を訓練し,ノード表現をUnetの入力として使用して,ConLONのピアノロール画像遅延を生成する。
論文 参考訳(メタデータ) (2023-12-24T04:09:30Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Motif-Centric Representation Learning for Symbolic Music [5.781931021964343]
我々は、表現学習を通してモチーフとそのバリエーションの間の暗黙の関係を学習する。
正規化に基づくVICRegは事前学習に採用され、コントラスト学習は微調整に使用されている。
得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
論文 参考訳(メタデータ) (2023-09-19T13:09:03Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Tracing Back Music Emotion Predictions to Sound Sources and Intuitive
Perceptual Qualities [6.832341432995627]
音楽感情認識は,音楽情報検索研究において重要な課題である。
より良いモデルに向けた重要なステップの1つは、モデルが実際にデータから学んでいるものを理解することである。
本研究では,高レベルの感情予測に結びつくスペクトル画像セグメントを用いて,モデル予測の説明を導出する方法を示す。
論文 参考訳(メタデータ) (2021-06-14T22:49:19Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - ViCE: Visual Counterfactual Explanations for Machine Learning Models [13.94542147252982]
本稿では,対話型視覚分析ツールViCEを提案する。
結果が視覚インターフェースに効果的に表示され、そのデータとモデルを探索するための対話的手法が提供される。
論文 参考訳(メタデータ) (2020-03-05T04:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。