論文の概要: Reliable Local Explanations for Machine Listening
- arxiv url: http://arxiv.org/abs/2005.07788v1
- Date: Fri, 15 May 2020 21:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:53:13.071118
- Title: Reliable Local Explanations for Machine Listening
- Title(参考訳): 機械聴取における信頼性のある局所説明
- Authors: Saumitra Mishra, Emmanouil Benetos, Bob L. Sturm, Simon Dixon
- Abstract要約: 本研究では,現在最先端の深層歌唱音声検出(SVD)モデルを用いて,SoundLIMEからの説明がモデル入力の摂動にどう影響するかを解析する。
本稿では,機械聴取モデルの入力を確実に排除するための,適切なコンテンツタイプを定量的に同定する手法を提案する。
- 参考スコア(独自算出の注目度): 26.740558689178865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One way to analyse the behaviour of machine learning models is through local
explanations that highlight input features that maximally influence model
predictions. Sensitivity analysis, which involves analysing the effect of input
perturbations on model predictions, is one of the methods to generate local
explanations. Meaningful input perturbations are essential for generating
reliable explanations, but there exists limited work on what such perturbations
are and how to perform them. This work investigates these questions in the
context of machine listening models that analyse audio. Specifically, we use a
state-of-the-art deep singing voice detection (SVD) model to analyse whether
explanations from SoundLIME (a local explanation method) are sensitive to how
the method perturbs model inputs. The results demonstrate that SoundLIME
explanations are sensitive to the content in the occluded input regions. We
further propose and demonstrate a novel method for quantitatively identifying
suitable content type(s) for reliably occluding inputs of machine listening
models. The results for the SVD model suggest that the average magnitude of
input mel-spectrogram bins is the most suitable content type for temporal
explanations.
- Abstract(参考訳): 機械学習モデルの振る舞いを分析する一つの方法は、モデル予測に最大影響を与える入力特徴を強調する局所的な説明である。
入力摂動がモデル予測に与える影響を分析する感度解析は、局所的な説明を生成する方法の1つである。
有意義な入力摂動は信頼できる説明を生成するのに不可欠であるが、そのような摂動と実行方法に関する限られた研究が存在する。
本研究は,音声分析を行うマシンリスニングモデルを用いて,これらの質問について検討する。
具体的には,現在最先端の深層歌唱音声検出(SVD)モデルを用いて,SoundLIME(局所的説明法)による説明がモデル入力の摂動にどう影響するかを解析する。
その結果,オクルードされた入力領域の内容に音素の説明が敏感であることが判明した。
さらに,機械聴取モデルの入力を確実に排除するための,適切なコンテンツタイプを定量的に同定する手法を提案する。
SVDモデルの結果から,入力メル-スペクトログラムビンの平均等級が時間的説明に最も適した内容型であることが示唆された。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - Investigating the Impact of Model Instability on Explanations and
Uncertainty [48.61385403377465]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Model-agnostic Body Part Relevance Assessment for Pedestrian Detection [4.405053430046726]
歩行者検出のための身体部分関連性評価によるコンピュータビジョンコンテキストにおけるサンプリングに基づく説明モデルを用いたフレームワークを提案する。
我々は,KernelSHAPに類似した新しいサンプリングベース手法を導入し,サンプリングサイズを小さくするために,より堅牢性を示し,大規模データセットにおける説明可能性解析に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-27T10:10:25Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Causal Analysis for Robust Interpretability of Neural Networks [0.2519906683279152]
我々は、事前学習されたニューラルネットワークの因果効果を捉えるための頑健な介入に基づく手法を開発した。
分類タスクで訓練された視覚モデルに本手法を適用した。
論文 参考訳(メタデータ) (2023-05-15T18:37:24Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Building Reliable Explanations of Unreliable Neural Networks: Locally
Smoothing Perspective of Model Interpretation [0.0]
本稿では,ニューラルネットワークの予測を確実に説明するための新しい手法を提案する。
本手法は,モデル予測の損失関数における平滑な景観の仮定に基づいて構築される。
論文 参考訳(メタデータ) (2021-03-26T08:52:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。