論文の概要: Reliable Local Explanations for Machine Listening
- arxiv url: http://arxiv.org/abs/2005.07788v1
- Date: Fri, 15 May 2020 21:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:53:13.071118
- Title: Reliable Local Explanations for Machine Listening
- Title(参考訳): 機械聴取における信頼性のある局所説明
- Authors: Saumitra Mishra, Emmanouil Benetos, Bob L. Sturm, Simon Dixon
- Abstract要約: 本研究では,現在最先端の深層歌唱音声検出(SVD)モデルを用いて,SoundLIMEからの説明がモデル入力の摂動にどう影響するかを解析する。
本稿では,機械聴取モデルの入力を確実に排除するための,適切なコンテンツタイプを定量的に同定する手法を提案する。
- 参考スコア(独自算出の注目度): 26.740558689178865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One way to analyse the behaviour of machine learning models is through local
explanations that highlight input features that maximally influence model
predictions. Sensitivity analysis, which involves analysing the effect of input
perturbations on model predictions, is one of the methods to generate local
explanations. Meaningful input perturbations are essential for generating
reliable explanations, but there exists limited work on what such perturbations
are and how to perform them. This work investigates these questions in the
context of machine listening models that analyse audio. Specifically, we use a
state-of-the-art deep singing voice detection (SVD) model to analyse whether
explanations from SoundLIME (a local explanation method) are sensitive to how
the method perturbs model inputs. The results demonstrate that SoundLIME
explanations are sensitive to the content in the occluded input regions. We
further propose and demonstrate a novel method for quantitatively identifying
suitable content type(s) for reliably occluding inputs of machine listening
models. The results for the SVD model suggest that the average magnitude of
input mel-spectrogram bins is the most suitable content type for temporal
explanations.
- Abstract(参考訳): 機械学習モデルの振る舞いを分析する一つの方法は、モデル予測に最大影響を与える入力特徴を強調する局所的な説明である。
入力摂動がモデル予測に与える影響を分析する感度解析は、局所的な説明を生成する方法の1つである。
有意義な入力摂動は信頼できる説明を生成するのに不可欠であるが、そのような摂動と実行方法に関する限られた研究が存在する。
本研究は,音声分析を行うマシンリスニングモデルを用いて,これらの質問について検討する。
具体的には,現在最先端の深層歌唱音声検出(SVD)モデルを用いて,SoundLIME(局所的説明法)による説明がモデル入力の摂動にどう影響するかを解析する。
その結果,オクルードされた入力領域の内容に音素の説明が敏感であることが判明した。
さらに,機械聴取モデルの入力を確実に排除するための,適切なコンテンツタイプを定量的に同定する手法を提案する。
SVDモデルの結果から,入力メル-スペクトログラムビンの平均等級が時間的説明に最も適した内容型であることが示唆された。
関連論文リスト
- MASALA: Model-Agnostic Surrogate Explanations by Locality Adaptation [3.587367153279351]
既存のローカル説明可能なAI(XAI)メソッドは、与えられた入力インスタンスの近傍にある入力空間の領域を選択し、より単純で解釈可能な代理モデルを用いてモデルの振る舞いを近似する。
そこで本研究では,各インスタンスごとの衝突モデル行動の適切な局所領域を自動決定する手法であるMASALAを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:26:45Z) - Noise-Free Explanation for Driving Action Prediction [11.330363757618379]
我々は, この欠陥を解消するための, 実装が容易だが効果的な方法を提案する: 平滑な騒音ノルム注意(SNNA)
変換された値ベクトルのノルムで注意を重み付け、アテンション勾配でラベル固有の信号を誘導し、入力摂動をランダムにサンプリングし、対応する勾配を平均化し、ノイズのない属性を生成する。
定性的かつ定量的な評価結果は、より明確な視覚的説明図を作成し、入力画素の重要度をランク付けする他のSOTA注意に基づく説明可能な方法と比較して、SNNAの優位性を示している。
論文 参考訳(メタデータ) (2024-07-08T19:21:24Z) - Interpreting Pretrained Speech Models for Automatic Speech Assessment of Voice Disorders [0.8796261172196743]
我々は、音声障害検出の文脈において、オーディオスペクトログラム変換器の2つの構成を訓練し比較する。
本研究では,モデルが予測を行うときのスペクトル領域の計算的関連性であるモデル関連性マップを作成するために,アテンションロールアウト手法を適用した。
我々はこれらのマップを用いて、モデルが異なる条件下でどのように予測を行うかを分析し、モデルが微調整されるにつれて注意の拡散が減少することを示す。
論文 参考訳(メタデータ) (2024-06-29T21:14:48Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Explaining Pre-Trained Language Models with Attribution Scores: An
Analysis in Low-Resource Settings [32.03184402316848]
我々は,素早いモデルから抽出した帰属スコアの妥当性と忠実度を分析した。
プロンプトパラダイムを用いることで、低リソース環境下でモデルを微調整するよりも、より妥当な説明が得られます。
論文 参考訳(メタデータ) (2024-03-08T14:14:37Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Analysing the Impact of Audio Quality on the Use of Naturalistic
Long-Form Recordings for Infant-Directed Speech Research [62.997667081978825]
早期言語習得のモデリングは、幼児が言語スキルをブートストラップする方法を理解することを目的としている。
近年の進歩により、より自然主義的なトレーニングデータを計算モデルに利用できるようになった。
音質がこれらのデータに対する分析やモデリング実験にどう影響するかは、現時点では不明である。
論文 参考訳(メタデータ) (2023-05-03T08:25:37Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Building Reliable Explanations of Unreliable Neural Networks: Locally
Smoothing Perspective of Model Interpretation [0.0]
本稿では,ニューラルネットワークの予測を確実に説明するための新しい手法を提案する。
本手法は,モデル予測の損失関数における平滑な景観の仮定に基づいて構築される。
論文 参考訳(メタデータ) (2021-03-26T08:52:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。