論文の概要: On the Veracity of Local, Model-agnostic Explanations in Audio
Classification: Targeted Investigations with Adversarial Examples
- arxiv url: http://arxiv.org/abs/2107.09045v1
- Date: Mon, 19 Jul 2021 17:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 16:35:52.022952
- Title: On the Veracity of Local, Model-agnostic Explanations in Audio
Classification: Targeted Investigations with Adversarial Examples
- Title(参考訳): 音声分類における局所的・モデル非依存的説明の妥当性について--敵対的事例を用いた対象的調査
- Authors: Verena Praher, Katharina Prinz, Arthur Flexer, Gerhard Widmer
- Abstract要約: LIMEのようなローカルな説明手法がMIRで普及している。
本稿は、LIMEの説明の真正性についてより深い知見を得るための対象調査について報告する。
- 参考スコア(独自算出の注目度): 5.744593856232663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Local explanation methods such as LIME have become popular in MIR as tools
for generating post-hoc, model-agnostic explanations of a model's
classification decisions. The basic idea is to identify a small set of
human-understandable features of the classified example that are most
influential on the classifier's prediction. These are then presented as an
explanation. Evaluation of such explanations in publications often resorts to
accepting what matches the expectation of a human without actually being able
to verify if what the explanation shows is what really caused the model's
prediction. This paper reports on targeted investigations where we try to get
more insight into the actual veracity of LIME's explanations in an audio
classification task. We deliberately design adversarial examples for the
classifier, in a way that gives us knowledge about which parts of the input are
potentially responsible for the model's (wrong) prediction. Asking LIME to
explain the predictions for these adversaries permits us to study whether local
explanations do indeed detect these regions of interest. We also look at
whether LIME is more successful in finding perturbations that are more
prominent and easily noticeable for a human. Our results suggest that LIME does
not necessarily manage to identify the most relevant input features and hence
it remains unclear whether explanations are useful or even misleading.
- Abstract(参考訳): LIMEのような局所的な説明法は、モデルの分類決定に関するモデルに依存しない、ポストホックな説明を生成するツールとして、MIRで人気を博している。
基本的な考え方は、分類器の予測に最も影響を及ぼす分類例の、人間の理解可能な少数の特徴を特定することである。
これらは説明として提示される。
出版物におけるそのような説明の評価は、しばしば、その説明が実際にモデルの予測を引き起こした原因であるかどうかを実際に確かめることなく、人間の期待に合致するものを受け入れる。
本稿では,音声分類タスクにおけるlimeの説明の妥当性についてより深く理解するために,対象とする調査について報告する。
分類器の逆例を意図的に設計し、入力のどの部分がモデルの(強い)予測に対して潜在的に責任を持つかを知る方法を提供します。
LIMEにこれらの敵の予測を説明することで、局所的な説明が実際にこれらの関心領域を検出しているかどうかを調べることができる。
また、LIMEが人間にとってより顕著で容易に気づく摂動を見つけることに成功しているかどうかについても検討する。
以上の結果から,limeは必ずしも最も関連する入力特徴を特定できないため,説明が有用か,あるいは誤解を招くかは明らかでない。
関連論文リスト
- From Model Explanation to Data Misinterpretation: Uncovering the Pitfalls of Post Hoc Explainers in Business Research [3.7209396288545338]
ビジネス研究では、データに関する推論にポストホックな説明が使われる傾向が増えている。
この論文の最終的な目標は、機械学習モデルのポストホックな説明を、潜在的に誤った洞察とデータの理解に翻訳しないように、ビジネス研究者に警告することである。
論文 参考訳(メタデータ) (2024-08-30T03:22:35Z) - Studying the explanations for the automated prediction of bug and
non-bug issues using LIME and SHAP [7.792303263390021]
機械学習モデルが、人間として私たちにとって妥当な分類の説明を提供するかどうかを理解したい。
また、予測品質が説明の質と相関しているかどうかも知りたい。
論文 参考訳(メタデータ) (2022-09-15T21:45:46Z) - Fooling SHAP with Stealthily Biased Sampling [7.476901945542385]
SHAPの説明は、特定の入力におけるモデル予測と背景分布との差に最も寄与する特徴を特定することを目的としている。
近年の研究では、悪意のある敵によって操作され、任意に望まれる説明が得られることが示されている。
本稿では,モデルが無傷のまま残されるような攻撃の相補的なファミリを提案し,背景分布を推定するために使用されるデータポイントの密かに偏りのあるサンプリングを用いてSHAP説明を操作する。
論文 参考訳(メタデータ) (2022-05-30T20:33:46Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。