論文の概要: Evaluation of Saliency-based Explainability Method
- arxiv url: http://arxiv.org/abs/2106.12773v1
- Date: Thu, 24 Jun 2021 05:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-26 04:12:03.794182
- Title: Evaluation of Saliency-based Explainability Method
- Title(参考訳): 塩分に基づく説明可能性の評価
- Authors: Sam Zabdiel Sunder Samuel, Vidhya Kamakshi, Namrata Lodhi and
Narayanan C Krishnan
- Abstract要約: 説明可能なAI(XAI)メソッドのクラスは、CNNモデルがその動作を説明する方法としてイメージを分類するために、画像の一部を強調するために、唾液マップを提供する。
これらの手法はユーザがCNNの予測を理解するための直感的な方法を提供する。
定量的な計算テスト以外に、これらの手法が有用であることを示す証拠の大部分は逸話である。
- 参考スコア(独自算出の注目度): 2.733700237741334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A particular class of Explainable AI (XAI) methods provide saliency maps to
highlight part of the image a Convolutional Neural Network (CNN) model looks at
to classify the image as a way to explain its working. These methods provide an
intuitive way for users to understand predictions made by CNNs. Other than
quantitative computational tests, the vast majority of evidence to highlight
that the methods are valuable is anecdotal. Given that humans would be the
end-users of such methods, we devise three human subject experiments through
which we gauge the effectiveness of these saliency-based explainability
methods.
- Abstract(参考訳): 説明可能なAI(XAI)メソッドの特定のクラスは、画像の一部を強調するために、CNN(Convolutional Neural Network)モデルがイメージをその動作を説明する方法として分類するために、唾液マップを提供する。
これらの手法はユーザがCNNの予測を理解するための直感的な方法を提供する。
定量的な計算テスト以外に、この方法が価値があることを示す証拠の大部分は逸話である。
このような方法のエンドユーザは人間であろうと仮定し,サリエンシーに基づく説明可能性手法の有効性を計測する3つの被験者実験を考案する。
関連論文リスト
- Faithful and Plausible Natural Language Explanations for Image Classification: A Pipeline Approach [10.54430941755474]
本稿では,CNNに基づく分類システムに適用可能な,ポストホックな自然言語説明法を提案する。
影響力のあるニューロンと対応する活性化マップを分析して、分類器の決定過程の忠実な記述を生成する。
実験の結果,提案手法により構築されたNLEは,より信頼性が高く,忠実であることがわかった。
論文 参考訳(メタデータ) (2024-07-30T15:17:15Z) - An AI Architecture with the Capability to Explain Recognition Results [0.0]
本研究は、説明可能性に対するメトリクスの重要性に焦点をあて、性能向上をもたらす2つの方法に貢献する。
第1の方法は説明不能なフローと説明不能なフローの組み合わせを導入し、意思決定の説明容易性を特徴づける指標を提案する。
第2の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリクスを比較し、新しいメトリックをリードパフォーマーとして振る舞う。
論文 参考訳(メタデータ) (2024-06-13T02:00:13Z) - Classification Metrics for Image Explanations: Towards Building Reliable XAI-Evaluations [0.24578723416255752]
解像度法は、入力画像に対して(超)画素単位の特徴属性スコアを提供する。
新たな評価指標を開発し,イメージネット上で一般的な評価手法をベンチマークした。
心理測定テストの概念に基づく,そのような指標の信頼性評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T16:37:50Z) - On the Value of Labeled Data and Symbolic Methods for Hidden Neuron Activation Analysis [1.55858752644861]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
本稿では,本手法が意味のある解釈を提供することを示す,新しいモデル非依存のポストホック説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T07:57:45Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - On The Coherence of Quantitative Evaluation of Visual Explanations [0.7212939068975619]
視覚的説明の「良さ」を評価するための評価手法が提案されている。
我々はImageNet-1k検証セットのサブセットについて検討し、多くの一般的な説明手法を評価した。
本研究の結果から, 評価方法のいくつかは, 階調のコヒーレンシーが欠如していることが示唆された。
論文 参考訳(メタデータ) (2023-02-14T13:41:57Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。