論文の概要: Robust Explainability: A Tutorial on Gradient-Based Attribution Methods
for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2107.11400v1
- Date: Fri, 23 Jul 2021 18:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:27:56.099634
- Title: Robust Explainability: A Tutorial on Gradient-Based Attribution Methods
for Deep Neural Networks
- Title(参考訳): Robust Explainability:Deep Neural Networksのためのグラディエントベース属性法に関するチュートリアル
- Authors: Ian E. Nielsen, Ghulam Rasool, Dimah Dera, Nidhal Bouaynaya, Ravi P.
Ramachandran
- Abstract要約: 本稿では、ディープニューラルネットワークの決定を説明するための勾配に基づく解釈可能性法を提案する。
敵の頑健さが意味のある説明を持つ上で果たす役割について論じる。
我々は、堅牢性と説明可能性の収束における研究の今後の方向性を結論づける。
- 参考スコア(独自算出の注目度): 1.5854438418597576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of deep neural networks, the challenge of explaining the
predictions of these networks has become increasingly recognized. While many
methods for explaining the decisions of deep neural networks exist, there is
currently no consensus on how to evaluate them. On the other hand, robustness
is a popular topic for deep learning research; however, it is hardly talked
about in explainability until very recently. In this tutorial paper, we start
by presenting gradient-based interpretability methods. These techniques use
gradient signals to assign the burden of the decision on the input features.
Later, we discuss how gradient-based methods can be evaluated for their
robustness and the role that adversarial robustness plays in having meaningful
explanations. We also discuss the limitations of gradient-based methods.
Finally, we present the best practices and attributes that should be examined
before choosing an explainability method. We conclude with the future
directions for research in the area at the convergence of robustness and
explainability.
- Abstract(参考訳): ディープニューラルネットワークの台頭に伴い、これらのネットワークの予測を説明するという課題がますます認識されるようになった。
ディープニューラルネットワークの判断を説明する多くの方法が存在するが、それらを評価する方法についてのコンセンサスはない。
一方、堅牢性は深層学習研究において一般的な話題であるが、説明可能性についてはごく最近までほとんど語られていない。
本稿では,勾配に基づく解釈可能性法を提案することから始める。
これらの手法は、入力特徴に対する決定の重み付けに勾配信号を使用する。
その後,そのロバスト性について,勾配に基づく手法がどのように評価されるか,また,逆ロバスト性が有意義な説明に果たす役割について論じる。
また,勾配に基づく手法の限界についても論じる。
最後に,説明可能性を選択する前に検討すべきベストプラクティスと属性を紹介する。
我々は、堅牢性と説明可能性の収束における研究の今後の方向性を結論づける。
関連論文リスト
- On the Value of Labeled Data and Symbolic Methods for Hidden Neuron Activation Analysis [1.55858752644861]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
本稿では,本手法が意味のある解釈を提供することを示す,新しいモデル非依存のポストホック説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T07:57:45Z) - Toward Understanding the Disagreement Problem in Neural Network Feature Attribution [0.8057006406834466]
ニューラルネットワークは 複雑なパターンと関係を 生のデータから識別する
これらのブラックボックスモデルの内部動作を理解することは、依然として難しいが、高い意思決定には不可欠である。
我々の研究は、説明の基本的な、分布的な振る舞いを調査することによって、この混乱に対処する。
論文 参考訳(メタデータ) (2024-04-17T12:45:59Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Robust Explanation Constraints for Neural Networks [33.14373978947437]
ニューラルネットワークの意図で使われるポストホックな説明法は、しばしば彼らの出力を信頼するのに役立つと言われている。
我々のトレーニング方法は、ニューラルネットワークを学習できる唯一の方法であり、6つのテストネットワークでテストされた堅牢性に関する洞察を持つ。
論文 参考訳(メタデータ) (2022-12-16T14:40:25Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Distilling neural networks into skipgram-level decision lists [4.109840601429086]
スキップグラム上の決定リスト(ルールとも呼ばれる)を用いてRNNを説明するパイプラインを提案する。
提案手法は,高い説明忠実度と定性的に解釈可能な規則を持続的に達成することを発見した。
論文 参考訳(メタデータ) (2020-05-14T16:25:42Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。