論文の概要: Explanatory Paradigms in Neural Networks
- arxiv url: http://arxiv.org/abs/2202.11838v1
- Date: Thu, 24 Feb 2022 00:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-26 06:14:42.972494
- Title: Explanatory Paradigms in Neural Networks
- Title(参考訳): ニューラルネットワークにおける説明パラダイム
- Authors: Ghassan AlRegib, Mohit Prabhushankar
- Abstract要約: 本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
- 参考スコア(独自算出の注目度): 18.32369721322249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we present a leap-forward expansion to the study of
explainability in neural networks by considering explanations as answers to
abstract reasoning-based questions. With $P$ as the prediction from a neural
network, these questions are `Why P?', `What if not P?', and `Why P, rather
than Q?' for a given contrast prediction $Q$. The answers to these questions
are observed correlations, observed counterfactuals, and observed contrastive
explanations respectively. Together, these explanations constitute the
abductive reasoning scheme. We term the three explanatory schemes as observed
explanatory paradigms. The term observed refers to the specific case of
post-hoc explainability, when an explanatory technique explains the decision
$P$ after a trained neural network has made the decision $P$. The primary
advantage of viewing explanations through the lens of abductive reasoning-based
questions is that explanations can be used as reasons while making decisions.
The post-hoc field of explainability, that previously only justified decisions,
becomes active by being involved in the decision making process and providing
limited, but relevant and contextual interventions. The contributions of this
article are: ($i$) realizing explanations as reasoning paradigms, ($ii$)
providing a probabilistic definition of observed explanations and their
completeness, ($iii$) creating a taxonomy for evaluation of explanations, and
($iv$) positioning gradient-based complete explanainability's replicability and
reproducibility across multiple applications and data modalities, ($v$) code
repositories, publicly available at
https://github.com/olivesgatech/Explanatory-Paradigms.
- Abstract(参考訳): 本稿では,説明を抽象的推論に基づく質問への答えとして考慮し,ニューラルネットワークにおける説明可能性の研究を飛躍的に拡大する。
ニューラルネットワークからの予測として$P$を使用すると、これらの質問は、与えられたコントラスト予測$Q$に対して、‘Why P?’、‘What if not P?’、‘Why P, rather Q?’である。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
これらの説明は、帰納的推論スキームを構成する。
3つの説明体系を観察された説明パラダイムと呼ぶ。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
帰納的推論に基づく質問のレンズを通して説明を見る主な利点は、説明を意思決定の理由として使用できることである。
以前は決定を正当化しただけであった、ポストホックな説明責任の分野は、意思決定プロセスに関与し、限定的だが関連性があり、文脈的な介入を提供することによって活発になる。
説明を推論パラダイムとして実現する (i$) 観察された説明とその完全性に関する確率論的定義を提供する (ii$) 説明の評価のための分類法を作成する (iii$) グラデーションに基づく完全な説明可能性の再現性と再現性を複数のアプリケーションとデータモダリティにまたがる位置付けする (iv$) コードリポジトリはhttps://github.com/olivesgatech/explanatory-paradigmsで公開されている。
関連論文リスト
- Understanding Reasoning Ability of Language Models From the Perspective of Reasoning Paths Aggregation [110.71955853831707]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびCoTデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Do Explanations Explain? Model Knows Best [39.86131552976105]
入力特徴がニューラルネットワークの出力に寄与するミステリーである。
本稿では,ニューラルネットワークモデル自体を用いた説明評価フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T12:39:29Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - ExplanationLP: Abductive Reasoning for Explainable Science Question
Answering [4.726777092009554]
本稿では,帰納的推論問題としての質問応答について考察する。
それぞれの選択に対して妥当な説明を構築し、最終回答として最適な説明で候補を選択する。
提案システムであるExplainationLPは,各候補の回答に対して,関連事実の重み付きグラフを構築して説明を行う。
論文 参考訳(メタデータ) (2020-10-25T14:49:24Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Contrastive Explanations in Neural Networks [17.567849430630872]
現在の視覚的説明のモードは、$Why text P?'$という形式の質問に答える。
我々は、これらの$Why$の質問を、あるコンテキストに基づく$Q$で制限することを提案し、私たちの説明は、テキストQ?'というよりも、テキストP、テキストの形の対照的な質問に答えるようにします。
論文 参考訳(メタデータ) (2020-08-01T05:50:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。