論文の概要: Towards Modeling Uncertainties of Self-explaining Neural Networks via
Conformal Prediction
- arxiv url: http://arxiv.org/abs/2401.01549v1
- Date: Wed, 3 Jan 2024 05:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:12:03.813864
- Title: Towards Modeling Uncertainties of Self-explaining Neural Networks via
Conformal Prediction
- Title(参考訳): 共形予測による自己説明ニューラルネットワークの不確かさのモデル化に向けて
- Authors: Wei Qian, Chenxu Zhao, Yangyi Li, Fenglong Ma, Chao Zhang, Mengdi Huai
- Abstract要約: 本稿では,自己説明型ニューラルネットワークのための新しい不確実性モデリングフレームワークを提案する。
生成した説明に対して,分布自由な不確実性モデリング性能を示す。
また、最終的な予測のために効率的で効果的な予測セットを生成することにも長けている。
- 参考スコア(独自算出の注目度): 34.87646720253128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent progress in deep neural networks (DNNs), it remains
challenging to explain the predictions made by DNNs. Existing explanation
methods for DNNs mainly focus on post-hoc explanations where another
explanatory model is employed to provide explanations. The fact that post-hoc
methods can fail to reveal the actual original reasoning process of DNNs raises
the need to build DNNs with built-in interpretability. Motivated by this, many
self-explaining neural networks have been proposed to generate not only
accurate predictions but also clear and intuitive insights into why a
particular decision was made. However, existing self-explaining networks are
limited in providing distribution-free uncertainty quantification for the two
simultaneously generated prediction outcomes (i.e., a sample's final prediction
and its corresponding explanations for interpreting that prediction).
Importantly, they also fail to establish a connection between the confidence
values assigned to the generated explanations in the interpretation layer and
those allocated to the final predictions in the ultimate prediction layer. To
tackle the aforementioned challenges, in this paper, we design a novel
uncertainty modeling framework for self-explaining networks, which not only
demonstrates strong distribution-free uncertainty modeling performance for the
generated explanations in the interpretation layer but also excels in producing
efficient and effective prediction sets for the final predictions based on the
informative high-level basis explanations. We perform the theoretical analysis
for the proposed framework. Extensive experimental evaluation demonstrates the
effectiveness of the proposed uncertainty framework.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)の進歩にもかかわらず、DNNによる予測を説明するのは難しい。
dnnの既存の説明方法は、主に、説明を提供するために別の説明モデルが使われるポストホックな説明に焦点を当てている。
ポストホックメソッドが実際のDNNの推論プロセスを明らかにするのに失敗するという事実は、ビルトインの解釈性を備えたDNNを構築する必要を生じさせる。
これに触発された多くの自己説明型ニューラルネットワークは、正確な予測だけでなく、特定の決定が下された理由に関する明確で直感的な洞察を生成するために提案されている。
しかし、既存の自己説明ネットワークは、同時に生成された2つの予測結果(サンプルの最終予測とそれに対応する説明)に対して、分布のない不確実性定量化を提供することに制限されている。
重要なのは、解釈層で生成された説明に割り当てられた信頼値と、最終予測層で最終予測に割り当てられた信頼値との接続を確立することもできないことである。
本稿では,自己説明ネットワークのための新たな不確実性モデリングフレームワークを考案し,解釈層で生成された説明に対して,強い分散フリー不確実性モデリング性能を示すだけでなく,情報に富む高レベル基礎説明に基づく最終予測のための効率的かつ効果的な予測セットの作成にも有効であることを示す。
提案手法の理論的解析を行う。
広範な実験評価により,提案手法の有効性が示された。
関連論文リスト
- Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Explaining Bayesian Neural Networks [11.296451806040796]
XAIは、意思決定においてDeep Neural Networks(DNN)のような高度な学習マシンをより透過的にすることを目指している。
これまでのところ、BNNには、以前の重量分布を通じて、限定的な透明性(モデル透明性)が組み込まれています。
本稿では,この2つの透明性の観点を,BNNを説明するための全体論的な説明フレームワークにまとめる。
論文 参考訳(メタデータ) (2021-08-23T18:09:41Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。