論文の概要: D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion
- arxiv url: http://arxiv.org/abs/2310.19321v1
- Date: Mon, 30 Oct 2023 07:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 21:25:04.751865
- Title: D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion
- Title(参考訳): D4Explainer:離散化拡散による分散GNN説明
- Authors: Jialin Chen, Shirley Wu, Abhijit Gupta, Rex Ying
- Abstract要約: グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
- 参考スコア(独自算出の注目度): 12.548966346327349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of Graph Neural Networks (GNNs) sparks significant
interest in their explainability, which plays a vital role in model auditing
and ensuring trustworthy graph learning. The objective of GNN explainability is
to discern the underlying graph structures that have the most significant
impact on model predictions. Ensuring that explanations generated are reliable
necessitates consideration of the in-distribution property, particularly due to
the vulnerability of GNNs to out-of-distribution data. Unfortunately,
prevailing explainability methods tend to constrain the generated explanations
to the structure of the original graph, thereby downplaying the significance of
the in-distribution property and resulting in explanations that lack
reliability. To address these challenges, we propose D4Explainer, a novel
approach that provides in-distribution GNN explanations for both counterfactual
and model-level explanation scenarios. The proposed D4Explainer incorporates
generative graph distribution learning into the optimization objective, which
accomplishes two goals: 1) generate a collection of diverse counterfactual
graphs that conform to the in-distribution property for a given instance, and
2) identify the most discriminative graph patterns that contribute to a
specific class prediction, thus serving as model-level explanations. It is
worth mentioning that D4Explainer is the first unified framework that combines
both counterfactual and model-level explanations. Empirical evaluations
conducted on synthetic and real-world datasets provide compelling evidence of
the state-of-the-art performance achieved by D4Explainer in terms of
explanation accuracy, faithfulness, diversity, and robustness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の広範な展開は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす、その説明可能性に大きな関心を喚起する。
GNNの説明可能性の目的は、モデル予測に最も大きな影響を与える基礎となるグラフ構造を識別することである。
生成した説明が、特にGNNのアウト・オブ・ディストリビューションデータに対する脆弱性のために、イン・ディストリビューション特性の信頼性が要求される。
残念ながら、一般的な説明可能性法は、生成した説明を元のグラフの構造に制約する傾向にあり、したがって分配性の重要性を軽視し、信頼性に欠ける説明をもたらす。
これらの課題に対処するため、我々はD4Explainerを提案する。D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
提案したD4Explainerは、生成グラフ分布学習を最適化目標に組み込む。
1) 与えられたインスタンスの分配特性に適合する多様な反事実グラフの集合を生成し、
2)特定のクラス予測に寄与する最も識別的なグラフパターンを特定し、モデルレベルの説明に役立てる。
d4explainerは、反事実とモデルレベルの説明を組み合わせる最初の統一フレームワークである。
合成および実世界のデータセットで実施された実証的な評価は、D4Explainerによって達成された最先端のパフォーマンスを、説明精度、忠実性、多様性、堅牢性の観点から、説得力のある証拠を提供する。
関連論文リスト
- Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural
Networks [33.738560550044646]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Robust Ante-hoc Graph Explainer using Bilevel Optimization [6.209266270867095]
RAGE(Robust Ante-hoc Graph Explainer)は、幅広い種類のグラフニューラルネットワークの説明を見つけるように設計されている。
グラフ分類と回帰に基づく実験により、RAGEの説明は既存のポストホック法やアンテホック法よりも堅牢であることが示された。
論文 参考訳(メタデータ) (2023-05-25T05:50:38Z) - RES: A Robust Framework for Guiding Visual Explanation [8.835733039270364]
本研究では,不正確な境界,不完全領域,不整合なアノテーションの分布を扱う新しい目的を開発することにより,視覚的説明を導くための枠組みを提案する。
2つの実世界の画像データセットに対する実験は、説明の理性およびバックボーンモデルの性能を向上させる上で、提案フレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2022-06-27T16:06:27Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [77.14319095965058]
グラフ上のノードレベルの予測にOOD問題を定式化する。
そこで我々は,探索から抽出までのリスク最小化という新たなドメイン不変学習手法を開発した。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。