論文の概要: D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion
- arxiv url: http://arxiv.org/abs/2310.19321v1
- Date: Mon, 30 Oct 2023 07:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 21:25:04.751865
- Title: D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion
- Title(参考訳): D4Explainer:離散化拡散による分散GNN説明
- Authors: Jialin Chen, Shirley Wu, Abhijit Gupta, Rex Ying
- Abstract要約: グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
- 参考スコア(独自算出の注目度): 12.548966346327349
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of Graph Neural Networks (GNNs) sparks significant
interest in their explainability, which plays a vital role in model auditing
and ensuring trustworthy graph learning. The objective of GNN explainability is
to discern the underlying graph structures that have the most significant
impact on model predictions. Ensuring that explanations generated are reliable
necessitates consideration of the in-distribution property, particularly due to
the vulnerability of GNNs to out-of-distribution data. Unfortunately,
prevailing explainability methods tend to constrain the generated explanations
to the structure of the original graph, thereby downplaying the significance of
the in-distribution property and resulting in explanations that lack
reliability. To address these challenges, we propose D4Explainer, a novel
approach that provides in-distribution GNN explanations for both counterfactual
and model-level explanation scenarios. The proposed D4Explainer incorporates
generative graph distribution learning into the optimization objective, which
accomplishes two goals: 1) generate a collection of diverse counterfactual
graphs that conform to the in-distribution property for a given instance, and
2) identify the most discriminative graph patterns that contribute to a
specific class prediction, thus serving as model-level explanations. It is
worth mentioning that D4Explainer is the first unified framework that combines
both counterfactual and model-level explanations. Empirical evaluations
conducted on synthetic and real-world datasets provide compelling evidence of
the state-of-the-art performance achieved by D4Explainer in terms of
explanation accuracy, faithfulness, diversity, and robustness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の広範な展開は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす、その説明可能性に大きな関心を喚起する。
GNNの説明可能性の目的は、モデル予測に最も大きな影響を与える基礎となるグラフ構造を識別することである。
生成した説明が、特にGNNのアウト・オブ・ディストリビューションデータに対する脆弱性のために、イン・ディストリビューション特性の信頼性が要求される。
残念ながら、一般的な説明可能性法は、生成した説明を元のグラフの構造に制約する傾向にあり、したがって分配性の重要性を軽視し、信頼性に欠ける説明をもたらす。
これらの課題に対処するため、我々はD4Explainerを提案する。D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
提案したD4Explainerは、生成グラフ分布学習を最適化目標に組み込む。
1) 与えられたインスタンスの分配特性に適合する多様な反事実グラフの集合を生成し、
2)特定のクラス予測に寄与する最も識別的なグラフパターンを特定し、モデルレベルの説明に役立てる。
d4explainerは、反事実とモデルレベルの説明を組み合わせる最初の統一フレームワークである。
合成および実世界のデータセットで実施された実証的な評価は、D4Explainerによって達成された最先端のパフォーマンスを、説明精度、忠実性、多様性、堅牢性の観点から、説得力のある証拠を提供する。
関連論文リスト
- Explaining Hypergraph Neural Networks: From Local Explanations to Global Concepts [18.220099086165394]
我々は、ハイパーグラフニューラルネットワークのための最初のモデルに依存しないポストホック説明器SHypXを紹介する。
インスタンスレベルでは、忠実で簡潔に最適化された説明副ハイパーグラフを個別にサンプリングすることで、入力属性を実行する。
モデルレベルでは、教師なし概念抽出を用いて、グローバルな説明副グラフを生成する。
論文 参考訳(メタデータ) (2024-10-10T09:50:28Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - RES: A Robust Framework for Guiding Visual Explanation [8.835733039270364]
本研究では,不正確な境界,不完全領域,不整合なアノテーションの分布を扱う新しい目的を開発することにより,視覚的説明を導くための枠組みを提案する。
2つの実世界の画像データセットに対する実験は、説明の理性およびバックボーンモデルの性能を向上させる上で、提案フレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2022-06-27T16:06:27Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。