論文の概要: Zorro: Valid, Sparse, and Stable Explanations in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2105.08621v1
- Date: Tue, 18 May 2021 15:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 16:18:36.483078
- Title: Zorro: Valid, Sparse, and Stable Explanations in Graph Neural Networks
- Title(参考訳): Zorro: グラフニューラルネットワークにおける妥当性,スパース,安定した説明
- Authors: Thorben Funke, Megha Khosla, Avishek Anand
- Abstract要約: GNNモデルによって生成されたラベル分布と説明との相互情報を最大化する以前の説明生成アプローチが制限的であることがわかった。
具体的には、既存のアプローチでは、予測、スパース、あるいは入力摂動に頑健な説明を強制しない。
そこで本稿では, 忠実度を最適化するための簡単な手順を用いて, 速度歪み理論の原理に基づく新しいアプローチZorroを提案する。
- 参考スコア(独自算出の注目度): 6.004582130591279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the ever-increasing popularity and applications of graph neural
networks, several proposals have been made to interpret and understand the
decisions of a GNN model. Explanations for a GNN model differ in principle from
other input settings. It is important to attribute the decision to input
features and other related instances connected by the graph structure. We find
that the previous explanation generation approaches that maximize the mutual
information between the label distribution produced by the GNN model and the
explanation to be restrictive. Specifically, existing approaches do not enforce
explanations to be predictive, sparse, or robust to input perturbations.
In this paper, we lay down some of the fundamental principles that an
explanation method for GNNs should follow and introduce a metric fidelity as a
measure of the explanation's effectiveness. We propose a novel approach Zorro
based on the principles from rate-distortion theory that uses a simple
combinatorial procedure to optimize for fidelity. Extensive experiments on real
and synthetic datasets reveal that Zorro produces sparser, stable, and more
faithful explanations than existing GNN explanation approaches.
- Abstract(参考訳): グラフニューラルネットワークの普及と応用により、GNNモデルの判断を解釈し理解するためのいくつかの提案がなされている。
GNNモデルの説明は他の入力設定と原理的に異なる。
グラフ構造で接続された特徴やその他の関連インスタンスを入力する決定を属性とすることが重要である。
我々は,gnnモデルが生成するラベル分布と説明との相互情報を最大化する先行説明生成手法が制限的であることを見出した。
具体的には、既存のアプローチでは、予測、スパース、あるいは入力摂動に頑健な説明を強制しない。
本稿では,GNNにおける説明手法が従うべき基本原理を概説し,説明の有効性の尺度として計量忠実度を導入する。
本稿では、簡単な組合せ法を用いて忠実度を最適化する速度歪み理論の原理に基づく新しいアプローチZorroを提案する。
実データと合成データセットの大規模な実験により、Zorroは既存のGNNの説明手法よりもスペーサー、安定、忠実な説明を生み出すことが明らかになった。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks [7.077341403454516]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有効であることが証明されているが、その基盤となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
本稿では、GNN説明分野にAuxiliary Generative Adrative Network (ACGAN)を導入し、emphACGANGNNExplainerと呼ばれる新しいGNN説明器を提案する。
論文 参考訳(メタデータ) (2023-09-29T01:20:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - FlowX: Towards Explainable Graph Neural Networks via Message Flows [59.025023020402365]
グラフニューラルネットワーク(GNN)の動作メカニズム解明へのステップとして,その説明可能性について検討する。
本稿では,重要なメッセージフローを識別してGNNを説明するために,FlowXと呼ばれる新しい手法を提案する。
そこで我々は,多様な説明対象に向けて,フロースコアを学習するための情報制御学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-26T22:48:15Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。