論文の概要: Reinforced Causal Explainer for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2204.11028v2
- Date: Wed, 27 Apr 2022 02:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 11:02:02.233828
- Title: Reinforced Causal Explainer for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための強化因果説明器
- Authors: Xiang Wang, Yingxin Wu, An Zhang, Fuli Feng, Xiangnan He, Tat-Seng
Chua
- Abstract要約: グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
- 参考スコア(独自算出の注目度): 112.57265240212001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is crucial for probing graph neural networks (GNNs), answering
questions like "Why the GNN model makes a certain prediction?". Feature
attribution is a prevalent technique of highlighting the explanatory subgraph
in the input graph, which plausibly leads the GNN model to make its prediction.
Various attribution methods exploit gradient-like or attention scores as the
attributions of edges, then select the salient edges with top attribution
scores as the explanation. However, most of these works make an untenable
assumption - the selected edges are linearly independent - thus leaving the
dependencies among edges largely unexplored, especially their coalition effect.
We demonstrate unambiguous drawbacks of this assumption - making the
explanatory subgraph unfaithful and verbose. To address this challenge, we
propose a reinforcement learning agent, Reinforced Causal Explainer
(RC-Explainer). It frames the explanation task as a sequential decision process
- an explanatory subgraph is successively constructed by adding a salient edge
to connect the previously selected subgraph. Technically, its policy network
predicts the action of edge addition, and gets a reward that quantifies the
action's causal effect on the prediction. Such reward accounts for the
dependency of the newly-added edge and the previously-added edges, thus
reflecting whether they collaborate together and form a coalition to pursue
better explanations. As such, RC-Explainer is able to generate faithful and
concise explanations, and has a better generalization power to unseen graphs.
When explaining different GNNs on three graph classification datasets,
RC-Explainer achieves better or comparable performance to SOTA approaches
w.r.t. predictive accuracy and contrastivity, and safely passes sanity checks
and visual inspections. Codes are available at
https://github.com/xiangwang1223/reinforced_causal_explainer.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)の探索には説明可能性が不可欠であり、“なぜgnnモデルは特定の予測を行うのか?
特徴属性は入力グラフの説明部分グラフをハイライトする一般的な手法であり、GNNモデルをその予測に導くことが妥当である。
様々な帰属法は、エッジの帰属として勾配的または注意的スコアを活用し、説明としてトップ帰属スコアを持つサルエントエッジを選択する。
選択されたエッジは線形的に独立しているため、エッジ間の依存関係は、特に連立効果など、ほとんど探索されていないままである。
我々は、この仮定の明白な欠点を、説明文を不信かつ冗長なものにする。
この課題に対処するために、強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
説明サブグラフは、以前に選択されたサブグラフを接続するために、有能なエッジを追加することによって、順次構築される。
技術的には、そのポリシーネットワークはエッジ追加のアクションを予測し、その予測に対するアクションの因果効果を定量化する報酬を得る。
このような報酬は、新しく追加されたエッジと以前に追加されたエッジの依存関係を考慮し、彼らが協力し、より良い説明を追求する連合を形成するかどうかを反映している。
このように、rc-explainer は忠実で簡潔な説明を生成でき、見当たらないグラフに対するより良い一般化力を持つ。
3つのグラフ分類データセットで異なるgnnを説明するとき、rc-explainerはsomaアプローチの予測精度とコントラストを向上し、健全性チェックと視覚的検査を安全にパスする。
コードはhttps://github.com/xiangwang1223/reinforced_causal_explainerで入手できる。
関連論文リスト
- Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。