論文の概要: GreeDy and CoDy: Counterfactual Explainers for Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2403.16846v1
- Date: Mon, 25 Mar 2024 15:07:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 20:54:11.371823
- Title: GreeDy and CoDy: Counterfactual Explainers for Dynamic Graphs
- Title(参考訳): GreeDyとCoDy:動的グラフの事実上の説明
- Authors: Zhan Qu, Daniel Gomm, Michael Färber,
- Abstract要約: 時間的グラフニューラルネットワーク(TGNN)は、時間的相互作用を伴う動的グラフのモデリングに不可欠である。
モデル決定を理解するためには、カウンターファクトな説明が不可欠だ。
本稿では,TGNNに対する2つの新しい非現実的説明手法を提案する。
- 参考スコア(独自算出の注目度): 10.74636407144071
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Temporal Graph Neural Networks (TGNNs), crucial for modeling dynamic graphs with time-varying interactions, face a significant challenge in explainability due to their complex model structure. Counterfactual explanations, crucial for understanding model decisions, examine how input graph changes affect outcomes. This paper introduces two novel counterfactual explanation methods for TGNNs: GreeDy (Greedy Explainer for Dynamic Graphs) and CoDy (Counterfactual Explainer for Dynamic Graphs). They treat explanations as a search problem, seeking input graph alterations that alter model predictions. GreeDy uses a simple, greedy approach, while CoDy employs a sophisticated Monte Carlo Tree Search algorithm. Experiments show both methods effectively generate clear explanations. Notably, CoDy outperforms GreeDy and existing factual methods, with up to 59\% higher success rate in finding significant counterfactual inputs. This highlights CoDy's potential in clarifying TGNN decision-making, increasing their transparency and trustworthiness in practice.
- Abstract(参考訳): TGNN(Temporal Graph Neural Networks)は、時間変化の相互作用を持つ動的グラフのモデリングに不可欠である。
モデル決定を理解するのに不可欠である非現実的な説明は、入力グラフの変化が結果にどのように影響するかを調べる。
本稿では,TGNN に対して,GreeDy (Greedy Explainer for Dynamic Graphs) と CoDy (Counterfactual Explainer for Dynamic Graphs) という2つの新しい非現実的説明手法を提案する。
彼らは説明を探索問題として扱い、モデル予測を変更する入力グラフの修正を求める。
GreeDyは単純で欲張りのアプローチ、CoDyは洗練されたモンテカルロ木探索アルゴリズムを採用している。
実験では、どちらの方法も明確な説明を効果的に生成することを示した。
特に、CoDyは、GreeDyと既存の事実的手法を上回り、重要な反事実的入力を見つける上で、最大で59倍の成功率を持つ。
これは、TGNNの決定を明確にし、その透明性と実践上の信頼性を高めるCoDyの可能性を浮き彫りにしている。
関連論文リスト
- Explaining Graph Neural Networks for Node Similarity on Graphs [9.14795454299225]
ノード類似性を計算するためのGNNベースの手法を,説明とともに拡張する方法について検討する。
具体的には、GNNにおける説明に対する2つのアプローチの性能を評価する。
MIの説明とは異なり、勾配に基づく説明は3つの望ましい性質を持つ。
論文 参考訳(メタデータ) (2024-07-10T13:20:47Z) - SIG: Efficient Self-Interpretable Graph Neural Network for Continuous-time Dynamic Graphs [34.269958289295516]
我々は,これらの予測の因果的説明を同時に提供しながら,動的グラフ内の将来のリンクを予測することを目的としている。
これらの課題に対処するため、我々は新たな因果推論モデル、すなわち独立因果推定モデル(ICCM)を提案する。
提案手法は, リンク予測精度, 説明精度, 特徴量に対するロバスト性など, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-05-29T13:09:33Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。