論文の概要: CoDy: Counterfactual Explainers for Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2403.16846v2
- Date: Tue, 08 Jul 2025 13:36:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:36.339905
- Title: CoDy: Counterfactual Explainers for Dynamic Graphs
- Title(参考訳): CoDy: 動的グラフの事実上の説明
- Authors: Zhan Qu, Daniel Gomm, Michael Färber,
- Abstract要約: CoDy(CoDy, Counterfactual Explainer for Dynamic Graphs)は、モデルに依存しない、インスタンスレベルの説明手法である。
CoDyはモンテカルロ木探索と選択ポリシーを組み合わせた探索アルゴリズムを採用し、潜在的説明部分グラフの広大な探索空間を効率的に探索する。
- 参考スコア(独自算出の注目度): 10.74636407144071
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Temporal Graph Neural Networks (TGNNs) are widely used to model dynamic systems where relationships and features evolve over time. Although TGNNs demonstrate strong predictive capabilities in these domains, their complex architectures pose significant challenges for explainability. Counterfactual explanation methods provide a promising solution by illustrating how modifications to input graphs can influence model predictions. To address this challenge, we present CoDy, Counterfactual Explainer for Dynamic Graphs, a model-agnostic, instance-level explanation approach that identifies counterfactual subgraphs to interpret TGNN predictions. CoDy employs a search algorithm that combines Monte Carlo Tree Search with heuristic selection policies, efficiently exploring a vast search space of potential explanatory subgraphs by leveraging spatial, temporal, and local event impact information. Extensive experiments against state-of-the-art factual and counterfactual baselines demonstrate CoDy's effectiveness, with improvements of 16% in AUFSC+ over the strongest baseline.
- Abstract(参考訳): 時間的グラフニューラルネットワーク(TGNN)は、時間とともに関係や特徴が進化する動的システムのモデル化に広く利用されている。
TGNNはこれらの領域で強力な予測能力を示すが、その複雑なアーキテクチャは説明可能性に重大な課題をもたらす。
因果的説明法は、入力グラフへの修正がモデル予測にどのように影響するかを説明することによって、有望な解決策を提供する。
この課題に対処するために、モデルに依存しないインスタンスレベルの説明手法であるDynamic Graphs用のCoDyを提案する。
CoDyはモンテカルロ木探索とヒューリスティック選択ポリシーを組み合わせた探索アルゴリズムを採用し、空間的、時間的、局所的な事象の影響情報を活用することによって、潜在的説明部分グラフの広大な探索空間を効率的に探索する。
最先端の事実と反事実のベースラインに対する大規模な実験は、最強のベースラインよりも16%のAUFSC+の改善でCoDyの有効性を示している。
関連論文リスト
- GraphXAIN: Narratives to Explain Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの機械学習において強力な技術である。
既存のGNN説明法では、非データ科学者が理解し難い技術出力が得られる。
GNN予測を説明する自然言語の物語を生成するGraphXAINを提案する。
論文 参考訳(メタデータ) (2024-11-04T19:21:06Z) - Explaining Graph Neural Networks for Node Similarity on Graphs [9.14795454299225]
ノード類似性を計算するためのGNNベースの手法を,説明とともに拡張する方法について検討する。
具体的には、GNNにおける説明に対する2つのアプローチの性能を評価する。
MIの説明とは異なり、勾配に基づく説明は3つの望ましい性質を持つ。
論文 参考訳(メタデータ) (2024-07-10T13:20:47Z) - SIG: Efficient Self-Interpretable Graph Neural Network for Continuous-time Dynamic Graphs [34.269958289295516]
我々は,これらの予測の因果的説明を同時に提供しながら,動的グラフ内の将来のリンクを予測することを目的としている。
これらの課題に対処するため、我々は新たな因果推論モデル、すなわち独立因果推定モデル(ICCM)を提案する。
提案手法は, リンク予測精度, 説明精度, 特徴量に対するロバスト性など, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-05-29T13:09:33Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Robust Counterfactual Explanations on Graph Neural Networks [42.91881080506145]
高速アプリケーションにおけるグラフニューラルネットワーク(GNN)の大規模展開は、ノイズに対して堅牢な説明を強く要求する。
既存のほとんどの手法は、予測と強い相関関係を持つ入力グラフのサブグラフを識別することで説明を生成する。
類似の入力グラフ上でGNNの共通決定論理を明示的にモデル化することにより,GNNの堅牢な反実的説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-07-08T19:50:00Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。