論文の概要: GraphGI:A GNN Explanation Method using Game Interaction
- arxiv url: http://arxiv.org/abs/2409.15698v1
- Date: Tue, 24 Sep 2024 03:24:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 09:11:12.492901
- Title: GraphGI:A GNN Explanation Method using Game Interaction
- Title(参考訳): GraphGI:ゲームインタラクションを用いたGNN説明手法
- Authors: Xingping Xian, Jianlu Liu, Tao Wu, Lin Yuan, Chao Wang, Baiyun Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々な領域で広く利用されている。
現在のグラフ説明技術は、キーノードやエッジの識別に重点を置いており、モデル予測を駆動する重要なデータ機能に寄与している。
本稿では,対話力の高い連立関係を識別し,説明文として提示する新しい説明法GraphGIを提案する。
- 参考スコア(独自算出の注目度): 5.149896909638598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have garnered significant attention and have been extensively utilized across various domains. However, similar to other deep learning models, GNNs are often viewed as black-box models, making it challenging to interpret their prediction mechanisms. Current graph explanation techniques focus on identifying key nodes or edges, attributing the critical data features that drive model predictions. Nevertheless, these features do not independently influence the model's outcomes; rather, they interact with one another to collectively affect predictions. In this work, we propose a novel explanatory method GraphGI, which identifies the coalition with the highest interaction strength and presents it as an explanatory subgraph. Given a trained model and an input graph, our method explains predictions by gradually incorporating significant edges into the selected subgraph. We utilize game-theoretic interaction values to assess the interaction strength after edge additions, ensuring that the newly added edges confer maximum interaction strength to the explanatory subgraph. To enhance computational efficiency, we adopt effective approximation techniques for calculating Shapley values and game-theoretic interaction values. Empirical evaluations demonstrate that our method achieves superior fidelity and sparsity, maintaining the interpretability of the results at a comprehensible level.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な領域で広く利用されている。
しかし、他のディープラーニングモデルと同様に、GNNはブラックボックスモデルと見なされることが多く、予測メカニズムを解釈することは困難である。
現在のグラフ説明技術は、キーノードやエッジの識別に重点を置いており、モデル予測を駆動する重要なデータ機能に寄与している。
しかし、これらの特徴はモデルの結果に独立して影響を与えず、むしろ予測に影響を及ぼすために互いに相互作用する。
本稿では,対話力の高い連立関係を識別し,説明部分グラフとして提示する,新しい説明法GraphGIを提案する。
訓練されたモデルと入力グラフが与えられた場合、提案手法は、選択したサブグラフに重要なエッジを徐々に組み込むことによって予測を説明する。
我々はゲーム理論の相互作用値を用いてエッジ付加後の相互作用強度を評価し、新たに追加されたエッジが説明部分グラフに最大相互作用強度を与えることを保証する。
計算効率を向上させるために,Shapley値とゲーム理論の相互作用値を計算するための効果的な近似手法を採用する。
実験により,本手法は高い忠実度と疎度を達成し,理解可能なレベルで結果の解釈可能性を維持することを実証した。
関連論文リスト
- Oversmoothing as Loss of Sign: Towards Structural Balance in Graph Neural Networks [54.62268052283014]
オーバースムーシングはグラフニューラルネットワーク(GNN)において一般的な問題である
反過剰化手法の3つの主要なクラスは、数学的に符号付きグラフ上のメッセージパッシングと解釈できる。
負のエッジはノードをある程度撃退することができ、これらのメソッドが過剰なスムースを緩和する方法に関する深い洞察を提供する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Towards Fine-Grained Explainability for Heterogeneous Graph Neural
Network [20.86967051637891]
不均一グラフニューラルネットワーク(HGN)は、不均一グラフ上のノード分類タスクに対する顕著なアプローチである。
既存の説明可能性技術は主に同質グラフ上のGNNに対して提案されている。
我々は,ブラックボックスHGNの詳細な説明を提供する新しいフレームワークであるxPathを開発した。
論文 参考訳(メタデータ) (2023-12-23T12:13:23Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Faithful and Consistent Graph Neural Network Explanations with Rationale
Alignment [38.66324833510402]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案され、その多くは、元の予測を保存できる最小限のサブグラフを探索することで、このタスクを形式化する。
いくつかの部分グラフは元のグラフと同じもしくは類似した出力をもたらす。
弱いパフォーマンスのGNNを説明するためにそれらを適用することは、これらの問題をさらに増幅する。
論文 参考訳(メタデータ) (2023-01-07T06:33:35Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting
Graph Neural Networks [42.539085765796976]
本稿では、グラフニューラルネットワーク(GNN)の因果説明を生成するための新しいeXplanationフレームワークOrphicXを提案する。
本研究では, 個別な生成モデルを構築し, 因果的, コンパクト, 忠実な説明を生成モデルに推奨する目的関数を設計する。
OrphicXは因果的説明を生成するための因果的意味論を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2022-03-29T03:08:33Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。