論文の概要: ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2309.16918v2
- Date: Wed, 11 Oct 2023 00:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 02:45:58.169826
- Title: ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks
- Title(参考訳): ACGAN-GNNExplainer: グラフニューラルネットワークのための補助条件生成説明器
- Authors: Yiqiao Li, Jianlong Zhou, Yifei Dong, Niusha Shafiabady, Fang Chen
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有効であることが証明されているが、その基盤となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
本稿では、GNN説明分野にAuxiliary Generative Adrative Network (ACGAN)を導入し、emphACGANGNNExplainerと呼ばれる新しいGNN説明器を提案する。
- 参考スコア(独自算出の注目度): 7.077341403454516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have proven their efficacy in a variety of
real-world applications, but their underlying mechanisms remain a mystery. To
address this challenge and enable reliable decision-making, many GNN explainers
have been proposed in recent years. However, these methods often encounter
limitations, including their dependence on specific instances, lack of
generalizability to unseen graphs, producing potentially invalid explanations,
and yielding inadequate fidelity. To overcome these limitations, we, in this
paper, introduce the Auxiliary Classifier Generative Adversarial Network
(ACGAN) into the field of GNN explanation and propose a new GNN explainer
dubbed~\emph{ACGAN-GNNExplainer}. Our approach leverages a generator to produce
explanations for the original input graphs while incorporating a discriminator
to oversee the generation process, ensuring explanation fidelity and improving
accuracy. Experimental evaluations conducted on both synthetic and real-world
graph datasets demonstrate the superiority of our proposed method compared to
other existing GNN explainers.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、様々な現実世界のアプリケーションでその効果を証明しているが、その基礎となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
しかし、これらの方法はしばしば、特定のインスタンスへの依存、見当たらないグラフへの一般化の欠如、潜在的に無効な説明の生成、不適切な忠実性をもたらすといった制限に遭遇する。
これらの制約を克服するため,本稿では,GNN説明分野に補助分類器生成支援ネットワーク(ACGAN)を導入し,新しいGNN説明器を提案し,その名称を「...\emph{ACGAN-GNNExplainer}」とした。
提案手法では,ジェネレータを利用して元の入力グラフの説明を生成するとともに,識別器を組み込んで生成過程を監督し,説明の忠実性を確保し,精度を向上させる。
合成および実世界のグラフデータセットを用いた実験により,既存のGNN説明器と比較して提案手法の優位性を示した。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - GANExplainer: GAN-based Graph Neural Networks Explainer [5.641321839562139]
グラフニューラルネットワーク(GNN)が、多くのアプリケーションにおいて、特定の予測を行う理由を説明することは重要である。
本稿では,GANアーキテクチャに基づくGANExplainerを提案する。
GANExplainerは、その代替案と比較して、説明精度を最大35%改善する。
論文 参考訳(メタデータ) (2022-12-30T23:11:24Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Zorro: Valid, Sparse, and Stable Explanations in Graph Neural Networks [6.004582130591279]
GNNモデルによって生成されたラベル分布と説明との相互情報を最大化する以前の説明生成アプローチが制限的であることがわかった。
具体的には、既存のアプローチでは、予測、スパース、あるいは入力摂動に頑健な説明を強制しない。
そこで本稿では, 忠実度を最適化するための簡単な手順を用いて, 速度歪み理論の原理に基づく新しいアプローチZorroを提案する。
論文 参考訳(メタデータ) (2021-05-18T15:53:09Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。