論文の概要: Beyond Topological Self-Explainable GNNs: A Formal Explainability Perspective
- arxiv url: http://arxiv.org/abs/2502.02719v1
- Date: Tue, 04 Feb 2025 21:08:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:27:07.679578
- Title: Beyond Topological Self-Explainable GNNs: A Formal Explainability Perspective
- Title(参考訳): トポロジカルな自己説明可能なGNNを超えて - 形式的説明可能性の観点から
- Authors: Steve Azzolin, Sagar Malhotra, Andrea Passerini, Stefano Teso,
- Abstract要約: 自己説明可能なグラフニューラルネットワーク(SE-GNN)は、設計単位のGNNとして人気があるが、その特性と限界はよく理解されていない。
このギャップを埋める最初の貢献は、SE-GNNによって抽出された説明を形式化し、Trivial Explanations (TE) と呼ばれるものである。
ホワイトボックスルール抽出器と標準SE-GNNを統合したDual-Channel GNNを提案する。
- 参考スコア(独自算出の注目度): 19.270404394350944
- License:
- Abstract: Self-Explainable Graph Neural Networks (SE-GNNs) are popular explainable-by-design GNNs, but the properties and the limitations of their explanations are not well understood. Our first contribution fills this gap by formalizing the explanations extracted by SE-GNNs, referred to as Trivial Explanations (TEs), and comparing them to established notions of explanations, namely Prime Implicant (PI) and faithful explanations. Our analysis reveals that TEs match PI explanations for a restricted but significant family of tasks. In general, however, they can be less informative than PI explanations and are surprisingly misaligned with widely accepted notions of faithfulness. Although faithful and PI explanations are informative, they are intractable to find and we show that they can be prohibitively large. Motivated by this, we propose Dual-Channel GNNs that integrate a white-box rule extractor and a standard SE-GNN, adaptively combining both channels when the task benefits. Our experiments show that even a simple instantiation of Dual-Channel GNNs can recover succinct rules and perform on par or better than widely used SE-GNNs. Our code can be found in the supplementary material.
- Abstract(参考訳): 自己説明可能なグラフニューラルネットワーク (SE-GNN) は、よく説明可能なGNNとして人気があるが、その特性やその説明の限界はよく理解されていない。
最初のコントリビューションは、SE-GNNによって抽出された説明をTrivial Explanations (TEs) として形式化し、それらの説明の確立された概念、すなわち素数インプリカント(PI)と忠実な説明と比較することによって、このギャップを埋める。
分析の結果,TEは限定的だが重要なタスク群に対してPI説明と一致していることがわかった。
しかし、一般には、PIの説明よりも情報に乏しく、広く受け入れられている忠実性の概念と驚くほど一致していない。
忠実な説明とPIの説明は有益であるが,発見は困難であり,禁止的に大きいことを示す。
そこで我々は,ホワイトボックスルール抽出器と標準SE-GNNを統合したDual-Channel GNNを提案する。
実験の結果,Dual-Channel GNNの簡単なインスタンス化さえも,簡潔なルールを復元し,広く使用されているSE-GNNと同等以上の性能を発揮することがわかった。
私たちのコードは補足資料に載っています。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Perks and Pitfalls of Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs [18.33293911039292]
重要なデシプラタムは、説明が忠実であること、すなわち、GNNの推論過程の正確な描写を描写していることである。
多くの異なる忠実度指標が存在しており、忠実度が正確に何であるか、その性質は何かという疑問を提起している。
意外なことに、誠実さを最適化することは、常に合理的な設計目標であるとは限らない。
論文 参考訳(メタデータ) (2024-06-21T14:01:23Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - On Consistency in Graph Neural Network Interpretation [34.25952902469481]
インスタンスレベルのGNN説明は、ターゲットのGNNが予測に頼っているノードやエッジなどの重要な入力要素を発見することを目的としている。
様々なアルゴリズムが提案されているが、その多くは最小の部分グラフを探索することによってこのタスクを定式化している。
埋め込みの整列による簡易かつ効果的な対策を提案する。
論文 参考訳(メタデータ) (2022-05-27T02:58:07Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。