論文の概要: Towards Prototype-Based Self-Explainable Graph Neural Network
- arxiv url: http://arxiv.org/abs/2210.01974v1
- Date: Wed, 5 Oct 2022 00:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:07:03.473272
- Title: Towards Prototype-Based Self-Explainable Graph Neural Network
- Title(参考訳): プロトタイプベース自己説明型グラフニューラルネットワークに向けて
- Authors: Enyan Dai, Suhang Wang
- Abstract要約: 本稿では,プロトタイプベースの自己説明可能なGNNを学習し,正確な予測とプロトタイプベースの予測説明を同時に行うという,新たな課題について考察する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
- 参考スコア(独自算出の注目度): 37.90997236795843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown great ability in modeling
graph-structured data for various domains. However, GNNs are known as black-box
models that lack interpretability. Without understanding their inner working,
we cannot fully trust them, which largely limits their adoption in high-stake
scenarios. Though some initial efforts have been taken to interpret the
predictions of GNNs, they mainly focus on providing post-hoc explanations using
an additional explainer, which could misrepresent the true inner working
mechanism of the target GNN. The works on self-explainable GNNs are rather
limited. Therefore, we study a novel problem of learning prototype-based
self-explainable GNNs that can simultaneously give accurate predictions and
prototype-based explanations on predictions. We design a framework which can
learn prototype graphs that capture representative patterns of each class as
class-level explanations. The learned prototypes are also used to
simultaneously make prediction for for a test instance and provide
instance-level explanation. Extensive experiments on real-world and synthetic
datasets show the effectiveness of the proposed framework for both prediction
accuracy and explanation quality.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データを様々な領域でモデル化する優れた能力を示している。
しかし、GNNは解釈性に欠けるブラックボックスモデルとして知られている。
彼らの内部の動作を理解せずには、それらを完全には信頼できません。
当初、GNNの予測を解釈するためにいくつかの取り組みが行われたが、主にターゲットのGNNの内部動作機構を誤って表現できる追加の説明器を用いて、ホック後の説明を提供することに焦点を当てている。
自己説明可能なGNNの研究は、かなり限られている。
そこで本研究では,プロトタイプに基づく自己説明可能なGNNを学習し,正確な予測とプロトタイプによる予測説明を同時に行うという新たな課題について検討する。
クラスレベルの説明として各クラスの代表パターンをキャプチャするプロトタイプグラフを学習可能なフレームワークを設計する。
学習したプロトタイプは、テストインスタンスの予測とインスタンスレベルの説明を同時に行うためにも使用される。
実世界および合成データセットに関する広範な実験は、予測精度と説明品質の両方に対する提案フレームワークの有効性を示している。
関連論文リスト
- Towards Few-shot Self-explaining Graph Neural Networks [16.085176689122036]
数ショット設定で予測をサポートするための説明を生成する新しいフレームワークを提案する。
MSE-GNNは説明器と予測器からなる2段階の自己説明構造を採用している。
MSE-GNNは、高品質な説明を生成しながら予測タスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-08-14T07:31:11Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。