論文の概要: Towards Self-Explainable Graph Neural Network
- arxiv url: http://arxiv.org/abs/2108.12055v1
- Date: Thu, 26 Aug 2021 22:45:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 20:44:55.378815
- Title: Towards Self-Explainable Graph Neural Network
- Title(参考訳): 自己説明型グラフニューラルネットワークを目指して
- Authors: Enyan Dai, Suhang Wang
- Abstract要約: グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
- 参考スコア(独自算出の注目度): 24.18369781999988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs), which generalize the deep neural networks to
graph-structured data, have achieved great success in modeling graphs. However,
as an extension of deep learning for graphs, GNNs lack explainability, which
largely limits their adoption in scenarios that demand the transparency of
models. Though many efforts are taken to improve the explainability of deep
learning, they mainly focus on i.i.d data, which cannot be directly applied to
explain the predictions of GNNs because GNNs utilize both node features and
graph topology to make predictions. There are only very few work on the
explainability of GNNs and they focus on post-hoc explanations. Since post-hoc
explanations are not directly obtained from the GNNs, they can be biased and
misrepresent the true explanations. Therefore, in this paper, we study a novel
problem of self-explainable GNNs which can simultaneously give predictions and
explanations. We propose a new framework which can find $K$-nearest labeled
nodes for each unlabeled node to give explainable node classification, where
nearest labeled nodes are found by interpretable similarity module in terms of
both node similarity and local structure similarity. Extensive experiments on
real-world and synthetic datasets demonstrate the effectiveness of the proposed
framework for explainable node classification.
- Abstract(参考訳): グラフ構造化データにディープニューラルネットワークを一般化するグラフニューラルネットワーク(GNN)は、グラフモデリングにおいて大きな成功を収めている。
しかしながら、グラフのディープラーニングの拡張として、GNNには説明可能性がないため、モデルの透明性を求めるシナリオへの採用がほとんど制限される。
ディープラーニングの解説性を改善するために多くの努力がなされているが、gnnはノード特徴とグラフトポロジの両方を利用して予測を行うため、gnnの予測を説明するために直接適用できないi.i.dデータに焦点を当てている。
GNNの説明可能性に関する研究はほとんどなく、ポストホックな説明に重点を置いている。
ポストホックな説明はGNNから直接得られるものではないので、それらはバイアスを受け、真の説明を誤って表現することができる。
そこで本稿では,予測と説明を同時に行う自己説明可能なGNNの新たな問題について検討する。
そこで我々は,各未ラベルノードに対して$K$-nearestのラベル付きノードを検索して説明可能なノード分類を与える新しいフレームワークを提案し,ノード類似性と局所構造類似性の両方の観点から,最も近いラベル付きノードを解釈可能な類似モジュールで見つける。
実世界および合成データセットに関する広範囲な実験により,提案手法によるノード分類の有効性が示された。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Self-Explainable Graph Neural Networks for Link Prediction [30.41648521030615]
グラフニューラルネットワーク(GNN)はリンク予測の最先端性能を達成した。
GNNは解釈性に乏しいため、重要なシナリオでは採用が制限される。
そこで我々は,このノードから他のノードへのリンクに対するペア固有の表現を学習するために,あるノードの様々なK$重要な隣人を見つけることができる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T21:57:32Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Higher-Order Explanations of Graph Neural Networks via Relevant Walks [3.1510406584101776]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを予測するための一般的なアプローチである。
本稿では,GNNを高次展開を用いて自然に説明できることを示す。
本稿では,テキストデータの感情分析,量子化学における構造・不適切な関係,画像分類に関する実践的な知見を抽出する。
論文 参考訳(メタデータ) (2020-06-05T17:59:14Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。