論文の概要: Perturb More, Trap More: Understanding Behaviors of Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2004.09808v2
- Date: Tue, 28 Apr 2020 09:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:02:53.618905
- Title: Perturb More, Trap More: Understanding Behaviors of Graph Neural
Networks
- Title(参考訳): Perturb More, Trap More: グラフニューラルネットワークの振る舞いを理解する
- Authors: Chaojie Ji, Ruxin Wang, Hongyan Wu
- Abstract要約: TraP2は、訓練されたグラフニューラルネットワーク(GNN)の局所忠実度に基づくポストホックフレームワークである
最先端の手法よりも精度が10.2%高い。
- 参考スコア(独自算出の注目度): 8.544938500193494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While graph neural networks (GNNs) have shown a great potential in various
tasks on graph, the lack of transparency has hindered understanding how GNNs
arrived at its predictions. Although few explainers for GNNs are explored, the
consideration of local fidelity, indicating how the model behaves around an
instance should be predicted, is neglected. In this paper, we first propose a
novel post-hoc framework based on local fidelity for any trained GNNs - TraP2,
which can generate a high-fidelity explanation. Considering that both relevant
graph structure and important features inside each node need to be highlighted,
a three-layer architecture in TraP2 is designed: i) interpretation domain are
defined by Translation layer in advance; ii) local predictive behavior of GNNs
being explained are probed and monitored by Perturbation layer, in which
multiple perturbations for graph structure and feature-level are conducted in
interpretation domain; iii) high faithful explanations are generated by fitting
the local decision boundary through Paraphrase layer. Finally, TraP2 is
evaluated on six benchmark datasets based on five desired attributions:
accuracy, fidelity, decisiveness, insight and inspiration, which achieves
$10.2\%$ higher explanation accuracy than the state-of-the-art methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上のさまざまなタスクにおいて大きな可能性を示しているが、透明性の欠如は、GNNがその予測にどのように到達したかを理解するのを妨げている。
gnnの説明は少ないが、インスタンス周辺のモデルがどのように振る舞うかを示す局所的忠実性についての考察は無視されている。
本稿ではまず,訓練されたGNNの局所忠実度に基づく新しいポストホックフレームワークTraP2を提案する。
関連するグラフ構造と各ノード内の重要な機能の両方をハイライトする必要があることを考慮し、TraP2の3層アーキテクチャを設計する。
一 解釈領域は、あらかじめ翻訳層により定義される。
二 グラフ構造及び特徴レベルの複数の摂動を解釈領域で行う摂動層により説明されるGNNの局所的予測挙動を探索し、監視する。
三 局所決定境界をパラフレーズ層に適合させることにより、高度に忠実な説明が生成されること。
最後に、TraP2は、精度、忠実性、決定性、洞察、インスピレーションという5つの望ましい属性に基づいて、6つのベンチマークデータセットで評価される。
関連論文リスト
- Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Variational Edge Partition Model for Supervised Graph Representation
Learning [51.30365677476971]
本稿では,重なり合うノード群間の相互作用を集約することで,観測されたエッジがどのように生成されるかをモデル化するグラフ生成プロセスを提案する。
それぞれのエッジを複数のコミュニティ固有の重み付きエッジの和に分割し、コミュニティ固有のGNNを定義する。
エッジを異なるコミュニティに分割するGNNベースの推論ネットワーク,これらのコミュニティ固有のGNN,およびコミュニティ固有のGNNを最終分類タスクに組み合わせたGNNベースの予測器を共同で学習するために,変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T14:37:50Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - GCExplainer: Human-in-the-Loop Concept-based Explanations for Graph
Neural Networks [0.3441021278275805]
GCExplainerは、グラフニューラルネットワーク(GNN)のためのグローバルな概念に基づく説明のポストホック発見と抽出のための教師なしのアプローチである。
提案手法は5つのノード分類データセットと2つのグラフ分類データセット上で成功し,人間をループに配置することで高品質な概念表現を発見し,抽出できることを実証した。
論文 参考訳(メタデータ) (2021-07-25T20:52:48Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。