論文の概要: DT+GNN: A Fully Explainable Graph Neural Network using Decision Trees
- arxiv url: http://arxiv.org/abs/2205.13234v1
- Date: Thu, 26 May 2022 09:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:24:14.903797
- Title: DT+GNN: A Fully Explainable Graph Neural Network using Decision Trees
- Title(参考訳): DT+GNN:決定木を用いた完全に説明可能なグラフニューラルネットワーク
- Authors: Peter M\"uller, Lukas Faber, Karolis Martinkus, Roger Wattenhofer
- Abstract要約: 本稿では,完全説明可能な決定木グラフニューラルネットワーク(DT+GNN)アーキテクチャを提案する。
既存のブラックボックスGNNやポストホックな説明法とは対照的に、DT+GNNの推論は各ステップで検査できる。
実世界のデータセットと合成GNN説明可能性ベンチマークの両方で、このアーキテクチャは従来のGNNと同様に機能することを示す。
- 参考スコア(独自算出の注目度): 11.584771636861877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the fully explainable Decision Tree Graph Neural Network (DT+GNN)
architecture. In contrast to existing black-box GNNs and post-hoc explanation
methods, the reasoning of DT+GNN can be inspected at every step. To achieve
this, we first construct a differentiable GNN layer, which uses a categorical
state space for nodes and messages. This allows us to convert the trained MLPs
in the GNN into decision trees. These trees are pruned using our newly proposed
method to ensure they are small and easy to interpret. We can also use the
decision trees to compute traditional explanations. We demonstrate on both
real-world datasets and synthetic GNN explainability benchmarks that this
architecture works as well as traditional GNNs. Furthermore, we leverage the
explainability of DT+GNNs to find interesting insights into many of these
datasets, with some surprising results. We also provide an interactive web tool
to inspect DT+GNN's decision making.
- Abstract(参考訳): 本稿では,完全説明可能な決定木グラフニューラルネットワーク(DT+GNN)アーキテクチャを提案する。
既存のブラックボックスGNNやポストホックな説明法とは異なり、DT+GNNの推論は各ステップで検査できる。
そこで我々はまず,ノードとメッセージの分類的状態空間を使用する,微分可能なGNN層を構築する。
これにより、GNNの訓練済みMLPを決定木に変換することができます。
これらの木は、新しく提案した手法を用いて、小さくて容易に解釈できるように刈り取られる。
また、決定木を使って従来の説明を計算できます。
実世界のデータセットと合成GNN説明可能性ベンチマークの両方で、このアーキテクチャは従来のGNNと同様に機能することを示す。
さらに、dt+gnnの説明可能性を活用して、これらのデータセットの多くについて興味深い洞察を得ました。
また、DT+GNNの意思決定を検査するインタラクティブなWebツールも提供します。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - Explainability in Graph Neural Networks: An Experimental Survey [12.440636971075977]
グラフ表現学習のためのグラフニューラルネットワーク(GNN)が広く開発されている。
GNNは、その基盤となるメカニズムを理解できないため、ブラックボックスの問題に悩まされる。
GNNによる意思決定を説明するために、いくつかのGNN説明可能性法が提案されている。
論文 参考訳(メタデータ) (2022-03-17T11:25:41Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Ego-GNNs: Exploiting Ego Structures in Graph Neural Networks [12.97622530614215]
Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識できることを示す。
特に、Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識することができることを示す。
論文 参考訳(メタデータ) (2021-07-22T23:42:23Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。