論文の概要: On GNN explanability with activation rules
- arxiv url: http://arxiv.org/abs/2406.11594v1
- Date: Mon, 17 Jun 2024 14:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 14:22:35.867380
- Title: On GNN explanability with activation rules
- Title(参考訳): アクティベーションルールによるGNN説明可能性について
- Authors: Luca Veyrin-Forrer, Ataollah Kamal, Stefan Duffner, Marc Plantevit, Céline Robardet,
- Abstract要約: 我々は,GNNが世界をどのように捉えているのかを理解するために,隠れた層にアクティベーションルールをマイニングすることを提案する。
我々は,各隠蔽層におけるアクティベーションルールを列挙する,効果的で原則化されたアルゴリズムを定義する。
活性化ルールはグラフを分類するためにGNNが使用する特徴について洞察を与える。
- 参考スコア(独自算出の注目度): 4.448117354676033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: GNNs are powerful models based on node representation learning that perform particularly well in many machine learning problems related to graphs. The major obstacle to the deployment of GNNs is mostly a problem of societal acceptability and trustworthiness, properties which require making explicit the internal functioning of such models. Here, we propose to mine activation rules in the hidden layers to understand how the GNNs perceive the world. The problem is not to discover activation rules that are individually highly discriminating for an output of the model. Instead, the challenge is to provide a small set of rules that cover all input graphs. To this end, we introduce the subjective activation pattern domain. We define an effective and principled algorithm to enumerate activations rules in each hidden layer. The proposed approach for quantifying the interest of these rules is rooted in information theory and is able to account for background knowledge on the input graph data. The activation rules can then be redescribed thanks to pattern languages involving interpretable features. We show that the activation rules provide insights on the characteristics used by the GNN to classify the graphs. Especially, this allows to identify the hidden features built by the GNN through its different layers. Also, these rules can subsequently be used for explaining GNN decisions. Experiments on both synthetic and real-life datasets show highly competitive performance, with up to 200% improvement in fidelity on explaining graph classification over the SOTA methods.
- Abstract(参考訳): GNNはノード表現学習に基づく強力なモデルであり、グラフに関連する多くの機械学習問題において特によく機能する。
GNNの展開における大きな障害は、主に社会的受容性と信頼性の問題であり、そのようなモデルの内部機能を明確にする必要がある。
本稿では,GNNが世界をどのように捉えているのかを理解するために,隠れた層にアクティベーションルールをマイニングすることを提案する。
問題は、モデルの出力に対して個別に高い差別性を持つアクティベーションルールを発見することではない。
代わりに、すべての入力グラフをカバーする小さなルールセットを提供することが課題である。
この目的のために、主観的なアクティベーション・パターン・ドメインを導入する。
我々は,各隠蔽層におけるアクティベーションルールを列挙する,効果的で原則化されたアルゴリズムを定義する。
これらのルールの興味を定量化するための提案手法は,情報理論に根ざし,入力グラフデータに対する背景知識を考慮できる。
アクティベーションルールは、解釈可能な機能を含むパターン言語によって書き換えられる。
活性化ルールはグラフを分類するためにGNNが使用する特徴について洞察を与える。
特に、異なるレイヤを通じてGNNによって構築された隠れた機能を特定することができる。
また、これらのルールは後にGNNの決定を説明するために使用することができる。
合成データセットと実生活データセットの両方の実験では、高い競争性能を示し、SOTA法によるグラフ分類の説明において、最大200%の忠実度が向上した。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Relational Graph Convolutional Networks Do Not Learn Sound Rules [13.66949379381985]
グラフニューラルネットワーク(GNN)は、知識グラフ(KG)の欠落した事実を予測するために頻繁に使用される。
最近の研究は、広く使われている論理ベースの形式主義であるDatalogを使って、それらの予測を説明することを目的としている。
我々は、KGs、R-GCNの最も人気のあるGNNアーキテクチャの1つを考察し、その予測を説明するためのルールを抽出する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-08-14T15:46:42Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Understanding Expressivity of GNN in Rule Learning [36.04983130825589]
ルール学習は知識グラフ(KG)推論を改善するために重要である。
テールエンティティスコアリングを持つGNNは、共通のフレームワークに統合される。
そこで我々は,KG推論におけるルールをより多く学習するための新しいラベリング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-22T04:49:00Z) - Graph Neural Networks can Recover the Hidden Features Solely from the Graph Structure [17.912507269030577]
グラフニューラルネットワーク(GNN)は、グラフ学習問題の一般的なモデルである。
GNNはグラフ構造を自分自身で完全に活用できることを示す。
事実上、GNNは下流タスクに隠されたノード機能と明示的なノード機能の両方を使用することができる。
論文 参考訳(メタデータ) (2023-01-26T06:28:41Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。