論文の概要: Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2210.11094v1
- Date: Thu, 20 Oct 2022 08:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:47:58.900376
- Title: Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation
- Title(参考訳): オンライン知識蒸留によるGNN記述のための複数専門学習者に向けて
- Authors: Tien-Cuong Bui, Van-Duc Le, Wen-syan Li, Sang Kyun Cha
- Abstract要約: グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
- 参考スコア(独自算出の注目度): 0.17842332554022688
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have become increasingly ubiquitous in numerous
applications and systems, necessitating explanations of their predictions,
especially when making critical decisions. However, explaining GNNs is
challenging due to the complexity of graph data and model execution. Despite
additional computational costs, post-hoc explanation approaches have been
widely adopted due to the generality of their architectures. Intrinsically
interpretable models provide instant explanations but are usually
model-specific, which can only explain particular GNNs. Therefore, we propose a
novel GNN explanation framework named SCALE, which is general and fast for
explaining predictions. SCALE trains multiple specialty learners to explain
GNNs since constructing one powerful explainer to examine attributions of
interactions in input graphs is complicated. In training, a black-box GNN model
guides learners based on an online knowledge distillation paradigm. In the
explanation phase, explanations of predictions are provided by multiple
explainers corresponding to trained learners. Specifically, edge masking and
random walk with restart procedures are executed to provide structural
explanations for graph-level and node-level predictions, respectively. A
feature attribution module provides overall summaries and instance-level
feature contributions. We compare SCALE with state-of-the-art baselines via
quantitative and qualitative experiments to prove its explanation correctness
and execution performance. We also conduct a series of ablation studies to
understand the strengths and weaknesses of the proposed framework.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、多くのアプリケーションやシステムにおいてますます普及し、その予測、特に重要な決定を行う際に説明を必要としている。
しかし、グラフデータとモデル実行の複雑さのため、GNNの説明は難しい。
計算コストの増大にもかかわらず、アーキテクチャの一般化によりポストホックな説明手法が広く採用されている。
本質的に解釈可能なモデルは、インスタントな説明を提供するが、通常モデル固有のもので、特定のGNNしか説明できない。
そこで,本稿では,予測を説明するための汎用的かつ高速な新しいgnn説明フレームワークであるscaleを提案する。
SCALEは、入力グラフにおける相互作用の属性を調べるために、1つの強力な説明器を構築するため、GNNを説明するために複数の専門学習者を訓練する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
説明段階では、訓練された学習者に対応する複数の説明者によって予測の説明が提供される。
具体的には、エッジマスキングと再起動手順によるランダムウォークをそれぞれ実行し、グラフレベルとノードレベルの予測に関する構造的説明を提供する。
機能帰属モジュールは、全体的な要約とインスタンスレベルの機能貢献を提供する。
我々はSCALEと最先端のベースラインを定量的かつ定性的な実験によって比較し、その説明精度と実行性能を証明する。
また,提案フレームワークの長所と短所を理解するために,一連のアブレーション研究を実施している。
関連論文リスト
- SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks [13.655670509818144]
本稿では、説明可能性と予測のギャップを埋める自己説明型自己教師型グラフニューラルネットワーク(SES)を提案する。
SESは説明可能なトレーニングと予測学習の2つのプロセスから構成される。
論文 参考訳(メタデータ) (2024-07-16T03:46:57Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - INGREX: An Interactive Explanation Framework for Graph Neural Networks [0.17842332554022688]
グラフニューラルネットワーク(GNN)は多くの現代的なアプリケーションで広く使われており、その決定には説明が必要である。
本稿では,モデル予測の理解を支援するGNNの対話型説明フレームワークであるINGREXを紹介する。
論文 参考訳(メタデータ) (2022-11-03T01:47:33Z) - PGX: A Multi-level GNN Explanation Framework Based on Separate Knowledge
Distillation Processes [0.2005299372367689]
本稿では,GNNがグラフデータにおける複数のコンポーネントのマルチモーダル学習プロセスであることを示す,多段階GNN説明フレームワークを提案する。
元の問題の複雑さは、階層構造として表される複数の部分部分に分解することで緩和される。
このフレームワークはユーザの好みに基づいて異なる結果を生成することができるため、パーソナライズされた説明も目的としている。
論文 参考訳(メタデータ) (2022-08-05T10:14:48Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - Generative Causal Explanations for Graph Neural Networks [39.60333255875979]
Gemは、さまざまなグラフ学習タスクで任意のGNNに対して解釈可能な説明を提供するモデルに依存しないアプローチです。
説明精度の相対的な向上を最大30%$で達成し、その最先端の代替品と比較して、説明プロセスを最大$ 10times $でスピードアップします。
論文 参考訳(メタデータ) (2021-04-14T06:22:21Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。