論文の概要: PGX: A Multi-level GNN Explanation Framework Based on Separate Knowledge
Distillation Processes
- arxiv url: http://arxiv.org/abs/2208.03075v1
- Date: Fri, 5 Aug 2022 10:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:53:47.966846
- Title: PGX: A Multi-level GNN Explanation Framework Based on Separate Knowledge
Distillation Processes
- Title(参考訳): PGX: 異なる知識蒸留プロセスに基づく多レベルGNN記述フレームワーク
- Authors: Tien-Cuong Bui, Wen-syan Li, Sang-Kyun Cha
- Abstract要約: 本稿では,GNNがグラフデータにおける複数のコンポーネントのマルチモーダル学習プロセスであることを示す,多段階GNN説明フレームワークを提案する。
元の問題の複雑さは、階層構造として表される複数の部分部分に分解することで緩和される。
このフレームワークはユーザの好みに基づいて異なる結果を生成することができるため、パーソナライズされた説明も目的としている。
- 参考スコア(独自算出の注目度): 0.2005299372367689
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) are widely adopted in advanced AI systems due to
their capability of representation learning on graph data. Even though GNN
explanation is crucial to increase user trust in the systems, it is challenging
due to the complexity of GNN execution. Lately, many works have been proposed
to address some of the issues in GNN explanation. However, they lack
generalization capability or suffer from computational burden when the size of
graphs is enormous. To address these challenges, we propose a multi-level GNN
explanation framework based on an observation that GNN is a multimodal learning
process of multiple components in graph data. The complexity of the original
problem is relaxed by breaking into multiple sub-parts represented as a
hierarchical structure. The top-level explanation aims at specifying the
contribution of each component to the model execution and predictions, while
fine-grained levels focus on feature attribution and graph structure
attribution analysis based on knowledge distillation. Student models are
trained in standalone modes and are responsible for capturing different teacher
behaviors, later used for particular component interpretation. Besides, we also
aim for personalized explanations as the framework can generate different
results based on user preferences. Finally, extensive experiments demonstrate
the effectiveness and fidelity of our proposed approach.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータ上での表現学習能力のため、高度なAIシステムで広く採用されている。
GNNの説明はシステムのユーザ信頼を高めるために重要であるが、GNNの実行が複雑になるため困難である。
近年、GNNの説明のいくつかの問題に対処する多くの研究が提案されている。
しかし、それらは一般化能力に欠け、グラフのサイズが巨大であるときに計算負荷に悩まされる。
これらの課題に対処するために,GNNはグラフデータにおける複数のコンポーネントのマルチモーダル学習プロセスである,という観測に基づくマルチレベルGNN説明フレームワークを提案する。
元の問題の複雑さは階層構造として表される複数の部分に分割することで緩和される。
トップレベルの説明は、各コンポーネントのモデル実行と予測への貢献を特定することを目的としており、きめ細かいレベルでは、知識蒸留に基づく特徴帰属とグラフ構造帰属分析に焦点を当てている。
学生モデルは独立したモードで訓練され、異なる教師の振る舞いを捉え、後に特定の構成要素の解釈に使用される。
また,このフレームワークはユーザの好みに基づいて異なる結果を生成することができるため,パーソナライズされた説明もする。
最後に,提案手法の有効性と信頼性を示す実験を行った。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - GNNAnatomy: Systematic Generation and Evaluation of Multi-Level Explanations for Graph Neural Networks [20.05098366613674]
本稿では,グラフ分類タスクの多段階説明の生成と評価を目的とした視覚解析システムであるGNNAnatomyを紹介する。
GNNAnatomyは、グラフレット、原始グラフサブ構造を用いて、GNN予測とグラフレット周波数の相関を分析することにより、グラフクラスで最も重要なサブ構造を識別する。
社会学・生物学領域からの合成および実世界のグラフデータセットのケーススタディを通して,GNN解剖学の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-06T23:09:54Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。