論文の概要: Task-Agnostic Graph Explanations
- arxiv url: http://arxiv.org/abs/2202.08335v1
- Date: Wed, 16 Feb 2022 21:11:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:14:18.088032
- Title: Task-Agnostic Graph Explanations
- Title(参考訳): タスク非依存グラフ記述
- Authors: Yaochen Xie, Sumeet Katariya, Xianfeng Tang, Edward Huang, Nikhil Rao,
Karthik Subbian, Shuiwang Ji
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
- 参考スコア(独自算出の注目度): 50.17442349253348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as powerful tools to encode graph
structured data. Due to their broad applications, there is an increasing need
to develop tools to explain how GNNs make decisions given graph structured
data. Existing learning-based GNN explanation approaches are task-specific in
training and hence suffer from crucial drawbacks. Specifically, they are
incapable of producing explanations for a multitask prediction model with a
single explainer. They are also unable to provide explanations in cases where
the GNN is trained in a self-supervised manner, and the resulting
representations are used in future downstream tasks. To address these
limitations, we propose a Task-Agnostic GNN Explainer (TAGE) trained under
self-supervision with no knowledge of downstream tasks. TAGE enables the
explanation of GNN embedding models without downstream tasks and allows
efficient explanation of multitask models. Our extensive experiments show that
TAGE can significantly speed up the explanation efficiency by using the same
model to explain predictions for multiple downstream tasks while achieving
explanation quality as good as or even better than current state-of-the-art GNN
explanation approaches.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
幅広いアプリケーションのために、グラフ構造化データに対してGNNがどのように意思決定を行うかを説明するツールを開発する必要性が高まっている。
既存の学習ベースのGNN説明アプローチは、トレーニングにおいてタスク固有のため、重大な欠点を被る。
具体的には,マルチタスク予測モデルに対する説明を単一説明器で生成することができない。
また、GNNが自己教師型で訓練されている場合や、結果の表現が将来の下流タスクで使用される場合も説明できない。
これらの制約に対処するために、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer (TAGE)を提案する。
TAGEは、下流タスクなしでGNN埋め込みモデルを説明し、マルチタスクモデルの効率的な説明を可能にする。
広範な実験により,tageは,同一モデルを用いて複数の下流タスクの予測を説明することにより,説明効率を大幅に向上させると同時に,現在のgnn説明手法よりも優れた説明品質を実現することができた。
関連論文リスト
- Towards Few-shot Self-explaining Graph Neural Networks [16.085176689122036]
数ショット設定で予測をサポートするための説明を生成する新しいフレームワークを提案する。
MSE-GNNは説明器と予測器からなる2段階の自己説明構造を採用している。
MSE-GNNは、高品質な説明を生成しながら予測タスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-08-14T07:31:11Z) - SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks [13.655670509818144]
本稿では、説明可能性と予測のギャップを埋める自己説明型自己教師型グラフニューラルネットワーク(SES)を提案する。
SESは説明可能なトレーニングと予測学習の2つのプロセスから構成される。
論文 参考訳(メタデータ) (2024-07-16T03:46:57Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Toward Multiple Specialty Learners for Explaining GNNs via Online
Knowledge Distillation [0.17842332554022688]
グラフニューラルネットワーク(GNN)は、多くのアプリケーションやシステムにおいてますます普及し、それらの予測を説明する必要がある。
そこで我々はSCALEという新しいGNN説明フレームワークを提案する。
トレーニングにおいて、ブラックボックスGNNモデルは、オンライン知識蒸留パラダイムに基づいて学習者をガイドする。
具体的には、エッジマスキングと再起動手順によるランダムウォークを実行し、グラフレベルとノードレベルの予測の構造的説明を提供する。
論文 参考訳(メタデータ) (2022-10-20T08:44:57Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。