論文の概要: Towards Training GNNs using Explanation Directed Message Passing
- arxiv url: http://arxiv.org/abs/2211.16731v2
- Date: Thu, 1 Dec 2022 08:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 14:19:31.160011
- Title: Towards Training GNNs using Explanation Directed Message Passing
- Title(参考訳): 説明指向メッセージパッシングを用いたGNNの訓練に向けて
- Authors: Valentina Giunchiglia, Chirag Varun Shukla, Guadalupe Gonzalez, Chirag
Agarwal
- Abstract要約: 我々は、GNNのための新しい説明指向ニューラルメッセージパッシングフレームワークEXPASS(EXplainable message PASSing)を紹介する。
ディリクレエネルギーの層損失を緩やかにすることで,EXPASSはGNNの過度なスムース化問題を緩和することを示した。
実験の結果,EXPASSを用いて学習したグラフ埋め込みにより予測性能が向上し,GNNの過度な問題を軽減することがわかった。
- 参考スコア(独自算出の注目度): 4.014524824655107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing use of Graph Neural Networks (GNNs) in critical
real-world applications, several post hoc explanation methods have been
proposed to understand their predictions. However, there has been no work in
generating explanations on the fly during model training and utilizing them to
improve the expressive power of the underlying GNN models. In this work, we
introduce a novel explanation-directed neural message passing framework for
GNNs, EXPASS (EXplainable message PASSing), which aggregates only embeddings
from nodes and edges identified as important by a GNN explanation method.
EXPASS can be used with any existing GNN architecture and subgraph-optimizing
explainer to learn accurate graph embeddings. We theoretically show that EXPASS
alleviates the oversmoothing problem in GNNs by slowing the layer wise loss of
Dirichlet energy and that the embedding difference between the vanilla message
passing and EXPASS framework can be upper bounded by the difference of their
respective model weights. Our empirical results show that graph embeddings
learned using EXPASS improve the predictive performance and alleviate the
oversmoothing problems of GNNs, opening up new frontiers in graph machine
learning to develop explanation-based training frameworks.
- Abstract(参考訳): 重要な現実世界の応用においてグラフニューラルネットワーク(GNN)の利用が増加しているため、予測を理解するためにいくつかのポストホックな説明法が提案されている。
しかしながら、モデルトレーニング中にフライの説明を生成し、それを利用して基礎となるgnnモデルの表現力を向上させる作業は行われていない。
本稿では,gnn説明手法で重要と認識されるノードとエッジからのみ埋め込みを集約した,gnnのための説明指向型ニューラルメッセージパッシングフレームワークexpass(説明可能なメッセージパッシング)を提案する。
EXPASSは既存のGNNアーキテクチャやサブグラフ最適化の説明器を使って正確なグラフ埋め込みを学習することができる。
理論上,EXPASSはディリクレエネルギーの層状損失を遅くすることで,GNNの過度なスムース化問題を緩和し,各モデル重みの差により,バニラメッセージパッシングとEXPASSフレームワークの埋め込み差を上限にすることができることを示す。
実験の結果、EXPASSを用いて学習したグラフ埋め込みは予測性能を改善し、GNNの過度な問題を軽減し、グラフ機械学習の新しいフロンティアを開放し、説明に基づくトレーニングフレームワークを開発した。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - Incorporating Retrieval-based Causal Learning with Information
Bottlenecks for Interpretable Graph Neural Networks [12.892400744247565]
我々は,検索に基づく因果学習をグラフ情報ボットネック(GIB)理論に組み込んだ,解釈可能な因果GNNフレームワークを開発した。
多様な説明型を持つ実世界の説明シナリオにおいて,32.71%の精度を達成する。
論文 参考訳(メタデータ) (2024-02-07T09:57:39Z) - ACGAN-GNNExplainer: Auxiliary Conditional Generative Explainer for Graph
Neural Networks [7.077341403454516]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで有効であることが証明されているが、その基盤となるメカニズムは謎のままである。
この課題に対処し、信頼性の高い意思決定を可能にするため、近年多くのGNN説明者が提案されている。
本稿では、GNN説明分野にAuxiliary Generative Adrative Network (ACGAN)を導入し、emphACGANGNNExplainerと呼ばれる新しいGNN説明器を提案する。
論文 参考訳(メタデータ) (2023-09-29T01:20:28Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - EEGNN: Edge Enhanced Graph Neural Networks [1.0246596695310175]
そこで本研究では,このような劣化した性能現象の新たな説明法を提案する。
このような単純化は、グラフの構造情報を取得するためにメッセージパッシング層の可能性を減らすことができることを示す。
EEGNNは、提案したディリクレ混合ポアソングラフモデルから抽出した構造情報を用いて、様々なディープメッセージパスGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-08-12T15:24:55Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。