論文の概要: MAGE: Model-Level Graph Neural Networks Explanations via Motif-based Graph Generation
- arxiv url: http://arxiv.org/abs/2405.12519v1
- Date: Tue, 21 May 2024 06:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 14:18:37.201077
- Title: MAGE: Model-Level Graph Neural Networks Explanations via Motif-based Graph Generation
- Title(参考訳): MAGE: モチーフベースのグラフ生成によるモデルレベルグラフニューラルネットワークの説明
- Authors: Zhaoning Yu, Hongyang Gao,
- Abstract要約: グラフニューラルネットワーク(GNN)は、分子タスクにおいて顕著に成功したが、その解釈可能性はまだ難しい。
XGNNやGNNInterpreterのような伝統的なモデルレベルの説明法は、しばしば環のような有効な部分構造を特定するのに失敗し、疑わしい解釈可能性をもたらす。
我々は、モチーフを説明文を生成する基本単位として利用する革新的 textbfMotif-btextbfAsed textbfGNN textbfExplainer (MAGE) を導入する。
- 参考スコア(独自算出の注目度): 16.129359492539095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have shown remarkable success in molecular tasks, yet their interpretability remains challenging. Traditional model-level explanation methods like XGNN and GNNInterpreter often fail to identify valid substructures like rings, leading to questionable interpretability. This limitation stems from XGNN's atom-by-atom approach and GNNInterpreter's reliance on average graph embeddings, which overlook the essential structural elements crucial for molecules. To address these gaps, we introduce an innovative \textbf{M}otif-b\textbf{A}sed \textbf{G}NN \textbf{E}xplainer (MAGE) that uses motifs as fundamental units for generating explanations. Our approach begins with extracting potential motifs through a motif decomposition technique. Then, we utilize an attention-based learning method to identify class-specific motifs. Finally, we employ a motif-based graph generator for each class to create molecular graph explanations based on these class-specific motifs. This novel method not only incorporates critical substructures into the explanations but also guarantees their validity, yielding results that are human-understandable. Our proposed method's effectiveness is demonstrated through quantitative and qualitative assessments conducted on six real-world molecular datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、分子タスクにおいて顕著に成功したが、その解釈可能性はまだ難しい。
XGNNやGNNInterpreterのような伝統的なモデルレベルの説明法は、しばしば環のような有効な部分構造を特定するのに失敗し、疑わしい解釈可能性をもたらす。
この制限は、XGNNの原子・バイ・原子アプローチとGNNInterpreterの平均グラフ埋め込みへの依存に由来する。
これらのギャップに対処するために、モチーフを説明を生成する基本単位として使用する革新的 \textbf{M}otif-b\textbf{A}sed \textbf{G}NN \textbf{E}xplainer (MAGE) を導入する。
提案手法は,モチーフ分解手法を用いてポテンシャルモチーフを抽出することから始まる。
そして,注目に基づく学習手法を用いて,クラス固有のモチーフを同定する。
最後に、各クラスにモチーフベースのグラフ生成器を用いて、これらのクラス固有のモチーフに基づいた分子グラフ説明を作成する。
この新しい手法は、重要な部分構造を説明に組み込むだけでなく、その妥当性を保証し、人間に理解可能な結果をもたらす。
提案手法の有効性は,6つの実世界の分子データセットを用いた定量的,定性的な評価によって実証される。
関連論文リスト
- Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Semantic Interpretation and Validation of Graph Attention-based
Explanations for GNN Models [9.260186030255081]
本稿では,グラフニューラルネットワーク(GNN)に基づくモデルの説明可能性を高めるために,意味的注意力を用いた手法を提案する。
本研究は,注意分布のばらつきを意味的にソートした特徴集合と関連づけることで,既存の注意グラフ説明可能性手法を拡張した。
提案手法をライダーポイントクラウド推定モデルに適用し,性能向上に寄与する主要なセマンティッククラスを同定する。
論文 参考訳(メタデータ) (2023-08-08T12:34:32Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Graph neural networks for the prediction of molecular structure-property
relationships [59.11160990637615]
グラフニューラルネットワーク(GNN)は、分子グラフ上で直接動作する新しい機械学習手法である。
GNNは、エンドツーエンドでプロパティを学習できるため、情報記述子の必要性を回避することができる。
本稿では、分子特性予測のための2つの例を通して、GNNの基礎を説明し、GNNの応用を実証する。
論文 参考訳(メタデータ) (2022-07-25T11:30:44Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - MotifExplainer: a Motif-based Graph Neural Network Explainer [19.64574177805823]
本稿では,グラフにおける重要なモチーフ,繰り返し,統計的に重要なパターンを同定し,グラフニューラルネットワーク(GNN)を説明する新しい手法を提案する。
提案手法は,ノード,エッジ,正規部分グラフに基づく手法よりも,人間に理解可能な説明を提供する。
論文 参考訳(メタデータ) (2022-02-01T16:11:21Z) - Motif-based Graph Self-Supervised Learning forMolecular Property
Prediction [12.789013658551454]
グラフニューラルネットワーク(GNN)は、様々な分子生成および予測タスクにおいて顕著な成功を収めている。
既存のGNN用の自己教師付き事前トレーニングフレームワークのほとんどは、ノードレベルまたはグラフレベルのタスクのみに焦点を当てている。
GNNのための新しい自己教師型モチーフ生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-03T11:45:51Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Multi-View Graph Neural Networks for Molecular Property Prediction [67.54644592806876]
マルチビューグラフニューラルネットワーク(MV-GNN)を提案する。
MV-GNNでは,学習過程を安定させるために,自己注意型読み出しコンポーネントと不一致損失を導入する。
我々は、相互依存型メッセージパッシング方式を提案することにより、MV-GNNの表現力をさらに強化する。
論文 参考訳(メタデータ) (2020-05-17T04:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。