論文の概要: Structural Explanations for Graph Neural Networks using HSIC
- arxiv url: http://arxiv.org/abs/2302.02139v1
- Date: Sat, 4 Feb 2023 09:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:55:54.866905
- Title: Structural Explanations for Graph Neural Networks using HSIC
- Title(参考訳): HSICを用いたグラフニューラルネットワークの構造記述
- Authors: Ayato Toyokuni, Makoto Yamada
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
- 参考スコア(独自算出の注目度): 21.929646888419914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are a type of neural model that tackle graphical
tasks in an end-to-end manner. Recently, GNNs have been receiving increased
attention in machine learning and data mining communities because of the higher
performance they achieve in various tasks, including graph classification, link
prediction, and recommendation. However, the complicated dynamics of GNNs make
it difficult to understand which parts of the graph features contribute more
strongly to the predictions. To handle the interpretability issues, recently,
various GNN explanation methods have been proposed. In this study, a flexible
model agnostic explanation method is proposed to detect significant structures
in graphs using the Hilbert-Schmidt independence criterion (HSIC), which
captures the nonlinear dependency between two variables through kernels. More
specifically, we extend the GraphLIME method for node explanation with a group
lasso and a fused lasso-based node explanation method. The group and fused
regularization with GraphLIME enables the interpretation of GNNs in
substructure units. Then, we show that the proposed approach can be used for
the explanation of sequential graph classification tasks. Through experiments,
it is demonstrated that our method can identify crucial structures in a target
graph in various settings.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
近年,グラフ分類やリンク予測,レコメンデーションなど,さまざまなタスクで高いパフォーマンスを達成しているため,機械学習やデータマイニングコミュニティでは,gnnが注目を集めている。
しかしながら、gnnの複雑なダイナミクスは、グラフの機能のどの部分が予測により強く寄与するかを理解するのを難しくする。
解釈可能性問題に対処するため,近年,様々なGNN説明法が提案されている。
本研究では,Hilbert-Schmidt independent criterion (HSIC) を用いて,2変数間の非線型依存性をカーネルを通して捉えることにより,グラフの有意な構造を検出するフレキシブルモデル非依存的説明法を提案する。
具体的には、グループラッソと融合ラッソに基づくノード説明法を用いて、ノード説明のためのGraphLIME法を拡張する。
GraphLIMEによるグループと融合正規化は、サブ構造単位におけるGNNの解釈を可能にする。
次に,提案手法を逐次グラフ分類タスクの説明に利用できることを示す。
実験により,対象とするグラフの重要な構造を様々な設定で識別できることを実証した。
関連論文リスト
- GNNAnatomy: Systematic Generation and Evaluation of Multi-Level Explanations for Graph Neural Networks [20.05098366613674]
本稿では,グラフ分類タスクの多段階説明の生成と評価を目的とした視覚解析システムであるGNNAnatomyを紹介する。
GNNAnatomyは、グラフレット、原始グラフサブ構造を用いて、GNN予測とグラフレット周波数の相関を分析することにより、グラフクラスで最も重要なサブ構造を識別する。
社会学・生物学領域からの合成および実世界のグラフデータセットのケーススタディを通して,GNN解剖学の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-06T23:09:54Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Explainability in subgraphs-enhanced Graph Neural Networks [12.526174412246107]
グラフ強化グラフニューラルネットワーク(SGNN)は,GNNの表現力を高めるために導入された。
本稿では, GNN の最近の解説者の一つである PGExplainer を SGNN に適用する。
本稿では,グラフ分類タスクにおけるSGNNの決定過程を説明することに成功していることを示す。
論文 参考訳(メタデータ) (2022-09-16T13:39:10Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - SEEN: Sharpening Explanations for Graph Neural Networks using
Explanations from Neighborhoods [0.0]
本稿では,補助的説明の集約によるノード分類タスクの説明品質の向上手法を提案する。
SEENを適用するにはグラフを変更する必要はなく、さまざまな説明可能性のテクニックで使用することができる。
与えられたグラフからモチーフ参加ノードをマッチングする実験では、説明精度が最大12.71%向上した。
論文 参考訳(メタデータ) (2021-06-16T03:04:46Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。