論文の概要: KerGNNs: Interpretable Graph Neural Networks with Graph Kernels
- arxiv url: http://arxiv.org/abs/2201.00491v1
- Date: Mon, 3 Jan 2022 06:16:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 13:34:11.029905
- Title: KerGNNs: Interpretable Graph Neural Networks with Graph Kernels
- Title(参考訳): KerGNNs:グラフカーネルを用いた解釈可能なグラフニューラルネットワーク
- Authors: Aosong Feng, Chenyu You, Shiqiang Wang, and Leandros Tassiulas
- Abstract要約: グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
- 参考スコア(独自算出の注目度): 14.421535610157093
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph kernels are historically the most widely-used technique for graph
classification tasks. However, these methods suffer from limited performance
because of the hand-crafted combinatorial features of graphs. In recent years,
graph neural networks (GNNs) have become the state-of-the-art method in
downstream graph-related tasks due to their superior performance. Most GNNs are
based on Message Passing Neural Network (MPNN) frameworks. However, recent
studies show that MPNNs can not exceed the power of the Weisfeiler-Lehman (WL)
algorithm in graph isomorphism test. To address the limitations of existing
graph kernel and GNN methods, in this paper, we propose a novel GNN framework,
termed \textit{Kernel Graph Neural Networks} (KerGNNs), which integrates graph
kernels into the message passing process of GNNs. Inspired by convolution
filters in convolutional neural networks (CNNs), KerGNNs adopt trainable hidden
graphs as graph filters which are combined with subgraphs to update node
embeddings using graph kernels. In addition, we show that MPNNs can be viewed
as special cases of KerGNNs. We apply KerGNNs to multiple graph-related tasks
and use cross-validation to make fair comparisons with benchmarks. We show that
our method achieves competitive performance compared with existing
state-of-the-art methods, demonstrating the potential to increase the
representation ability of GNNs. We also show that the trained graph filters in
KerGNNs can reveal the local graph structures of the dataset, which
significantly improves the model interpretability compared with conventional
GNN models.
- Abstract(参考訳): グラフカーネルは歴史的に最も広く使われているグラフ分類の技法である。
しかし、これらの手法は手作りのグラフの組合せ的特徴のため、性能に乏しい。
近年、グラフニューラルネットワーク(GNN)は、その性能上、下流グラフ関連タスクにおける最先端の手法となっている。
ほとんどのGNNは、Message Passing Neural Network (MPNN)フレームワークに基づいている。
しかし、最近の研究では、グラフ同型テストにおいて、MPNNはWeisfeiler-Lehman (WL)アルゴリズムのパワーを超えることができないことが示されている。
本稿では,既存のグラフカーネルとGNN手法の限界に対処するため,グラフカーネルをGNNのメッセージパッシングプロセスに統合する新しいGNNフレームワークである「textit{Kernel Graph Neural Networks} (KerGNNs)」を提案する。
畳み込みニューラルネットワーク(CNN)の畳み込みフィルタにインスパイアされたKerGNNは、トレーニング可能な隠れグラフをグラフフィルタとして採用し、グラフカーネルを使用してノード埋め込みを更新する。
さらに,MPNNをKerGNNの特殊な事例とみなすことができることを示す。
我々は、KerGNNを複数のグラフ関連タスクに適用し、クロスバリデーションを用いてベンチマークと比較する。
提案手法は,既存の最先端手法と比較して競争性能が向上し,GNNの表現能力向上の可能性を示す。
また,KerGNNの訓練されたグラフフィルタは,データセットの局所的なグラフ構造を明らかにすることができ,従来のGNNモデルと比較してモデルの解釈可能性を大幅に向上することを示した。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Graph Coordinates and Conventional Neural Networks -- An Alternative for
Graph Neural Networks [0.10923877073891444]
メッセージパッシングGNNの新たな代替手段として,Topology Coordinate Neural Network (TCNN) と Directional Virtual Coordinate Neural Network (DVCNN) を提案する。
TCNNとDVCNNは、メッセージパッシングGNNの競合や優れたパフォーマンスを達成する。
私たちの研究は、グラフベースの機械学習のためのテクニックのツールボックスを拡張します。
論文 参考訳(メタデータ) (2023-12-03T10:14:10Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Measuring and Improving the Use of Graph Information in Graph Neural
Networks [38.41049128525036]
グラフニューラルネットワーク(GNN)は,グラフデータの表現学習に広く利用されている。
本稿では,グラフデータから得られる情報の量と質を測定するための2つのスムーズネス指標を提案する。
CS-GNNと呼ばれる新しいGNNモデルは、グラフの滑らかさ値に基づいてグラフ情報の利用を改善するように設計されている。
論文 参考訳(メタデータ) (2022-06-27T10:27:28Z) - Transferability Properties of Graph Neural Networks [125.71771240180654]
グラフニューラルネットワーク(GNN)は、中規模グラフでサポートされているデータから表現を学ぶのに成功している。
適度な大きさのグラフ上でGNNを訓練し、それらを大規模グラフに転送する問題について検討する。
その結果, (i) グラフサイズに応じて転送誤差が減少し, (ii) グラフフィルタは非線型性の散乱挙動によってGNNにおいて緩和されるような転送可能性-識別可能性トレードオフを有することがわかった。
論文 参考訳(メタデータ) (2021-12-09T00:08:09Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - AutoGraph: Automated Graph Neural Network [45.94642721490744]
本稿では,ディープグラフニューラルネットワーク(GNN)の設計を自動化する手法を提案する。
提案手法では,機能再利用を促進するために,新しいタイプのスキップ接続をGNNs検索空間に追加する。
また、進化的アルゴリズムにより、進化中のGNNの層を増大させ、より深いネットワークを生成することができる。
論文 参考訳(メタデータ) (2020-11-23T09:04:17Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。