論文の概要: What Do GNNs Actually Learn? Towards Understanding their Representations
- arxiv url: http://arxiv.org/abs/2304.10851v1
- Date: Fri, 21 Apr 2023 09:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:11:30.859350
- Title: What Do GNNs Actually Learn? Towards Understanding their Representations
- Title(参考訳): GNNは実際に何を学ぶのか?
表現の理解に向けて
- Authors: Giannis Nikolentzos, Michail Chatzianastasis, Michalis Vazirgiannis
- Abstract要約: グラフニューラルネットワーク(GNN)によりグラフのどの特性を純粋に捉えるかを検討する。
これらのうち2つのノードが同じ特徴ベクトルに埋め込み、他の2つのモデルが入力グラフ上のウォーク数に関連する表現を生成することを示す。
厳密に言うと、構造的に異なるノードは、同じ長さのウォーク数を持つ場合、ある層$k>1$で同様の表現を持つことができる。
- 参考スコア(独自算出の注目度): 26.77596449192451
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, graph neural networks (GNNs) have achieved great success in
the field of graph representation learning. Although prior work has shed light
into the expressiveness of those models (\ie whether they can distinguish pairs
of non-isomorphic graphs), it is still not clear what structural information is
encoded into the node representations that are learned by those models. In this
paper, we investigate which properties of graphs are captured purely by these
models, when no node attributes are available. Specifically, we study four
popular GNN models, and we show that two of them embed all nodes into the same
feature vector, while the other two models generate representations that are
related to the number of walks over the input graph. Strikingly, structurally
dissimilar nodes can have similar representations at some layer $k>1$, if they
have the same number of walks of length $k$. We empirically verify our
theoretical findings on real datasets.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (GNN) はグラフ表現学習の分野で大きな成功を収めている。
以前の研究は、これらのモデルの表現性(非同型グラフのペアを区別できるかどうか)に光を当てているが、これらのモデルによって学習されたノード表現にどのような構造情報がエンコードされているかは明らかになっていない。
本稿では,ノード属性が存在しない場合,これらのモデルによってグラフのどの特性を純粋にキャプチャするかを検討する。
具体的には、4つの人気のあるGNNモデルについて検討し、2つのノードが同じ特徴ベクトルに埋め込まれていることを示し、他の2つのモデルは入力グラフ上のウォーキング数に関連する表現を生成する。
厳密に言うと、構造的に異なるノードは、同じ長さのウォーク数を持つ場合、ある層$k>1$で同様の表現を持つことができる。
実データセットに関する理論的知見を実証的に検証する。
関連論文リスト
- Path Neural Networks: Expressive and Accurate Graph Neural Networks [23.824156607376697]
グラフニューラルネットワーク(GNN)は最近、グラフ構造化データによる学習の標準的なアプローチになっている。
本稿では,ノードからの経路を集約することでノード表現を更新するPathNNを提案する。
これらの2つの変種は1-WLアルゴリズムよりも厳密に強力であることが証明され、理論的結果が実験的に検証された。
論文 参考訳(メタデータ) (2023-06-09T15:11:49Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - A Topological characterisation of Weisfeiler-Leman equivalence classes [0.0]
グラフニューラルネットワーク(GNN)は、グラフと信号をグラフ上で処理することを目的とした学習モデルである。
本稿では、GNNが区別できないグラフのクラスを完全に特徴づけるために、被覆空間の理論に依存する。
データセット内の識別不能グラフの数は,ノード数とともに指数関数的に増加することを示す。
論文 参考訳(メタデータ) (2022-06-23T17:28:55Z) - Graph Neural Networks Designed for Different Graph Types: A Survey [0.0]
グラフニューラルネットワーク(GNN)は、グラフデータに基づく最先端の問題に対処する。
GNNがどのようなグラフタイプを処理できるかは、まだ収集されていない。
既存のGNNを概観し、異なるグラフタイプを扱う能力に応じて分類する。
論文 参考訳(メタデータ) (2022-04-06T20:37:42Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。