論文の概要: What Do GNNs Actually Learn? Towards Understanding their Representations
- arxiv url: http://arxiv.org/abs/2304.10851v1
- Date: Fri, 21 Apr 2023 09:52:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 15:11:30.859350
- Title: What Do GNNs Actually Learn? Towards Understanding their Representations
- Title(参考訳): GNNは実際に何を学ぶのか?
表現の理解に向けて
- Authors: Giannis Nikolentzos, Michail Chatzianastasis, Michalis Vazirgiannis
- Abstract要約: グラフニューラルネットワーク(GNN)によりグラフのどの特性を純粋に捉えるかを検討する。
これらのうち2つのノードが同じ特徴ベクトルに埋め込み、他の2つのモデルが入力グラフ上のウォーク数に関連する表現を生成することを示す。
厳密に言うと、構造的に異なるノードは、同じ長さのウォーク数を持つ場合、ある層$k>1$で同様の表現を持つことができる。
- 参考スコア(独自算出の注目度): 26.77596449192451
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, graph neural networks (GNNs) have achieved great success in
the field of graph representation learning. Although prior work has shed light
into the expressiveness of those models (\ie whether they can distinguish pairs
of non-isomorphic graphs), it is still not clear what structural information is
encoded into the node representations that are learned by those models. In this
paper, we investigate which properties of graphs are captured purely by these
models, when no node attributes are available. Specifically, we study four
popular GNN models, and we show that two of them embed all nodes into the same
feature vector, while the other two models generate representations that are
related to the number of walks over the input graph. Strikingly, structurally
dissimilar nodes can have similar representations at some layer $k>1$, if they
have the same number of walks of length $k$. We empirically verify our
theoretical findings on real datasets.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (GNN) はグラフ表現学習の分野で大きな成功を収めている。
以前の研究は、これらのモデルの表現性(非同型グラフのペアを区別できるかどうか)に光を当てているが、これらのモデルによって学習されたノード表現にどのような構造情報がエンコードされているかは明らかになっていない。
本稿では,ノード属性が存在しない場合,これらのモデルによってグラフのどの特性を純粋にキャプチャするかを検討する。
具体的には、4つの人気のあるGNNモデルについて検討し、2つのノードが同じ特徴ベクトルに埋め込まれていることを示し、他の2つのモデルは入力グラフ上のウォーキング数に関連する表現を生成する。
厳密に言うと、構造的に異なるノードは、同じ長さのウォーク数を持つ場合、ある層$k>1$で同様の表現を持つことができる。
実データセットに関する理論的知見を実証的に検証する。
関連論文リスト
- Do graph neural network states contain graph properties? [5.222978725954348]
診断分類器を用いたグラフニューラルネットワーク(GNN)のモデル説明可能性パイプラインを提案する。
このパイプラインは、さまざまなアーキテクチャやデータセットにわたるGNNの学習した表現を探索し、解釈することを目的としている。
論文 参考訳(メタデータ) (2024-11-04T15:26:07Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Probing Graph Representations [77.7361299039905]
グラフ表現でキャプチャされた意味のある情報の量を定量化するために、探索フレームワークを使用します。
本研究は, グラフモデルにおける帰納的バイアスを理解するための探索の可能性を示すものである。
グラフベースモデルを評価する上で有用な診断ツールとして,探索を提唱する。
論文 参考訳(メタデータ) (2023-03-07T14:58:18Z) - Weisfeiler and Leman go Hyperbolic: Learning Distance Preserving Node
Representations [26.77596449192451]
グラフニューラルネットワーク(GNN)は、グラフ上の機械学習問題を解決するための有望なツールとして登場した。
本論文では,Weisfeiler-Leman(WL)アルゴリズムによって生成される階層に基づいて,ノード間の距離関数を定義する。
本稿では,ノード間の距離を保存する表現を学習するモデルを提案する。
論文 参考訳(メタデータ) (2022-11-04T15:03:41Z) - SEA: Graph Shell Attention in Graph Neural Networks [8.565134944225491]
グラフニューラルネットワーク(GNN)の一般的な問題は、オーバー・スムーシング(over-smoothing)として知られている。
本研究では、ルーティングを実装することでGNNアーキテクチャを緩和し、特にノードの表現を専用の専門家にルーティングする。
この手順をグラフシェル注意(SEA)と呼び、専門家がトランスフォーマーを動機づけた方法で異なるサブグラフを処理する。
論文 参考訳(メタデータ) (2021-10-20T17:32:08Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Towards Self-Explainable Graph Neural Network [24.18369781999988]
グラフニューラルネットワーク(GNN)は、ディープニューラルネットワークをグラフ構造化データに一般化する。
GNNには説明責任がないため、モデルの透明性を求めるシナリオでは採用が制限される。
そこで本稿では,各未ラベルノードに対して$K$-nearestラベル付きノードを探索し,説明可能なノード分類を提案する。
論文 参考訳(メタデータ) (2021-08-26T22:45:11Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GraphLIME: Local Interpretable Model Explanations for Graph Neural
Networks [45.824642013383944]
グラフニューラルネットワーク(GNN)は,グラフ構造化データを効果的に表現することに成功した。
本稿では,Hilbert-Schmidt Independence Criterion (HSIC) Lasso を用いたグラフの局所的解釈可能なモデル記述法 GraphLIME を提案する。
論文 参考訳(メタデータ) (2020-01-17T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。