論文の概要: 2-hop Neighbor Class Similarity (2NCS): A graph structural metric
indicative of graph neural network performance
- arxiv url: http://arxiv.org/abs/2212.13202v1
- Date: Mon, 26 Dec 2022 16:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 15:10:42.829268
- Title: 2-hop Neighbor Class Similarity (2NCS): A graph structural metric
indicative of graph neural network performance
- Title(参考訳): 2-hop Neighbor Class similarity (2NCS):グラフニューラルネットワークの性能を示すグラフ構造計量
- Authors: Andrea Cavallo, Claas Grohnfeldt, Michele Russo, Giulio Lovisotto,
Luca Vassio
- Abstract要約: グラフニューラルネットワーク(GNN)は、多数のドメインにわたるグラフ構造化データに対して最先端のパフォーマンスを実現する。
異なるタイプのノードが接続されるヘテロ親和性グラフでは、GNNは一貫して機能しない。
2-hop Neighbor Class similarity (2NCS) は、GNNのパフォーマンスと、他の指標よりも強く、一貫して相関する新しい定量的グラフ構造特性である。
- 参考スコア(独自算出の注目度): 4.051099980410583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) achieve state-of-the-art performance on
graph-structured data across numerous domains. Their underlying ability to
represent nodes as summaries of their vicinities has proven effective for
homophilous graphs in particular, in which same-type nodes tend to connect. On
heterophilous graphs, in which different-type nodes are likely connected, GNNs
perform less consistently, as neighborhood information might be less
representative or even misleading. On the other hand, GNN performance is not
inferior on all heterophilous graphs, and there is a lack of understanding of
what other graph properties affect GNN performance.
In this work, we highlight the limitations of the widely used homophily ratio
and the recent Cross-Class Neighborhood Similarity (CCNS) metric in estimating
GNN performance. To overcome these limitations, we introduce 2-hop Neighbor
Class Similarity (2NCS), a new quantitative graph structural property that
correlates with GNN performance more strongly and consistently than alternative
metrics. 2NCS considers two-hop neighborhoods as a theoretically derived
consequence of the two-step label propagation process governing GCN's
training-inference process. Experiments on one synthetic and eight real-world
graph datasets confirm consistent improvements over existing metrics in
estimating the accuracy of GCN- and GAT-based architectures on the node
classification task.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、多数のドメインにわたるグラフ構造化データで最先端のパフォーマンスを実現する。
ノードをビジニティの要約として表現する基本的な能力は、特に同型ノードが接続する傾向にあるホモフィルグラフに有効であることが証明されている。
異なるタイプのノードが接続される可能性のある異種グラフでは、近所の情報は代表的でも誤解を招くこともあるため、gnnは一貫性を欠く。
一方、GNNの性能は全ての異種グラフに劣るわけではなく、他のグラフ特性がGNNの性能にどのような影響を及ぼすかは理解されていない。
本稿では,GNNの性能を推定する上で,広く使用されているホモフィリー比と最近のクロスクラス近傍類似度(CCNS)の限界を強調した。
これらの制約を克服するために,新しい定量的グラフ構造特性である2-hop neighbor class similarity (2ncs) を導入する。
2NCSは、2つのホップ近傍を、GCNのトレーニング推論プロセスを管理する2段階のラベル伝播プロセスの理論上の帰結であると考えている。
1つの合成グラフと8つの実世界のグラフデータセットの実験は、ノード分類タスクにおけるGCNおよびGATベースのアーキテクチャの精度を推定する上で、既存のメトリクスよりも一貫した改善を確認した。
関連論文リスト
- PROXI: Challenging the GNNs for Link Prediction [3.8233569758620063]
本稿では,グラフと属性空間の両方におけるノードペアの近接情報を活用するPROXIを紹介する。
標準機械学習(ML)モデルは競争力があり、最先端のGNNモデルよりも優れています。
ProXIによる従来のGNNの拡張はリンク予測性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:38Z) - Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS [0.0]
ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2023-10-11T17:16:33Z) - Demystifying Structural Disparity in Graph Neural Networks: Can One Size
Fit All? [61.35457647107439]
ほとんどの実世界のホモフィルグラフとヘテロフィルグラフは、ホモフィルグラフとヘテロフィルグラフの両方の構造パターンの混合ノードから構成される。
ノード分類におけるグラフニューラルネットワーク (GNN) は, 一般にホモ親和性ノード上で良好に機能することを示す。
次に、GNNに対する厳密で非I.d PAC-Bayesian一般化を提案し、性能格差の理由を明らかにした。
論文 参考訳(メタデータ) (2023-06-02T07:46:20Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Incorporating Heterophily into Graph Neural Networks for Graph Classification [6.709862924279403]
グラフニューラルネットワーク(GNN)は、しばしばグラフ分類において強いホモフィリを仮定し、ヘテロフィリを考えることは滅多にない。
We developed a novel GNN architecture called IHGNN (short for Incorporated Heterophily into Graph Neural Networks)
我々は、様々なグラフデータセット上でIHGNNを実証的に検証し、グラフ分類のための最先端のGNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-15T06:48:35Z) - On Local Aggregation in Heterophilic Graphs [11.100606980915144]
我々は,従来のGNNと多層パーセプトロンを適切に調整した手法が,ヘテロ親和性グラフ上の最近の長距離アグリゲーション手法の精度に適合しているか,あるいは超越しているかを示す。
本稿では,新しい情報理論グラフ計量であるNativeborhood Information Content(NIC)メトリックを提案する。
論文 参考訳(メタデータ) (2021-06-06T19:12:31Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。