論文の概要: When Do Graph Neural Networks Help with Node Classification:
Investigating the Homophily Principle on Node Distinguishability
- arxiv url: http://arxiv.org/abs/2304.14274v2
- Date: Fri, 26 May 2023 22:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 00:40:08.824789
- Title: When Do Graph Neural Networks Help with Node Classification:
Investigating the Homophily Principle on Node Distinguishability
- Title(参考訳): グラフニューラルネットワークはノード分類に役立つか--ノード識別性に関するホモフィリー原理の検討
- Authors: Sitao Luan, Chenqing Hua, Minkai Xu, Qincheng Lu, Jiaqi Zhu, Xiao-Wen
Chang, Jie Fu, Jure Leskovec, Doina Precup
- Abstract要約: ホモフィリ原理は、ノードベースのニューラルネットワークによるノード分類タスクよりもグラフネットワーク(GNN)のパフォーマンス上の優位性の主要な理由であると考えられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
- 参考スコア(独自算出の注目度): 98.68182099003542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Homophily principle, i.e. nodes with the same labels are more likely to be
connected, has been believed to be the main reason for the performance
superiority of Graph Neural Networks (GNNs) over node-based Neural Networks on
Node Classification tasks. Recent research suggests that, even in the absence
of homophily, the advantage of GNNs still exists as long as nodes from the same
class share similar neighborhood patterns. However, this argument only
considers intra-class Node Distinguishability (ND) and neglects inter-class ND,
which provides incomplete understanding of homophily. In this paper, we first
demonstrate the aforementioned insufficiency with examples and argue that an
ideal situation for ND is to have smaller intra-class ND than inter-class ND.
To formulate this idea, we propose Contextual Stochastic Block Model for
Homophily (CSBM-H) and define two metrics, Probabilistic Bayes Error (PBE) and
negative generalized Jeffreys divergence, to quantify ND, through which we can
find how intra- and inter-class ND influence ND together. We visualize the
results and give detailed analysis. Through experiments, we verified that the
superiority of GNNs is indeed closely related to both intra- and inter-class ND
regardless of homophily levels, based on which we propose a new performance
metric beyond homophily, which is non-linear and feature-based. Experiments
indicate it significantly more effective than the existing homophily metrics on
revealing the advantage and disadvantage of GNNs on both synthetic and
benchmark real-world datasets.
- Abstract(参考訳): ホモフィリ原理、すなわち、同じラベルを持つノードが接続される可能性が高いことは、ノードベースのノード分類タスクにおけるニューラルネットワークよりもグラフニューラルネットワーク(GNN)のパフォーマンス上の優位性の主要な理由であると信じられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
しかし、この議論はクラス内ノード区別可能性(ND)のみを考慮し、クラス間NDを無視し、ホモフィリーの不完全な理解を提供する。
本論では,ND の理想的状況はクラス間 ND よりもクラス内 ND が小さいことである,と論じる。
この概念を定式化するために,ホモフィア (csbm-h) の文脈的確率的ブロックモデルを提案し,確率ベイズ誤差 (pbe) と負の一般化ジェフリーズ分岐 (jeffreys divergence) という2つの指標を定義し,nd を定量化する。
結果を可視化し、詳細な分析を行う。
実験により,gnnの優越性は,ホモフィリーレベルに関わらずクラス内およびクラス間ndの両方と密接に関連していることを確認し,非線形かつ特徴ベースであるホモフィリー以外の新しい性能指標を提案する。
実験によれば、合成データとベンチマークデータの両方におけるgnnの利点とデメリットを明らかにする上で、既存のホモフィリメトリックよりもかなり効果的である。
関連論文リスト
- Mitigating Degree Bias in Signed Graph Neural Networks [5.042342963087923]
SGNN(Signed Graph Neural Networks)は、ソースデータと典型的な集約手法による公平性問題に対処する。
本稿では,GNN から拡張された SGNN の公正性の調査を先駆的に進める。
署名されたグラフ内の次数バイアスの問題を識別し、SGNNに関する公平性問題に対する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-08-16T03:22:18Z) - The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Revisiting Heterophily For Graph Neural Networks [42.41238892727136]
グラフニューラルネットワーク(GNN)は、関係帰納バイアスに基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する(ホモフィリー仮定)
最近の研究は、NNと比較してパフォーマンスが不十分な、非自明なデータセットのセットを特定している。
論文 参考訳(メタデータ) (2022-10-14T08:00:26Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Is Heterophily A Real Nightmare For Graph Neural Networks To Do Node
Classification? [44.71818395535755]
グラフニューラルネットワーク(GNN)は、帰納的バイアス(ホモフィリー仮定)に基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する
グラフに依存しないNNに対するGNNのパフォーマンス上の利点は、一般的には満足できないようである。
ヘテロフィリーが主な原因と見なされ、それに対応するために多くの研究が進められている。
論文 参考訳(メタデータ) (2021-09-12T23:57:05Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z) - NCGNN: Node-level Capsule Graph Neural Network [45.23653314235767]
ノードレベルカプセルグラフニューラルネットワーク(ncgnn)は、ノードをカプセル群として表現する。
凝集に適したカプセルを適応的に選択する新しい動的ルーティング手法を開発した。
NCGNNは、過度にスムースな問題に対処でき、分類のためのより良いノード埋め込みを生成することで、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-12-07T06:46:17Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。