論文の概要: When Do Graph Neural Networks Help with Node Classification:
Investigating the Homophily Principle on Node Distinguishability
- arxiv url: http://arxiv.org/abs/2304.14274v1
- Date: Tue, 25 Apr 2023 09:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:01:57.466684
- Title: When Do Graph Neural Networks Help with Node Classification:
Investigating the Homophily Principle on Node Distinguishability
- Title(参考訳): グラフニューラルネットワークはノード分類に役立つか--ノード識別性に関するホモフィリー原理の検討
- Authors: Sitao Luan, Chenqing Hua, Minkai Xu, Qincheng Lu, Jiaqi Zhu, Xiao-Wen
Chang, Jie Fu, Jure Leskovec, Doina Precup
- Abstract要約: 同じラベルを持つノードが接続される可能性が高く、ノード分類(NC)タスク上のニューラルネットワーク(NN)よりもグラフニューラルネットワーク(GNN)がパフォーマンス上の優位性を持つ主な理由と考えられている。
近年, ホモフィリ原理が破られたとしても, 同一クラスのノードが類似した近傍パターンを共有する限り, GNNの優位性は保たれるという理論的な結果が開発されている。
- 参考スコア(独自算出の注目度): 98.68182099003542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Homophily principle, i.e. nodes with the same labels are more likely to be
connected, was believed to be the main reason for the performance superiority
of Graph Neural Networks (GNNs) over Neural Networks (NNs) on Node
Classification (NC) tasks. Recently, people have developed theoretical results
arguing that, even though the homophily principle is broken, the advantage of
GNNs can still hold as long as nodes from the same class share similar
neighborhood patterns, which questions the validity of homophily. However, this
argument only considers intra-class Node Distinguishability (ND) and ignores
inter-class ND, which is insufficient to study the effect of homophily. In this
paper, we first demonstrate the aforementioned insufficiency with examples and
argue that an ideal situation for ND is to have smaller intra-class ND than
inter-class ND. To formulate this idea and have a better understanding of
homophily, we propose Contextual Stochastic Block Model for Homophily (CSBM-H)
and define two metrics, Probabilistic Bayes Error (PBE) and Expected Negative
KL-divergence (ENKL), to quantify ND, through which we can also find how intra-
and inter-class ND influence ND together. We visualize the results and give
detailed analysis. Through experiments, we verified that the superiority of
GNNs is indeed closely related to both intra- and inter-class ND regardless of
homophily levels, based on which we define Kernel Performance Metric (KPM). KPM
is a new non-linear, feature-based metric, which is tested to be more effective
than the existing homophily metrics on revealing the advantage and disadvantage
of GNNs on synthetic and real-world datasets.
- Abstract(参考訳): 同じラベルを持つノードが接続される可能性が高く、ノード分類(nc)タスクにおいてニューラルネットワーク(nns)よりもグラフニューラルネットワーク(gnns)のパフォーマンスが優れている主な理由は、ホモフィリー原理(homophily principle)であると考えられている。
近年, ホモフィリー原理が破られたとしても, 同一クラスのノードが類似した近傍パターンを共有する限り, GNNの優位性は維持され, ホモフィリーの有効性を疑問視する理論的な結果が開発されている。
しかし、この議論はクラス内ノード識別可能性(ND)のみを考慮し、クラス間NDを無視し、ホモフィリーの効果を研究するには不十分である。
本論では,ND の理想的状況はクラス間 ND よりもクラス内 ND が小さいことである,と論じる。
この考え方を定式化し, ホモフィリーの理解を深めるために, CSBM-H (Contextual Stochastic Block Model for Homophily) を提案し, 確率ベイズ誤差 (Probabilistic Bayes Error, PBE) と期待負負のKL偏差 (presented Negative KL-divergence,ENKL) という2つの指標を定義し, NDを定量化する。
結果を可視化し、詳細な分析を行う。
実験により,GNNの優越性は,KPM (Kernel Performance Metric) の定義に基づくホモフィリーレベルにかかわらず,クラス内NDとクラス間NDの両方に密接に関係していることが確認された。
KPMは、新しい非線形機能ベースのメトリクスであり、合成および実世界のデータセット上でのGNNのアドバンテージとデメリットを明らかにする上で、既存のホモフィリメトリックよりも効果的であることがテストされている。
関連論文リスト
- Mitigating Degree Bias in Signed Graph Neural Networks [5.042342963087923]
SGNN(Signed Graph Neural Networks)は、ソースデータと典型的な集約手法による公平性問題に対処する。
本稿では,GNN から拡張された SGNN の公正性の調査を先駆的に進める。
署名されたグラフ内の次数バイアスの問題を識別し、SGNNに関する公平性問題に対する新たな視点を提供する。
論文 参考訳(メタデータ) (2024-08-16T03:22:18Z) - The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - Revisiting Heterophily For Graph Neural Networks [42.41238892727136]
グラフニューラルネットワーク(GNN)は、関係帰納バイアスに基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する(ホモフィリー仮定)
最近の研究は、NNと比較してパフォーマンスが不十分な、非自明なデータセットのセットを特定している。
論文 参考訳(メタデータ) (2022-10-14T08:00:26Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Is Heterophily A Real Nightmare For Graph Neural Networks To Do Node
Classification? [44.71818395535755]
グラフニューラルネットワーク(GNN)は、帰納的バイアス(ホモフィリー仮定)に基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する
グラフに依存しないNNに対するGNNのパフォーマンス上の利点は、一般的には満足できないようである。
ヘテロフィリーが主な原因と見なされ、それに対応するために多くの研究が進められている。
論文 参考訳(メタデータ) (2021-09-12T23:57:05Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z) - NCGNN: Node-level Capsule Graph Neural Network [45.23653314235767]
ノードレベルカプセルグラフニューラルネットワーク(ncgnn)は、ノードをカプセル群として表現する。
凝集に適したカプセルを適応的に選択する新しい動的ルーティング手法を開発した。
NCGNNは、過度にスムースな問題に対処でき、分類のためのより良いノード埋め込みを生成することで、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-12-07T06:46:17Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。