論文の概要: Learning Personalized Scoping for Graph Neural Networks under Heterophily
- arxiv url: http://arxiv.org/abs/2409.06998v1
- Date: Wed, 11 Sep 2024 04:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-12 15:47:11.580628
- Title: Learning Personalized Scoping for Graph Neural Networks under Heterophily
- Title(参考訳): ヘテロフォリーなグラフニューラルネットワークのためのパーソナライズされたスコーピングの学習
- Authors: Gangda Deng, Hongkuan Zhou, Rajgopal Kannan, Viktor Prasanna,
- Abstract要約: 異種ノードが接続する傾向がある不テロ親和性グラフは、グラフニューラルネットワーク(GNN)に挑戦する
我々は、ノード分類におけるGNN過度適合を克服する、個別のスコープ分類問題としてパーソナライズされたスコーピングを形式化する。
本稿では,GNN推論にのみ参加する軽量なアプローチであるAdaptive Scope (AS)を提案する。
- 参考スコア(独自算出の注目度): 3.475704621679017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterophilous graphs, where dissimilar nodes tend to connect, pose a challenge for graph neural networks (GNNs) as their superior performance typically comes from aggregating homophilous information. Increasing the GNN depth can expand the scope (i.e., receptive field), potentially finding homophily from the higher-order neighborhoods. However, uniformly expanding the scope results in subpar performance since real-world graphs often exhibit homophily disparity between nodes. An ideal way is personalized scopes, allowing nodes to have varying scope sizes. Existing methods typically add node-adaptive weights for each hop. Although expressive, they inevitably suffer from severe overfitting. To address this issue, we formalize personalized scoping as a separate scope classification problem that overcomes GNN overfitting in node classification. Specifically, we predict the optimal GNN depth for each node. Our theoretical and empirical analysis suggests that accurately predicting the depth can significantly enhance generalization. We further propose Adaptive Scope (AS), a lightweight MLP-based approach that only participates in GNN inference. AS encodes structural patterns and predicts the depth to select the best model for each node's prediction. Experimental results show that AS is highly flexible with various GNN architectures across a wide range of datasets while significantly improving accuracy.
- Abstract(参考訳): 異種ノードが接続するヘテロ親和性グラフは、グラフニューラルネットワーク(GNN)において、その優れた性能が相同性情報の集約から得られるため、課題となる。
GNN深度の増加は、スコープ(すなわち受容場)を拡大し、高次近傍からホモフィリーを見つける可能性がある。
しかし、実世界のグラフはしばしばノード間のホモフィラリティを示すため、スコープを均一に拡張するとサブパーのパフォーマンスが低下する。
理想的な方法はパーソナライズされたスコープであり、ノードはさまざまなスコープサイズを持つことができる。
既存のメソッドは通常、ホップ毎にノード適応重みを追加します。
表現力はあるものの、必然的に過度なオーバーフィッティングに悩まされる。
この問題に対処するため、我々は、ノード分類におけるGNN過剰適合を克服する、個別のスコープ分類問題としてパーソナライズされたスコーピングを形式化する。
具体的には,各ノードの最適GNN深さを予測する。
我々の理論的および実証的な分析は、正確な深さ予測が一般化を著しく促進できることを示唆している。
さらに、GNN推論にのみ参加する軽量MLPベースのアプローチであるAdaptive Scope (AS)を提案する。
ASは構造パターンを符号化し、各ノードの予測に最適なモデルを選択する深さを予測する。
実験の結果,ASは広範囲のデータセットにまたがる様々なGNNアーキテクチャで高い柔軟性を示し,精度は著しく向上した。
関連論文リスト
- Channel-Attentive Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現学習の最先端を定めている。
ほとんどのモデルで使用されるメッセージパッシングメカニズムは、GNNの深さが増加するにつれて、過度なスムース化に悩まされる。
本研究では,過度なスムース化を緩和する適応型チャネルワイドメッセージパッシング手法を提案する。
論文 参考訳(メタデータ) (2025-03-01T18:00:41Z) - Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - The Heterophilic Snowflake Hypothesis: Training and Empowering GNNs for Heterophilic Graphs [59.03660013787925]
ヘテロフィリー・スノーフレーク仮説を導入し、ヘテロ親和性グラフの研究をガイドし、促進するための効果的なソリューションを提供する。
観察の結果,我々のフレームワークは多種多様なタスクのための多目的演算子として機能することがわかった。
さまざまなGNNフレームワークに統合することができ、パフォーマンスを詳細に向上し、最適なネットワーク深さを選択するための説明可能なアプローチを提供する。
論文 参考訳(メタデータ) (2024-06-18T12:16:00Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - The Snowflake Hypothesis: Training Deep GNN with One Node One Receptive
field [39.679151680622375]
一つのノード、一つの受容場の概念を支える新しいパラダイムである「雪の結晶仮説」を紹介します。
最も単純な勾配とノードレベルの余弦距離を、各ノードの集約深さを調節する指針として採用する。
観測結果は,我々の仮説がタスクの普遍演算子として機能できることを実証した。
論文 参考訳(メタデータ) (2023-08-19T15:21:12Z) - When Do Graph Neural Networks Help with Node Classification?
Investigating the Impact of Homophily Principle on Node Distinguishability [92.8279562472538]
ホモフィリー原理は、ノード分類タスクにおけるニューラルネットワークよりもグラフネットワーク(GNN)の性能上の優位性の主要な理由であると考えられている。
最近の研究は、ホモフィリーがなくても、同じクラスのノードが類似した近隣パターンを共有する限り、GNNの利点は依然として存在することを示唆している。
論文 参考訳(メタデータ) (2023-04-25T09:40:47Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Higher-order Sparse Convolutions in Graph Neural Networks [17.647346486710514]
グラフ信号のソボレフノルムに基づく新しい高次スパース畳み込みを導入する。
S-SobGNNは、最先端のいくつかの手法と比較して、全てのアプリケーションで競合性能を示す。
論文 参考訳(メタデータ) (2023-02-21T08:08:18Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Graph Pointer Neural Networks [11.656981519694218]
上述の課題に対処するために,グラフポインタニューラルネットワーク(GPNN)を提案する。
我々は、多数のマルチホップ地区から最も関連性の高いノードを選択するためにポインタネットワークを利用する。
GPNNは最先端手法の分類性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-10-03T10:18:25Z) - Is Heterophily A Real Nightmare For Graph Neural Networks To Do Node
Classification? [44.71818395535755]
グラフニューラルネットワーク(GNN)は、帰納的バイアス(ホモフィリー仮定)に基づくグラフ構造を用いて基本ニューラルネットワーク(NN)を拡張する
グラフに依存しないNNに対するGNNのパフォーマンス上の利点は、一般的には満足できないようである。
ヘテロフィリーが主な原因と見なされ、それに対応するために多くの研究が進められている。
論文 参考訳(メタデータ) (2021-09-12T23:57:05Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。