論文の概要: SGS-GNN: A Supervised Graph Sparsification method for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2502.10208v1
- Date: Fri, 14 Feb 2025 15:03:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:44:57.110396
- Title: SGS-GNN: A Supervised Graph Sparsification method for Graph Neural Networks
- Title(参考訳): SGS-GNN:グラフニューラルネットワークのための改良されたグラフスカラー化手法
- Authors: Siddhartha Shankar Das, Naheed Anjum Arafat, Muftiqur Rahman, S M Ferdous, Alex Pothen, Mahantesh M Halappanavar,
- Abstract要約: SGS-GNNは,エッジとサンプルのスパース部分グラフのサンプリング確率分布をユーザが指定したサイズで学習する新しい教師付きグラフスペーサーである。
SGS-GNNは損失関数に正規化器を用いてスパースグラフのホモフィリーを高め、異種グラフ上のGNNの精度を高める。
- 参考スコア(独自算出の注目度): 0.46180371154032906
- License:
- Abstract: We propose SGS-GNN, a novel supervised graph sparsifier that learns the sampling probability distribution of edges and samples sparse subgraphs of a user-specified size to reduce the computational costs required by GNNs for inference tasks on large graphs. SGS-GNN employs regularizers in the loss function to enhance homophily in sparse subgraphs, boosting the accuracy of GNNs on heterophilic graphs, where a significant number of the neighbors of a node have dissimilar labels. SGS-GNN also supports conditional updates of the probability distribution learning module based on a prior, which helps narrow the search space for sparse graphs. SGS-GNN requires fewer epochs to obtain high accuracies since it learns the search space of subgraphs more effectively than methods using fixed distributions such as random sampling. Extensive experiments using 33 homophilic and heterophilic graphs demonstrate the following: (i) with only 20% of edges retained in the sparse subgraphs, SGS-GNN improves the F1-scores by a geometric mean of 4% relative to the original graph; on heterophilic graphs, the prediction accuracy is better up to 30%. (ii) SGS-GNN outperforms state-of-the-art methods with improvement in F1-scores of 4-7% in geometric mean with similar sparsities in the sampled subgraphs, and (iii) compared to sparsifiers that employ fixed distributions, SGS-GNN requires about half the number of epochs to converge.
- Abstract(参考訳): SGS-GNNは,大規模グラフ上での推論タスクにおいてGNNが必要とする計算コストを削減するために,ユーザ指定サイズのエッジとサンプルのスパース部分グラフのサンプリング確率分布を学習する新しい教師付きグラフスペーサーである。
SGS-GNNは損失関数に正規化器を使用し、スパースグラフのホモフィリーを高め、ノードの近傍のかなりの数が異なるラベルを持つヘテロ親和グラフ上のGNNの精度を高める。
SGS-GNNは、事前に基づいて確率分布学習モジュールの条件付き更新もサポートしており、スパースグラフの検索スペースを狭めるのに役立つ。
SGS-GNNは、ランダムサンプリングなどの固定分布を用いた手法よりも、サブグラフの探索空間をより効率的に学習するため、高い精度を得るためにエポックスを少なくする。
33のホモ親和性グラフとヘテロ親和性グラフを用いた大規模な実験は、以下のことを証明している。
(i)スパースグラフに残されるエッジの20%に過ぎず、SGS-GNNはF1スコアを元のグラフに対する幾何学平均で4%改善し、ヘテロ親和性グラフでは予測精度が最大30%向上した。
(II)SGS-GNNは、サンプリングされた部分グラフに類似の間隔を持つ幾何平均のF1スコアを4-7%改善し、最先端の手法より優れており、また、
(iii)固定分布を用いるスペーサーと比較して、SGS-GNNは収束するエポックの約半分を必要とする。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - AGS-GNN: Attribute-guided Sampling for Graph Neural Networks [2.826156508228215]
グラフニューラルネットワーク(GNN)のための新しい属性誘導サンプリングアルゴリズムであるAGS-GNNを提案する。
AGS-GNNはグラフのノードの特徴と接続構造を利用して、グラフのホモフィリーとヘテロフィリーの両方に同時に適応する。
AGS-GNNは、ノード分類のためのグラフ全体を用いて、最も優れたヘテロ親和性GNNに匹敵するテスト精度を達成している。
論文 参考訳(メタデータ) (2024-05-24T05:15:46Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - A Local Graph Limits Perspective on Sampling-Based GNNs [7.601210044390688]
本稿では,グラフニューラルネットワーク(GNN)を大規模入力グラフ上で学習するための理論的枠組みを提案する。
大規模な入力グラフの小さなサンプルを用いてサンプリングベースGNNのトレーニングから得られたパラメータが、グラフ全体において同じアーキテクチャをトレーニングした結果の$epsilon$近傍にあることを証明した。
論文 参考訳(メタデータ) (2023-10-17T02:58:49Z) - GRAPES: Learning to Sample Graphs for Scalable Graph Neural Networks [2.4175455407547015]
グラフニューラルネットワークは、隣人からの情報を集約することでノードを表現することを学ぶ。
いくつかの既存手法では、ノードの小さなサブセットをサンプリングし、GNNをもっと大きなグラフにスケールすることで、この問題に対処している。
本稿では,GNNのトレーニングに不可欠なノードの集合を識別する適応サンプリング手法であるGRAPESを紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:08:47Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Pseudoinverse Graph Convolutional Networks: Fast Filters Tailored for
Large Eigengaps of Dense Graphs and Hypergraphs [0.0]
Graph Convolutional Networks (GCNs) は、グラフベースのデータセットで半教師付き分類を行うツールとして成功している。
本稿では,三部フィルタ空間が高密度グラフを対象とする新しいGCN変種を提案する。
論文 参考訳(メタデータ) (2020-08-03T08:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。