論文の概要: Graph Random Neural Network for Semi-Supervised Learning on Graphs
- arxiv url: http://arxiv.org/abs/2005.11079v4
- Date: Tue, 21 Sep 2021 04:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 08:49:59.695703
- Title: Graph Random Neural Network for Semi-Supervised Learning on Graphs
- Title(参考訳): グラフ上の半教師付き学習のためのグラフランダムニューラルネットワーク
- Authors: Wenzheng Feng, Jie Zhang, Yuxiao Dong, Yu Han, Huanbo Luan, Qian Xu,
Qiang Yang, Evgeny Kharlamov, Jie Tang
- Abstract要約: グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
既存のGNNの多くは、ラベル付きノードが不足している場合、本質的に過度なスムース、非ロバスト性、および弱一般化の制限に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph R NEURAL NETWORKS (GRAND) を提案する。
- 参考スコア(独自算出の注目度): 36.218650686748546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of semi-supervised learning on graphs, for which graph
neural networks (GNNs) have been extensively explored. However, most existing
GNNs inherently suffer from the limitations of over-smoothing, non-robustness,
and weak-generalization when labeled nodes are scarce. In this paper, we
propose a simple yet effective framework -- GRAPH RANDOM NEURAL NETWORKS
(GRAND) -- to address these issues. In GRAND, we first design a random
propagation strategy to perform graph data augmentation. Then we leverage
consistency regularization to optimize the prediction consistency of unlabeled
nodes across different data augmentations. Extensive experiments on graph
benchmark datasets suggest that GRAND significantly outperforms
state-of-the-art GNN baselines on semi-supervised node classification. Finally,
we show that GRAND mitigates the issues of over-smoothing and non-robustness,
exhibiting better generalization behavior than existing GNNs. The source code
of GRAND is publicly available at https://github.com/Grand20/grand.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が広範に研究されているグラフ上での半教師あり学習の問題について検討する。
しかし、既存のほとんどのGNNは、ラベル付きノードが不足している場合、本質的に過度なスムース化、非ロバスト性、および弱一般化の限界に悩まされている。
本稿では,これらの問題に対処するシンプルなフレームワークである Graph RANDOM NEURAL NETWORKS (GRAND) を提案する。
GRANDではまず,グラフデータ拡張を行うランダムな伝搬戦略を設計する。
次に、一貫性の正則化を利用して、異なるデータ拡張をまたいだラベルなしノードの予測一貫性を最適化する。
グラフベンチマークデータセットの大規模な実験は、GRANDが半教師付きノード分類に基づく最先端のGNNベースラインを著しく上回っていることを示唆している。
最後に,GRANDは,既存GNNよりも優れた一般化行動を示すため,過度なスムースと非ロバスト性の問題を軽減する。
GRANDのソースコードはhttps://github.com/Grand20/grand.comで公開されている。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - GRAND+: Scalable Graph Random Neural Networks [26.47857017550499]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付き学習に広く採用されている。
GRANDは計算コストのかかるデータ拡張処理に依存するため、大規模グラフを扱うことは困難である。
半教師付きグラフ学習のためのスケーラブルで高性能なGNNフレームワークGRAND+を提案する。
論文 参考訳(メタデータ) (2022-03-12T09:41:23Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。