論文の概要: Fast and Effective GNN Training with Linearized Random Spanning Trees
- arxiv url: http://arxiv.org/abs/2306.04828v3
- Date: Wed, 14 Feb 2024 16:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 20:00:53.162670
- Title: Fast and Effective GNN Training with Linearized Random Spanning Trees
- Title(参考訳): 線形ランダムスパンニング木を用いた高速かつ効果的なGNN訓練
- Authors: Francesco Bonchi, Claudio Gentile, Francesco Paolo Nerini, Andr\'e
Panisson, Fabio Vitale
- Abstract要約: ノード分類タスクにおいて,GNNをトレーニングするための,より効果的でスケーラブルなフレームワークを提案する。
提案手法は, ランダムに分布する木々の広範囲に分布するGNN重みを徐々に改善する。
これらの経路グラフのスパース性は、GNN訓練の計算負担を大幅に軽減する。
- 参考スコア(独自算出の注目度): 20.73637495151938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new effective and scalable framework for training GNNs in node
classification tasks, based on the effective resistance, a powerful tool
solidly rooted in graph theory. Our approach progressively refines the GNN
weights on an extensive sequence of random spanning trees, suitably transformed
into path graphs that retain essential topological and node information of the
original graph. The sparse nature of these path graphs substantially lightens
the computational burden of GNN training. This not only enhances scalability
but also effectively addresses common issues like over-squashing,
over-smoothing, and performance deterioration caused by overfitting in small
training set regimes. We carry out an extensive experimental investigation on a
number of real-world graph benchmarks, where we apply our framework to graph
convolutional networks, showing simultaneous improvement of both training speed
and test accuracy over a wide pool of representative baselines.
- Abstract(参考訳): 本稿では,グラフ理論に根ざした強力なツールである有効耐性に基づいて,ノード分類タスクでgnnをトレーニングするための新しい効率的かつスケーラブルなフレームワークを提案する。
本手法は,ランダムスパンディングツリーの広範なシーケンス上でgnn重みを段階的に洗練し,元のグラフの本質的な位相情報とノード情報を保持するパスグラフに好適に変換する。
これらの経路グラフのスパース性は、GNN訓練の計算負担を大幅に軽減する。
これはスケーラビリティを向上するだけでなく、オーバースカッシングやオーバースムーシング、小さなトレーニングセットの仕組みの過度な適合によるパフォーマンス劣化といった一般的な問題にも効果的に対処する。
我々は,多数の実世界のグラフベンチマークに関する広範な実験を行い,このフレームワークをグラフ畳み込みネットワークに適用し,幅広いベースラインに対するトレーニング速度とテスト精度の同時向上を示す。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Simple yet Effective Gradient-Free Graph Convolutional Networks [20.448409424929604]
近年,グラフ表現学習において線形化グラフニューラルネットワーク (GNN) が注目されている。
本稿では,過度な平滑化と消失する勾配現象を関連づけ,勾配のないトレーニングフレームワークを構築する。
提案手法は, ノード分類タスクにおいて, 深度や訓練時間を大幅に短縮して, より優れた, より安定した性能を実現する。
論文 参考訳(メタデータ) (2023-02-01T11:00:24Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z) - Ripple Walk Training: A Subgraph-based training framework for Large and
Deep Graph Neural Network [10.36962234388739]
本稿では,深部および大規模グラフニューラルネットワークのための一般的なサブグラフベーストレーニングフレームワークであるRipple Walk Training(RWT)を提案する。
RWTは、全グラフからサブグラフをサンプリングしてミニバッチを構成し、全GNNはミニバッチ勾配に基づいて更新される。
グラフの異なるサイズに関する大規模な実験は、様々なGNNを訓練する際のRWTの有効性と効率を実証している。
論文 参考訳(メタデータ) (2020-02-17T19:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。