論文の概要: GNN Transformation Framework for Improving Efficiency and Scalability
- arxiv url: http://arxiv.org/abs/2207.12000v1
- Date: Mon, 25 Jul 2022 09:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:17:30.245750
- Title: GNN Transformation Framework for Improving Efficiency and Scalability
- Title(参考訳): 効率性とスケーラビリティを向上させるGNN変換フレームワーク
- Authors: Seiji Maekawa, Yuya Sasaki, George Fletcher, Makoto Onizuka
- Abstract要約: 本稿では,非スケーラブルGNNを,大規模グラフに対して効率的かつスケーラブルなプリ計算ベースGNNに自動変換するフレームワークを提案する。
フレームワークの利点は2つある: 1) グラフ畳み込みにおいて、局所的な特徴集約と重み学習を分離することにより、様々な非スケーリング可能なGNNを大規模グラフにうまくスケールさせる; 2) エッジを小さな解離と平衡集合に分解することで、大規模グラフに対するGPUの事前計算を効率的に行う。
- 参考スコア(独自算出の注目度): 5.833671647960204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a framework that automatically transforms non-scalable GNNs into
precomputation-based GNNs which are efficient and scalable for large-scale
graphs. The advantages of our framework are two-fold; 1) it transforms various
non-scalable GNNs to scale well to large-scale graphs by separating local
feature aggregation from weight learning in their graph convolution, 2) it
efficiently executes precomputation on GPU for large-scale graphs by
decomposing their edges into small disjoint and balanced sets. Through
extensive experiments with large-scale graphs, we demonstrate that the
transformed GNNs run faster in training time than existing GNNs while achieving
competitive accuracy to the state-of-the-art GNNs. Consequently, our
transformation framework provides simple and efficient baselines for future
research on scalable GNNs.
- Abstract(参考訳): 本稿では,非スケーラブルGNNを,大規模グラフに対して効率的かつスケーラブルなプリ計算ベースGNNに自動変換するフレームワークを提案する。
私たちのフレームワークの利点は2つあります。
1) グラフ畳み込みにおいて, 局所的特徴集約と重み学習を分離することにより, 様々な非スケーリングGNNを大規模グラフに拡張する。
2) エッジを小さな不整合と平衡集合に分解することで,GPUの大規模グラフに対する事前計算を効率的に行う。
大規模グラフを用いた広範囲な実験により、変換されたGNNは既存のGNNよりも訓練時間で高速に動作し、最先端のGNNと競合する精度を達成できることを示した。
その結果,我々のトランスフォーメーションフレームワークは,スケーラブルなGNNの今後の研究にシンプルで効率的なベースラインを提供する。
関連論文リスト
- T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Cached Operator Reordering: A Unified View for Fast GNN Training [24.917363701638607]
グラフニューラルネットワーク(GNN)は、構造化グラフデータを扱う強力なツールであり、ノード分類、グラフ分類、クラスタリングといったタスクに対処する。
しかし、GNN計算のスパース性は、従来のディープニューラルネットワークと比較してパフォーマンス最適化に新たな課題をもたらす。
GNN計算,I/O,メモリの統一的なビューを提供することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2023-08-23T12:27:55Z) - Graph Ladling: Shockingly Simple Parallel GNN Training without
Intermediate Communication [100.51884192970499]
GNNは、グラフを学習するニューラルネットワークの強力なファミリーである。
GNNのスケーリングは、肥大化または拡大によって、不健康な勾配、過度なスムースメント、情報のスカッシングといった問題に悩まされる。
本稿では,現在のGNNの深層化や拡張ではなく,GNNに適したモデルスープをデータ中心の視点で表現することを提案する。
論文 参考訳(メタデータ) (2023-06-18T03:33:46Z) - Fast and Effective GNN Training with Linearized Random Spanning Trees [20.73637495151938]
ノード分類タスクにおいて,GNNをトレーニングするための,より効果的でスケーラブルなフレームワークを提案する。
提案手法は, ランダムに分布する木々の広範囲に分布するGNN重みを徐々に改善する。
これらの経路グラフのスパース性は、GNN訓練の計算負担を大幅に軽減する。
論文 参考訳(メタデータ) (2023-06-07T23:12:42Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Characterizing the Efficiency of Graph Neural Network Frameworks with a
Magnifying Glass [10.839902229218577]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連学習タスクの成功により、大きな注目を集めている。
近年のGNNは,大規模グラフ上でのGNNのミニバッチトレーニングのために,異なるグラフサンプリング手法を用いて開発されている。
グリーンコンピューティングの観点から、フレームワークがどの程度"エコフレンドリー"であるかは不明だ。
論文 参考訳(メタデータ) (2022-11-06T04:22:19Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。