論文の概要: SUGAR: Efficient Subgraph-level Training via Resource-aware Graph
Partitioning
- arxiv url: http://arxiv.org/abs/2202.00075v1
- Date: Mon, 31 Jan 2022 20:23:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 13:29:39.546509
- Title: SUGAR: Efficient Subgraph-level Training via Resource-aware Graph
Partitioning
- Title(参考訳): SUGAR: リソース対応グラフ分割による効率的なサブグラフレベルトレーニング
- Authors: Zihui Xue, Yuedong Yang, Mengtian Yang, Radu Marculescu
- Abstract要約: 本研究は,資源対応グラフ分割(SUGAR)による効率的なサブグラフレベルのトレーニングを提案する。
以上の結果から,SUGARは大規模グラフ上で最大33倍の高速化と3.8倍のメモリ削減を実現可能であることがわかった。
- 参考スコア(独自算出の注目度): 10.009366498188832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated a great potential in a variety
of graph-based applications, such as recommender systems, drug discovery, and
object recognition. Nevertheless, resource-efficient GNN learning is a rarely
explored topic despite its many benefits for edge computing and Internet of
Things (IoT) applications. To improve this state of affairs, this work proposes
efficient subgraph-level training via resource-aware graph partitioning
(SUGAR). SUGAR first partitions the initial graph into a set of disjoint
subgraphs and then performs local training at the subgraph-level. We provide a
theoretical analysis and conduct extensive experiments on five graph benchmarks
to verify its efficacy in practice. Our results show that SUGAR can achieve up
to 33 times runtime speedup and 3.8 times memory reduction on large-scale
graphs. We believe SUGAR opens a new research direction towards developing GNN
methods that are resource-efficient, hence suitable for IoT deployment.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、レコメンダシステム、薬物発見、オブジェクト認識など、さまざまなグラフベースのアプリケーションにおいて大きな可能性を実証している。
それでも、エッジコンピューティングとIoT(Internet of Things)アプリケーションに多くのメリットがあるにもかかわらず、リソース効率のよいGNN学習は、まれに検討されるトピックである。
この状況を改善するために,資源対応グラフパーティショニング(SUGAR)による効率的なサブグラフレベルのトレーニングを提案する。
SUGARは最初、初期グラフを不整合部分グラフの集合に分割し、次に部分グラフレベルで局所的な訓練を行う。
理論解析を行い,5つのグラフベンチマークについて広範な実験を行い,実効性を検証する。
その結果、sugarは最大33倍のランタイムスピードアップと3.8倍のメモリ削減を達成できることがわかった。
我々はSUGARが資源効率のよいGNNメソッドを開発するための新たな研究の方向を開くと信じている。
関連論文リスト
- Faster Inference Time for GNNs using coarsening [1.323700980948722]
粗い手法はグラフを小さくするために使われ、計算が高速化される。
これまでの調査では、推論中にコストに対処できなかった。
本稿では, サブグラフベース手法によるGNNのスケーラビリティ向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - LSP : Acceleration and Regularization of Graph Neural Networks via
Locality Sensitive Pruning of Graphs [2.4250821950628234]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクのための非常に成功したツールとして登場した。
大きなグラフは、性能を損なうことなく取り除くことができる多くの冗長なコンポーネントを含むことが多い。
そこで我々はLocality-Sensitive Hashingに基づくグラフプルーニングのためのLocality-Sensitive Pruning(LSP)という体系的手法を提案する。
論文 参考訳(メタデータ) (2021-11-10T14:12:28Z) - CogDL: A Comprehensive Library for Graph Deep Learning [55.694091294633054]
研究者や実践者が実験を行い、メソッドを比較し、簡単かつ効率的にアプリケーションを構築することができるグラフ深層学習ライブラリであるCogDLを紹介します。
CogDLでは,様々なグラフタスクに対するGNNモデルのトレーニングと評価のための統一設計を提案し,既存のグラフ学習ライブラリに固有のものである。
我々はCogDLのための効率的なスパース演算子を開発し、効率性のための最も競争力のあるグラフライブラリとなる。
論文 参考訳(メタデータ) (2021-03-01T12:35:16Z) - Fast Graph Attention Networks Using Effective Resistance Based Graph
Sparsification [70.50751397870972]
FastGATは、スペクトルスペーシフィケーションを用いて、注目に基づくGNNを軽量にし、入力グラフの最適プルーニングを生成する手法である。
我々は,ノード分類タスクのための大規模実世界のグラフデータセット上でFastGATを実験的に評価した。
論文 参考訳(メタデータ) (2020-06-15T22:07:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。