論文の概要: Scalable Neural Network Training over Distributed Graphs
- arxiv url: http://arxiv.org/abs/2302.13053v3
- Date: Sun, 11 Feb 2024 08:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 01:17:59.168406
- Title: Scalable Neural Network Training over Distributed Graphs
- Title(参考訳): 分散グラフ上のスケーラブルニューラルネットワークトレーニング
- Authors: Aashish Kolluri, Sarthak Choudhary, Bryan Hooi, Prateek Saxena
- Abstract要約: 実世界のグラフデータは、キャパシティの制約のため、多くのマシンに格納されなければならない。
ネットワーク通信は費用がかかり、GNNのトレーニングの主なボトルネックとなっている。
最初のフレームワークは、すべてのネットワーク分散レベルにおいて、GNNのトレーニングに使用することができる。
- 参考スコア(独自算出の注目度): 45.151244961817454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) fuel diverse machine learning tasks involving
graph-structured data, ranging from predicting protein structures to serving
personalized recommendations. Real-world graph data must often be stored
distributed across many machines not just because of capacity constraints, but
because of compliance with data residency or privacy laws. In such setups,
network communication is costly and becomes the main bottleneck to train GNNs.
Optimizations for distributed GNN training have targeted data-level
improvements so far -- via caching, network-aware partitioning, and
sub-sampling -- that work for data center-like setups where graph data is
accessible to a single entity and data transfer costs are ignored.
We present RETEXO, the first framework which eliminates the severe
communication bottleneck in distributed GNN training while respecting any given
data partitioning configuration. The key is a new training procedure, lazy
message passing, that reorders the sequence of training GNN elements. RETEXO
achieves 1-2 orders of magnitude reduction in network data costs compared to
standard GNN training, while retaining accuracy. RETEXO scales gracefully with
increasing decentralization and decreasing bandwidth. It is the first framework
that can be used to train GNNs at all network decentralization levels --
including centralized data-center networks, wide area networks, proximity
networks, and edge networks.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、タンパク質構造の予測からパーソナライズドレコメンデーションの提供まで、グラフ構造化データを含むさまざまな機械学習タスクに寄与する。
実世界のグラフデータは、キャパシティの制約だけでなく、データの常駐性やプライバシの法則に準拠しているため、多くのマシンに分散して保存されなければならない。
このようなセットアップでは、ネットワーク通信はコストがかかり、GNNをトレーニングする主なボトルネックとなる。
分散gnnトレーニングの最適化は、これまで、単一のエンティティにグラフデータがアクセス可能でデータ転送コストが無視されるデータセンタのようなセットアップで動作する、キャッシュ、ネットワークアウェアパーティショニング、サブサンプリングといった、データレベルの改善を目標としてきた。
本稿では,分散gnnトレーニングにおける通信ボトルネックを解消し,任意のデータ分割構成を尊重する最初のフレームワークであるretexoを提案する。
鍵となるのは、新しいトレーニング手順である遅延メッセージパッシングで、トレーニングGNN要素のシーケンスをリオーダーする。
RETEXOは、標準的なGNNトレーニングに比べてネットワークデータコストの1~2桁の削減を実現し、精度を維持している。
retexoは分散化と帯域幅の縮小によって優雅にスケールする。
集中型データセンタネットワーク、広域ネットワーク、近接ネットワーク、エッジネットワークを含む、すべてのネットワーク分散レベルにおけるGNNのトレーニングに使用できる最初のフレームワークである。
関連論文リスト
- Distributed Training of Large Graph Neural Networks with Variable Communication Rates [71.7293735221656]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングすることは、大きなメモリとコンピューティング要件のために、ユニークな課題を提示する。
グラフを複数のマシンに分割する分散GNNトレーニングは、大きなグラフ上でGNNをトレーニングするための一般的なアプローチである。
本稿では,学習モデルの精度を損なうことなく,分散GNNトレーニングにおける通信量を削減するための可変圧縮方式を提案する。
論文 参考訳(メタデータ) (2024-06-25T14:57:38Z) - GRASP-GCN: Graph-Shape Prioritization for Neural Architecture Search under Distribution Shifts [39.19675815138566]
本稿では,データ分散シフトに対処する際の予測性能を簡易かつ効率的に向上する手法を提案する。
我々は、ランダムに配線された検索空間上のKronecker-productを利用して、4つの異なるデータセットでトレーニングされたネットワークからなるNASベンチマークを作成する。
一般化能力を向上させるために,ニューラルネットワークの層形状を付加的に入力するグラフ畳み込みネットワークであるGRASP-GCNを提案する。
論文 参考訳(メタデータ) (2024-05-11T12:02:24Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - ABC: Aggregation before Communication, a Communication Reduction
Framework for Distributed Graph Neural Network Training and Effective
Partition [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造データに適したニューラルモデルであり、グラフ構造データの学習表現において優れた性能を示している。
本稿では,分散GNN訓練における通信複雑性について検討する。
グラフ変換プロセスの未知によりエッジ配置を制御できない動的グラフの場合,新しいパーティションパラダイムは特に理想的であることを示す。
論文 参考訳(メタデータ) (2022-12-11T04:54:01Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learn Locally, Correct Globally: A Distributed Algorithm for Training
Graph Neural Networks [22.728439336309858]
通信効率の良い分散GNNトレーニング手法であるtextLearn Locally, Correct Globally$ (LLCG)を提案する。
LLCGは、異なるマシン間のノード間の依存関係を無視してGNNをローカルデータでトレーニングし、その後、定期的なモデル平均化のためにローカルにトレーニングされたモデルをサーバに送信する。
我々は,GNNを訓練するための周期モデル平均化による分散手法の収束度を厳密に分析し,周期モデル平均化を適用するが,ノード間の依存性を無視することは既約残差に悩まされることを示す。
論文 参考訳(メタデータ) (2021-11-16T03:07:01Z) - SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural
Networks [13.965982814292971]
グラフニューラルネットワーク(GNN)は、グラフ機械学習問題の第一選択方法である。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
本研究では,新しいマルチタスク・フェデレーション・トレーニング・フレームワークであるSpreadGNNを提案する。
論文 参考訳(メタデータ) (2021-06-04T22:20:47Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - An Uncoupled Training Architecture for Large Graph Learning [20.784230322205232]
グラフデータをグリッドライクなデータに埋め込むための、柔軟なアンカップリングトレーニングフレームワークであるNode2Gridsを紹介します。
各ノードの影響を次々にランク付けすることで、Node2Gridsは最も影響力のある1階と、中央ノードの融合情報を持つ2階の隣人を選択する。
下流タスクの効率をさらに向上するために、単純なCNNベースのニューラルネットワークを使用して、マッピングされたグリッドのようなデータから重要な情報をキャプチャする。
論文 参考訳(メタデータ) (2020-03-21T11:49:16Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。