論文の概要: SPEED: Streaming Partition and Parallel Acceleration for Temporal
Interaction Graph Embedding
- arxiv url: http://arxiv.org/abs/2308.14129v2
- Date: Mon, 11 Sep 2023 05:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 18:37:23.576554
- Title: SPEED: Streaming Partition and Parallel Acceleration for Temporal
Interaction Graph Embedding
- Title(参考訳): 時間的相互作用グラフ埋め込みのためのストリーミング分割と並列加速度
- Authors: Xi Chen, Yongxiang Liao, Yun Xiong, Yao Zhang, Siwei Zhang, Jiawei
Zhang, Yiheng Sun
- Abstract要約: 本稿では,時間的相互作用グラフ埋め込みのためのストリームエッジ分割と並列高速化という,新たなトレーニング手法を提案する。
提案手法は,計算資源,計算時間,下流タスク性能のバランスが良好である。
7つの実世界のデータセットにまたがる実証的な検証は、トレーニング速度を最大19.29倍に向上させる可能性を実証している。
- 参考スコア(独自算出の注目度): 22.68416593780539
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Temporal Interaction Graphs (TIGs) are widely employed to model intricate
real-world systems such as financial systems and social networks. To capture
the dynamism and interdependencies of nodes, existing TIG embedding models need
to process edges sequentially and chronologically. However, this requirement
prevents it from being processed in parallel and struggle to accommodate
burgeoning data volumes to GPU. Consequently, many large-scale temporal
interaction graphs are confined to CPU processing. Furthermore, a generalized
GPU scaling and acceleration approach remains unavailable. To facilitate
large-scale TIGs' implementation on GPUs for acceleration, we introduce a novel
training approach namely Streaming Edge Partitioning and Parallel Acceleration
for Temporal Interaction Graph Embedding (SPEED). The SPEED is comprised of a
Streaming Edge Partitioning Component (SEP) which addresses space overhead
issue by assigning fewer nodes to each GPU, and a Parallel Acceleration
Component (PAC) which enables simultaneous training of different sub-graphs,
addressing time overhead issue. Our method can achieve a good balance in
computing resources, computing time, and downstream task performance. Empirical
validation across 7 real-world datasets demonstrates the potential to expedite
training speeds by a factor of up to 19.29x. Simultaneously, resource
consumption of a single-GPU can be diminished by up to 69%, thus enabling the
multiple GPU-based training and acceleration encompassing millions of nodes and
billions of edges. Furthermore, our approach also maintains its competitiveness
in downstream tasks.
- Abstract(参考訳): 時間的相互作用グラフ(tig)は金融システムやソーシャルネットワークのような複雑な実世界のシステムをモデル化するために広く使われている。
ノードのダイナミズムと相互依存性を捉えるためには、既存のTIG埋め込みモデルはエッジを順次かつ時系列的に処理する必要がある。
しかし、この要件は並列処理を妨げ、急成長するデータボリュームをGPUに適合させるのに苦労する。
したがって、多くの大規模な時間的相互作用グラフはCPU処理に限られる。
さらに、一般的なgpuスケーリングとアクセラレーションアプローチは利用できない。
高速化のためのGPUへのTIGの大規模実装を容易にするため,時間的相互作用グラフ埋め込み(SPEED)のためのStreaming Edge PartitioningとParallel Accelerationという新たなトレーニング手法を導入する。
SPEEDは、各GPUに少ないノードを割り当てることで空間オーバーヘッド問題に対処するStreaming Edge Partitioning Component (SEP)と、異なるサブグラフの同時トレーニングを可能にするParallel Acceleration Component (PAC)で構成される。
本手法は,計算資源,計算時間,ダウンストリームタスク性能のバランスが良好である。
7つの実世界のデータセットにわたる実証的検証は、トレーニング速度を最大19.29倍に短縮する可能性を実証している。
同時に、単一GPUのリソース消費を最大69%削減できるため、数百万のノードと数十億のエッジを含む複数のGPUベースのトレーニングとアクセラレーションが可能になる。
さらに,下流タスクにおける競合性も維持する。
関連論文リスト
- FastGL: A GPU-Efficient Framework for Accelerating Sampling-Based GNN Training at Large Scale [29.272368697268433]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータに対して大きな優位性を示している。
我々は,大規模なGNNのサンプリングベーストレーニングを高速化するGPU効率のフレームワークであるFastGLを提案する。
FastGLは、最先端フレームワークであるPyG、DGL、GNNLabに対して平均11.8x、2.2x、1.5xのスピードアップを達成することができる。
論文 参考訳(メタデータ) (2024-09-23T11:45:47Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - DistTGL: Distributed Memory-Based Temporal Graph Neural Network Training [18.52206409432894]
DistTGLは、分散GPUクラスタ上でメモリベースのTGNNをトレーニングするための、効率的でスケーラブルなソリューションである。
実験では、DistTGLはほぼ直線収束のスピードアップを実現し、最先端のシングルマシン法を14.5%、トレーニングスループットは10.17倍に向上した。
論文 参考訳(メタデータ) (2023-07-14T22:52:27Z) - Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching [59.8522166385372]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
論文 参考訳(メタデータ) (2023-05-04T21:04:01Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Scheduling Optimization Techniques for Neural Network Training [3.1617796705744547]
本稿では,ニューラルネットワークトレーニングに有効なスケジューリング手法であるアウト・オブ・オーダー(oo)バックプロップを提案する。
単一GPU、データ並列、パイプライン並列トレーニングにおけるGPU利用は、ooobackpropを適用することで、一般的に改善できることを示す。
論文 参考訳(メタデータ) (2021-10-03T05:45:06Z) - Accurate, Efficient and Scalable Training of Graph Neural Networks [9.569918335816963]
グラフニューラルネットワーク(GNN)は、グラフ上にノード埋め込みを生成する強力なディープラーニングモデルである。
効率的でスケーラブルな方法でトレーニングを実行することは依然として困難です。
本稿では,最先端のミニバッチ手法と比較して,トレーニング負荷を桁違いに削減する新しい並列トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-05T22:06:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。