論文の概要: Accelerating Storage-Based Training for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2601.01473v2
- Date: Tue, 06 Jan 2026 04:51:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 13:14:29.380424
- Title: Accelerating Storage-Based Training for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのストレージベーストレーニングの高速化
- Authors: Myung-Hwan Jang, Jeong-Min Park, Yunyong Ko, Sang-Wook Kim,
- Abstract要約: 本稿では,AGNES という新しいストレージベース GNN トレーニングフレームワークを提案する。
AGNESは、ブロックワイドストレージI/O処理を用いて、高性能ストレージデバイスのI/O帯域をフル活用する。
常に4つの最先端の手法よりも4.1倍高速である。
- 参考スコア(独自算出の注目度): 17.9837112234959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have achieved breakthroughs in various real-world downstream tasks due to their powerful expressiveness. As the scale of real-world graphs has been continuously growing, a storage-based approach to GNN training has been studied, which leverages external storage (e.g., NVMe SSDs) to handle such web-scale graphs on a single machine. Although such storage-based GNN training methods have shown promising potential in large-scale GNN training, we observed that they suffer from a severe bottleneck in data preparation since they overlook a critical challenge: how to handle a large number of small storage I/Os. To address the challenge, in this paper, we propose a novel storage-based GNN training framework, named AGNES, that employs a method of block-wise storage I/O processing to fully utilize the I/O bandwidth of high-performance storage devices. Moreover, to further enhance the efficiency of each storage I/O, AGNES employs a simple yet effective strategy, hyperbatch-based processing based on the characteristics of real-world graphs. Comprehensive experiments on five real-world graphs reveal that AGNES consistently outperforms four state-of-the-art methods, by up to 4.1X faster than the best competitor. Our code is available at https://github.com/Bigdasgit/agnes-kdd26.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、その強力な表現力によって、さまざまな現実世界の下流タスクにおいてブレークスルーを達成した。
実世界のグラフのスケールが継続的に拡大するにつれて、GNNトレーニングに対するストレージベースのアプローチが研究され、単一のマシン上でそのようなWebスケールグラフを処理するために外部ストレージ(例えばNVMe SSD)を活用している。
このようなストレージベースのGNNトレーニング手法は、大規模GNNトレーニングにおいて有望な可能性を示しているが、大量の小容量ストレージI/Oをどう扱うかという重要な課題を見落としているため、データ準備の重大なボトルネックに悩まされている。
本稿では,高速ストレージデバイスのI/O帯域をフル活用するためのブロックワイドストレージI/O処理手法を用いた,新しいストレージベースGNNトレーニングフレームワークAGNESを提案する。
さらに、各ストレージI/Oの効率をさらに高めるために、AGNESは現実世界のグラフの特性に基づいた、シンプルながら効果的なハイパーバッチベースの処理を採用している。
5つの実世界のグラフに関する総合的な実験により、AGNESは最高の競争相手よりも最大4.1倍速く、4つの最先端の手法を一貫して上回っていることが明らかになった。
私たちのコードはhttps://github.com/Bigdasgit/agnes-kdd26.comで利用可能です。
関連論文リスト
- gHAWK: Local and Global Structure Encoding for Scalable Training of Graph Neural Networks on Knowledge Graphs [1.8024397171920878]
gHAWKは知識グラフ(KG)のためのグラフニューラルネットワーク(GNN)トレーニングフレームワーク
GNNトレーニングが始まる前に、各ノードのローカルおよびグローバル構造をキャプチャする構造的特徴を事前に計算する。
gHAWKはメモリ使用量、収束率を大幅に削減し、モデルの精度を向上させる。
論文 参考訳(メタデータ) (2025-12-09T06:08:37Z) - Distributed Graph Neural Network Inference With Just-In-Time Compilation For Industry-Scale Graphs [6.924892368183222]
グラフニューラルネットワーク(GNN)は様々な分野で顕著な成果を上げている。
グラフデータのスケールの急激な増加は、GNN推論に重大なパフォーマンスボトルネックをもたらしている。
本稿では,GNNを新しいプログラミングインタフェースで抽象化する分散グラフ学習のための革新的な処理パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-08T13:26:59Z) - GraphBridge: Towards Arbitrary Transfer Learning in GNNs [65.01790632978962]
GraphBridgeは、GNNの異なるタスクやドメイン間での知識伝達を可能にする新しいフレームワークである。
予測ヘッドと入力を出力層に接続するブリッジングネットワークを備えた、事前訓練されたGNNの拡張を可能にする。
これらのシナリオを代表する16以上のデータセットで実施された実証検証では、タスクとドメインに依存しないトランスファー学習のためのフレームワークの能力が確認されている。
論文 参考訳(メタデータ) (2025-02-26T15:57:51Z) - Reducing Memory Contention and I/O Congestion for Disk-based GNN Training [6.492879435794228]
グラフニューラルネットワーク(GNN)が広く普及している。高次元特徴を持つ大規模グラフが一般的になり、その上でGNNを訓練するのは簡単ではない。
巨大なグラフが与えられた場合、トレーニングプロセス中にグラフ全体のデータをメモリに保持することは困難であるため、サンプルベースのGNNトレーニングでさえ効率的に動作できない。
したがって、メモリとI/Oはディスクベースのトレーニングに不可欠である。
論文 参考訳(メタデータ) (2024-06-20T04:24:51Z) - CATGNN: Cost-Efficient and Scalable Distributed Training for Graph Neural Networks [7.321893519281194]
既存の分散システムは、グラフパーティショニングのためにメモリ内のグラフ全体をロードします。
低コストでスケーラブルな分散GNNトレーニングシステムであるCATGNNを提案する。
また、分散GNNトレーニングのためのSPRingという新しいストリーミング分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-02T20:55:39Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - FreshGNN: Reducing Memory Access via Stable Historical Embeddings for Graph Neural Network Training [41.85974344854774]
大規模で現実的なグラフ上でグラフニューラルネットワーク(GNN)モデルをトレーニングする際の重要なパフォーマンスボトルネックは、ノード機能をGPUにロードすることだ。
本稿では,GNNノードの埋め込みを格納・再利用するための履歴キャッシュを活用する,汎用的なGNNミニバッチトレーニングフレームワークであるFreshGNNを提案する。
FreshGNNはogbn-papers100MやMAG240Mなどのグラフデータセットのトレーニング速度を3.4倍から20.5倍に高速化し、メモリアクセスを59%削減する。
論文 参考訳(メタデータ) (2023-01-18T12:51:13Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。