論文の概要: NeutronStream: A Dynamic GNN Training Framework with Sliding Window for
Graph Streams
- arxiv url: http://arxiv.org/abs/2312.02473v1
- Date: Tue, 5 Dec 2023 03:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:52:16.400758
- Title: NeutronStream: A Dynamic GNN Training Framework with Sliding Window for
Graph Streams
- Title(参考訳): NeutronStream: グラフストリームのためのスライディングウィンドウを備えた動的GNNトレーニングフレームワーク
- Authors: Chaoyi Chen, Dechao Gao, Yanfeng Zhang, Qiange Wang, Zhenbo Fu,
Xuecang Zhang, Junhua Zhu, Yu Gu, Ge Yu
- Abstract要約: NeutronStreamは動的グラフニューラルネットワーク(GNN)モデルをトレーニングするためのフレームワークである。
グラフ更新の空間的および時間的依存関係をキャプチャする。
中性子ストリームは1.48Xから5.87Xまでのスピードアップを実現し、平均精度は3.97%向上した。
- 参考スコア(独自算出の注目度): 12.365456024506901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing Graph Neural Network (GNN) training frameworks have been designed to
help developers easily create performant GNN implementations. However, most
existing GNN frameworks assume that the input graphs are static, but ignore
that most real-world graphs are constantly evolving. Though many dynamic GNN
models have emerged to learn from evolving graphs, the training process of
these dynamic GNNs is dramatically different from traditional GNNs in that it
captures both the spatial and temporal dependencies of graph updates. This
poses new challenges for designing dynamic GNN training frameworks. First, the
traditional batched training method fails to capture real-time structural
evolution information. Second, the time-dependent nature makes parallel
training hard to design. Third, it lacks system supports for users to
efficiently implement dynamic GNNs. In this paper, we present NeutronStream, a
framework for training dynamic GNN models. NeutronStream abstracts the input
dynamic graph into a chronologically updated stream of events and processes the
stream with an optimized sliding window to incrementally capture the
spatial-temporal dependencies of events. Furthermore, NeutronStream provides a
parallel execution engine to tackle the sequential event processing challenge
to achieve high performance. NeutronStream also integrates a built-in graph
storage structure that supports dynamic updates and provides a set of
easy-to-use APIs that allow users to express their dynamic GNNs. Our
experimental results demonstrate that, compared to state-of-the-art dynamic GNN
implementations, NeutronStream achieves speedups ranging from 1.48X to 5.87X
and an average accuracy improvement of 3.97%.
- Abstract(参考訳): 既存のグラフニューラルネットワーク(GNN)トレーニングフレームワークは、開発者がパフォーマンスの高いGNN実装を簡単に作成できるように設計されている。
しかし、既存のほとんどのGNNフレームワークは、入力グラフは静的であるが、ほとんどの現実世界のグラフが常に進化していることを無視している。
グラフの進化から学ぶために多くの動的GNNモデルが登場したが、これらの動的GNNのトレーニングプロセスは、グラフ更新の空間的および時間的依存関係をキャプチャする従来のGNNと劇的に異なる。
これは動的GNNトレーニングフレームワークの設計に新たな課題をもたらす。
まず、従来のバッチトレーニング手法では、リアルタイムな構造進化情報をキャプチャできない。
第二に、時間に依存した性質は並列トレーニングを設計を困難にします。
第3に、動的GNNを効率的に実装するためのシステムサポートがない。
本稿では,動的GNNモデルのトレーニングフレームワークであるNeutronStreamについて述べる。
neutronstreamは入力された動的グラフを時系列的に更新したイベントストリームに抽象化し、ストリームを最適化されたスライディングウィンドウで処理し、イベントの空間的-時間的依存関係を漸進的にキャプチャする。
さらに、NeutronStreamは並列実行エンジンを提供し、高いパフォーマンスを達成するためのシーケンシャルなイベント処理課題に取り組む。
NeutronStreamはまた、動的更新をサポートする組み込みグラフストレージ構造を統合し、ユーザが動的GNNを表現できる使いやすいAPIセットを提供する。
実験の結果,現状の動的GNN実装と比較して,NeurotronStreamは1.48Xから5.87Xまで,平均精度は3.97%向上した。
関連論文リスト
- D3-GNN: Dynamic Distributed Dataflow for Streaming Graph Neural Networks [2.3283463706065763]
ストリーミンググラフ上のグラフニューラルネットワーク(GNN)モデルには、その動的状態を継続的にキャプチャするアルゴリズム上の課題が伴う。
D3-GNNは、オンラインクエリ設定下でリアルタイムグラフ更新を処理するように設計された、最初の分散並列型ストリーミングGNNシステムである。
論文 参考訳(メタデータ) (2024-09-10T11:00:43Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - GNNFlow: A Distributed Framework for Continuous Temporal GNN Learning on
Dynamic Graphs [11.302970701867844]
本稿では,効率的な時間的グラフ表現学習のための分散フレームワークであるGNNFlowを紹介する。
GNNFlowは、負荷バランスを確保するために、静的スケジューリングを備えた複数のマシンでの分散トレーニングをサポートする。
実験の結果,GNNFlowは既存のシステムに比べて最大21.1倍高速な継続的学習を実現することがわかった。
論文 参考訳(メタデータ) (2023-11-29T07:30:32Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - DGC: Training Dynamic Graphs with Spatio-Temporal Non-Uniformity using
Graph Partitioning by Chunks [13.279145021338534]
動的グラフニューラルネットワーク(DGNN)は、空間的特徴と時間的特徴の両方を利用して動的グラフを学習する強力な能力を示している。
DGCは分散DGNNトレーニングシステムであり,テストベッドにおける最先端技術よりも1.25倍から7.52倍の高速化を実現する。
論文 参考訳(メタデータ) (2023-09-07T07:12:59Z) - Communication-Free Distributed GNN Training with Vertex Cut [63.22674903170953]
CoFree-GNNは、コミュニケーションのないトレーニングを実装することで、トレーニングプロセスを大幅に高速化する、分散GNNトレーニングフレームワークである。
我々は、CoFree-GNNが既存の最先端のGNNトレーニングアプローチよりも最大10倍高速なGNNトレーニングプロセスを実証した。
論文 参考訳(メタデータ) (2023-08-06T21:04:58Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - Characterizing the Efficiency of Graph Neural Network Frameworks with a
Magnifying Glass [10.839902229218577]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連学習タスクの成功により、大きな注目を集めている。
近年のGNNは,大規模グラフ上でのGNNのミニバッチトレーニングのために,異なるグラフサンプリング手法を用いて開発されている。
グリーンコンピューティングの観点から、フレームワークがどの程度"エコフレンドリー"であるかは不明だ。
論文 参考訳(メタデータ) (2022-11-06T04:22:19Z) - ROLAND: Graph Learning Framework for Dynamic Graphs [75.96510058864463]
グラフニューラルネットワーク(GNN)は多くの実世界の静的グラフに適用されている。
既存の動的GNNには静的GNNの最先端設計が組み込まれていない。
実世界の動的グラフのための効果的なグラフ表現学習フレームワーク ROLAND を提案する。
論文 参考訳(メタデータ) (2022-08-15T14:51:47Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。