論文の概要: InkStream: Real-time GNN Inference on Streaming Graphs via Incremental
Update
- arxiv url: http://arxiv.org/abs/2309.11071v1
- Date: Wed, 20 Sep 2023 05:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 17:13:57.080029
- Title: InkStream: Real-time GNN Inference on Streaming Graphs via Incremental
Update
- Title(参考訳): InkStream: インクリメンタルアップデートによるストリーミンググラフのリアルタイムGNN推論
- Authors: Dan Wu, Zhaoying Li, Tulika Mitra
- Abstract要約: 静的グラフ用に設計された古典グラフニューラルネットワーク(GNN)推論アプローチは、時間とともに進化するストリーミンググラフには適していない。
本稿では,メモリアクセスと計算を最小限に抑えたリアルタイム推論のための新しい手法であるInkStreamを提案する。
4つのグラフ上の3つのGNNモデルによる実験により、InkStreamはCPUクラスタ上で2.5-427$times$と2つの異なるGPUクラスタ上で2.4-343$times$を加速することを示した。
- 参考スコア(独自算出の注目度): 6.4677254491956955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classic Graph Neural Network (GNN) inference approaches, designed for static
graphs, are ill-suited for streaming graphs that evolve with time. The dynamism
intrinsic to streaming graphs necessitates constant updates, posing unique
challenges to acceleration on GPU. We address these challenges based on two key
insights: (1) Inside the $k$-hop neighborhood, a significant fraction of the
nodes is not impacted by the modified edges when the model uses min or max as
aggregation function; (2) When the model weights remain static while the graph
structure changes, node embeddings can incrementally evolve over time by
computing only the impacted part of the neighborhood. With these insights, we
propose a novel method, InkStream, designed for real-time inference with
minimal memory access and computation, while ensuring an identical output to
conventional methods. InkStream operates on the principle of propagating and
fetching data only when necessary. It uses an event-based system to control
inter-layer effect propagation and intra-layer incremental updates of node
embedding. InkStream is highly extensible and easily configurable by allowing
users to create and process customized events. We showcase that less than 10
lines of additional user code are needed to support popular GNN models such as
GCN, GraphSAGE, and GIN. Our experiments with three GNN models on four large
graphs demonstrate that InkStream accelerates by 2.5-427$\times$ on a CPU
cluster and 2.4-343$\times$ on two different GPU clusters while producing
identical outputs as GNN model inference on the latest graph snapshot.
- Abstract(参考訳): 静的グラフ用に設計された古典グラフニューラルネットワーク(GNN)推論アプローチは、時間とともに進化するストリーミンググラフには適していない。
ストリーミンググラフに固有のダイナミズムは、一定の更新を必要とし、GPU上でのアクセラレーションに固有の課題を提起する。
1)$k$-hop地区内では,モデルが min あるいは max をアグリゲーション関数として使用している場合,ノードのかなりの部分が修正エッジの影響を受けない。(2) グラフ構造が変化する間も,モデルの重みが静的である場合,ノードの埋め込みは近傍の影響を受ける部分のみを計算することで,時間とともに徐々に進化する。
そこで本研究では,メモリアクセスと計算を最小限に抑えつつ,従来の手法と同一の出力を確保しつつ,リアルタイムな推論が可能な新しい手法であるInkStreamを提案する。
InkStreamは、必要に応じてのみデータを伝搬およびフェッチする原則で動作する。
イベントベースのシステムを使用して、ノード埋め込みの層間効果伝搬と層間インクリメンタルアップデートを制御する。
inkstreamは高度に拡張可能で、ユーザがカスタマイズされたイベントの作成と処理を可能にすることで、構成が容易になる。
GCNやGraphSAGE,GINといった一般的なGNNモデルをサポートするには,10行足らずの追加ユーザコードが必要になります。
4つのグラフ上の3つのGNNモデルによる実験により、InkStreamはCPUクラスタ上で2.5-427$\times$と2.4-343$\times$を加速し、最新のグラフスナップショット上でGNNモデル推論と同じ出力を生成する。
関連論文リスト
- D3-GNN: Dynamic Distributed Dataflow for Streaming Graph Neural Networks [2.3283463706065763]
ストリーミンググラフ上のグラフニューラルネットワーク(GNN)モデルには、その動的状態を継続的にキャプチャするアルゴリズム上の課題が伴う。
D3-GNNは、オンラインクエリ設定下でリアルタイムグラフ更新を処理するように設計された、最初の分散並列型ストリーミングGNNシステムである。
論文 参考訳(メタデータ) (2024-09-10T11:00:43Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - GNNFlow: A Distributed Framework for Continuous Temporal GNN Learning on
Dynamic Graphs [11.302970701867844]
本稿では,効率的な時間的グラフ表現学習のための分散フレームワークであるGNNFlowを紹介する。
GNNFlowは、負荷バランスを確保するために、静的スケジューリングを備えた複数のマシンでの分散トレーニングをサポートする。
実験の結果,GNNFlowは既存のシステムに比べて最大21.1倍高速な継続的学習を実現することがわかった。
論文 参考訳(メタデータ) (2023-11-29T07:30:32Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Instant Graph Neural Networks for Dynamic Graphs [18.916632816065935]
Instant Graph Neural Network (InstantGNN) を提案する。
提案手法は,時間を要する反復計算を回避し,表現の即時更新と即時予測を可能にする。
本モデルでは,既存手法よりも高精度かつ高次精度で最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-06-03T03:27:42Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming [1.566528527065232]
グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-27T17:59:25Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。