論文の概要: Efficient Graph Neural Network Inference at Large Scale
- arxiv url: http://arxiv.org/abs/2211.00495v1
- Date: Tue, 1 Nov 2022 14:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:18:13.615018
- Title: Efficient Graph Neural Network Inference at Large Scale
- Title(参考訳): 大規模グラフニューラルネットワークの効率的な推論
- Authors: Xinyi Gao, Wentao Zhang, Yingxia Shao, Quoc Viet Hung Nguyen, Bin Cui,
Hongzhi Yin
- Abstract要約: グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
- 参考スコア(独自算出の注目度): 54.89457550773165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have demonstrated excellent performance in a
wide range of applications. However, the enormous size of large-scale graphs
hinders their applications under real-time inference scenarios. Although
existing scalable GNNs leverage linear propagation to preprocess the features
and accelerate the training and inference procedure, these methods still suffer
from scalability issues when making inferences on unseen nodes, as the feature
preprocessing requires the graph is known and fixed. To speed up the inference
in the inductive setting, we propose a novel adaptive propagation order
approach that generates the personalized propagation order for each node based
on its topological information. This could successfully avoid the redundant
computation of feature propagation. Moreover, the trade-off between accuracy
and inference latency can be flexibly controlled by simple hyper-parameters to
match different latency constraints of application scenarios. To compensate for
the potential inference accuracy loss, we further propose Inception
Distillation to exploit the multi scale reception information and improve the
inference performance. Extensive experiments are conducted on four public
datasets with different scales and characteristics, and the experimental
results show that our proposed inference acceleration framework outperforms the
SOTA graph inference acceleration baselines in terms of both accuracy and
efficiency. In particular, the advantage of our proposed method is more
significant on larger-scale datasets, and our framework achieves $75\times$
inference speedup on the largest Ogbn-products dataset.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
しかし、大規模グラフの巨大なサイズは、リアルタイム推論シナリオ下でアプリケーションを妨げる。
既存のスケーラブルなgnnは、機能を前処理し、トレーニングと推論手順を加速するために線形伝播を利用するが、これらのメソッドは、未認識のノードで推論を行う際に拡張性の問題に苦しんでいる。
帰納的環境での推論を高速化するため,各ノードに対して,そのトポロジ情報に基づいてパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
これにより、機能の分散の冗長な計算を回避できる。
さらに、正確性と推論遅延の間のトレードオフは、アプリケーションシナリオの異なるレイテンシ制約に適合するように、単純なハイパーパラメータによって柔軟に制御できる。
潜在的な推論精度の損失を補うために,マルチスケール受信情報を利用して推論性能を向上させるインセプション蒸留を提案する。
提案した推論加速フレームワークは,精度と効率の両面でSOTAグラフ推論加速度ベースラインを上回っていることを示す。
特に,提案手法の利点は大規模データセットにおいてより重要であり,我々のフレームワークは最大規模のOgbn-productsデータセット上で75\times$推論スピードアップを達成する。
関連論文リスト
- A Data-Driven Approach to Dataflow-Aware Online Scheduling for Graph Neural Network Inference [3.734578883171713]
GNN推論におけるデータフローを考慮した遅延予測のためのデータ駆動フレームワークを提案する。
我々の回帰器は、与えられたグラフに対して最大91.28%の精度で最適なデータフローを予測でき、平均絶対パーセンテージ誤差(MAPE)は3.78%である。
本稿では、これらの回帰器を用いてスケジューリング決定を強化するオンラインスケジューリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-25T12:38:59Z) - Sparse Decomposition of Graph Neural Networks [20.768412002413843]
本稿では,集約中に含まれるノード数を削減する手法を提案する。
線形変換された特徴の重み付け和を用いてノード表現の近似を学習し、スパース分解によりこれを実現できる。
提案手法は推論高速化のために設計された他のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-25T17:52:16Z) - Adapting to Length Shift: FlexiLength Network for Trajectory Prediction [53.637837706712794]
軌道予測は、自律運転、ロボット工学、シーン理解など、様々な応用において重要な役割を果たしている。
既存のアプローチは主に、一般に標準入力時間を用いて、公開データセットの予測精度を高めるために、コンパクトなニューラルネットワークの開発に重点を置いている。
本稿では,様々な観測期間に対する既存の軌道予測の堅牢性を高めるための,汎用的で効果的なフレームワークFlexiLength Network(FLN)を紹介する。
論文 参考訳(メタデータ) (2024-03-31T17:18:57Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。