論文の概要: Efficient Graph Neural Network Inference at Large Scale
- arxiv url: http://arxiv.org/abs/2211.00495v1
- Date: Tue, 1 Nov 2022 14:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:18:13.615018
- Title: Efficient Graph Neural Network Inference at Large Scale
- Title(参考訳): 大規模グラフニューラルネットワークの効率的な推論
- Authors: Xinyi Gao, Wentao Zhang, Yingxia Shao, Quoc Viet Hung Nguyen, Bin Cui,
Hongzhi Yin
- Abstract要約: グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
- 参考スコア(独自算出の注目度): 54.89457550773165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have demonstrated excellent performance in a
wide range of applications. However, the enormous size of large-scale graphs
hinders their applications under real-time inference scenarios. Although
existing scalable GNNs leverage linear propagation to preprocess the features
and accelerate the training and inference procedure, these methods still suffer
from scalability issues when making inferences on unseen nodes, as the feature
preprocessing requires the graph is known and fixed. To speed up the inference
in the inductive setting, we propose a novel adaptive propagation order
approach that generates the personalized propagation order for each node based
on its topological information. This could successfully avoid the redundant
computation of feature propagation. Moreover, the trade-off between accuracy
and inference latency can be flexibly controlled by simple hyper-parameters to
match different latency constraints of application scenarios. To compensate for
the potential inference accuracy loss, we further propose Inception
Distillation to exploit the multi scale reception information and improve the
inference performance. Extensive experiments are conducted on four public
datasets with different scales and characteristics, and the experimental
results show that our proposed inference acceleration framework outperforms the
SOTA graph inference acceleration baselines in terms of both accuracy and
efficiency. In particular, the advantage of our proposed method is more
significant on larger-scale datasets, and our framework achieves $75\times$
inference speedup on the largest Ogbn-products dataset.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
しかし、大規模グラフの巨大なサイズは、リアルタイム推論シナリオ下でアプリケーションを妨げる。
既存のスケーラブルなgnnは、機能を前処理し、トレーニングと推論手順を加速するために線形伝播を利用するが、これらのメソッドは、未認識のノードで推論を行う際に拡張性の問題に苦しんでいる。
帰納的環境での推論を高速化するため,各ノードに対して,そのトポロジ情報に基づいてパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
これにより、機能の分散の冗長な計算を回避できる。
さらに、正確性と推論遅延の間のトレードオフは、アプリケーションシナリオの異なるレイテンシ制約に適合するように、単純なハイパーパラメータによって柔軟に制御できる。
潜在的な推論精度の損失を補うために,マルチスケール受信情報を利用して推論性能を向上させるインセプション蒸留を提案する。
提案した推論加速フレームワークは,精度と効率の両面でSOTAグラフ推論加速度ベースラインを上回っていることを示す。
特に,提案手法の利点は大規模データセットにおいてより重要であり,我々のフレームワークは最大規模のOgbn-productsデータセット上で75\times$推論スピードアップを達成する。
関連論文リスト
- Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - SCARA: Scalable Graph Neural Networks with Feature-Oriented Optimization [23.609017952951454]
グラフ計算のための特徴指向最適化を備えたスケーラブルグラフニューラルネットワーク(GNN)であるSCARAを提案する。
SCARAはノードの特徴からグラフの埋め込みを効率的に計算し、機能の結果を選択して再利用することでオーバーヘッドを減らします。
利用可能な最大10億のGNNデータセットであるPapers100M(1110万ノード、1.6Bエッジ)を100秒でプリ計算するのが効率的である。
論文 参考訳(メタデータ) (2022-07-19T10:32:11Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。