論文の概要: Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs
- arxiv url: http://arxiv.org/abs/2201.09189v1
- Date: Sun, 23 Jan 2022 06:08:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:12:26.681341
- Title: Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs
- Title(参考訳): 大規模グラフ上でディープラーニングサービスを高速化する計算ssdのためのハードウェア/ソフトウェア協調プログラミングフレームワーク
- Authors: Miryeong Kwon, Donghyun Gouk, Sangwon Lee, Myoungsoo Jung
- Abstract要約: グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
- 参考スコア(独自算出の注目度): 8.698995648930806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) process large-scale graphs consisting of a
hundred billion edges. In contrast to traditional deep learning, unique
behaviors of the emerging GNNs are engaged with a large set of graphs and
embedding data on storage, which exhibits complex and irregular preprocessing.
We propose a novel deep learning framework on large graphs, HolisticGNN, that
provides an easy-to-use, near-storage inference infrastructure for fast,
energy-efficient GNN processing. To achieve the best end-to-end latency and
high energy efficiency, HolisticGNN allows users to implement various GNN
algorithms and directly executes them where the actual data exist in a holistic
manner. It also enables RPC over PCIe such that the users can simply program
GNNs through a graph semantic library without any knowledge of the underlying
hardware or storage configurations.
We fabricate HolisticGNN's hardware RTL and implement its software on an
FPGA-based computational SSD (CSSD). Our empirical evaluations show that the
inference time of HolisticGNN outperforms GNN inference services using
high-performance modern GPUs by 7.1x while reducing energy consumption by
33.2x, on average.
- Abstract(参考訳): グラフニューラルネットワーク(gnn)は、1000億エッジからなる大規模グラフを処理する。
従来のディープラーニングとは対照的に、新興GNNのユニークな振る舞いは、大量のグラフとストレージにデータを埋め込むことで、複雑で不規則な前処理を示す。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
最高のエンドツーエンドのレイテンシと高エネルギー効率を達成するために、HolisticGNNは、ユーザーが様々なGNNアルゴリズムを実装し、実際のデータが存在する場所で直接実行することができる。
また、PCIe上のRPCも可能で、ユーザーは基盤となるハードウェアやストレージの構成を知らずにグラフセマンティックライブラリを通じてGNNをプログラムできる。
本稿では,HolisticGNNのハードウェアRTLを作成し,FPGAベースの計算SSD(CSSD)上に実装する。
実験により,HolisticGNNの予測時間は,高性能な現代GPUを用いたGNN推論サービスを平均で7.1倍,エネルギー消費量は33.2倍に向上した。
関連論文リスト
- HGNAS: Hardware-Aware Graph Neural Architecture Search for Edge Devices [11.1990060370675]
本研究は,リソース制約エッジデバイス,すなわちHGNASに適した,ハードウェア対応の新たなグラフニューラルネットワーク探索フレームワークを提案する。
HGNASは効率的なGNNハードウェア性能予測器を統合し、ミリ秒でGNNのレイテンシとピークメモリ使用率を評価する。
ModelNet40のDGCNNと比較して、最大10.6倍のスピードアップと82.5%のピークメモリ削減を実現している。
論文 参考訳(メタデータ) (2024-08-23T05:11:22Z) - GHOST: A Graph Neural Network Accelerator using Silicon Photonics [4.226093500082746]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
GHOSTは、GNNのための最初のシリコンフォトニックハードウェアアクセラレータである。
論文 参考訳(メタデータ) (2023-07-04T15:37:20Z) - Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching [59.8522166385372]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
論文 参考訳(メタデータ) (2023-05-04T21:04:01Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - FlowGNN: A Dataflow Architecture for Universal Graph Neural Network
Inference via Multi-Queue Streaming [1.566528527065232]
グラフニューラルネットワーク(GNN)は、グラフ関連の問題に広く適用可能であるため、最近人気が高まっている。
効率的な加速器の開発と新しいGNNモデルの迅速な作成の間にギャップがあるため、新しいGNNモデルの需要と高速推論を同時に行うことは困難である。
本稿では,メッセージパッシングGNNの大部分を柔軟にサポートできるFlowGNNという,GNNアクセラレーションのための汎用データフローアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-27T17:59:25Z) - TC-GNN: Bridging Sparse GNN Computation and Dense Tensor Cores on GPUs [21.63854538768414]
我々はGPUコアユニット(TCU)をベースとした最初のGNNフレームワークであるTC-GNNを提案する。
中心となるアイデアは、"スパース"GNNを高性能な"デンス"TCUと整合させることである。
厳密な実験は、最先端のDGLフレームワーク上で平均1.70のスピードアップを示している。
論文 参考訳(メタデータ) (2021-12-03T18:06:23Z) - DistGNN: Scalable Distributed Training for Large-Scale Graph Neural
Networks [58.48833325238537]
大規模グラフの構造を学ぶためにGNN(Graph Neural Networks)のフルバッチトレーニングは、実現可能な数百の計算ノードにスケールする必要がある重要な問題です。
本稿では,CPUクラスタ上でのフルバッチトレーニングのためのDGL(Deep Graph Library)を最適化したGNNについて述べる。
4つの一般的なGNNベンチマークデータセットの結果は、1つのCPUソケットを使用して最大3.7倍のスピードアップ、128のCPUソケットを使用して最大97倍のスピードアップを示す。
論文 参考訳(メタデータ) (2021-04-14T08:46:35Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。