論文の概要: GCV-Turbo: End-to-end Acceleration of GNN-based Computer Vision Tasks on FPGA
- arxiv url: http://arxiv.org/abs/2404.07188v1
- Date: Wed, 10 Apr 2024 17:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 13:42:08.032956
- Title: GCV-Turbo: End-to-end Acceleration of GNN-based Computer Vision Tasks on FPGA
- Title(参考訳): GCV-Turbo:FPGAによるGNNベースのコンピュータビジョンタスクのエンドツーエンド高速化
- Authors: Bingyi Zhang, Rajgopal Kannan, Carl Busart, Viktor Prasanna,
- Abstract要約: グラフニューラルネットワーク(GNN)は最近、様々な新しいコンピュータビジョン(CV)タスクに権限を与えている。
本稿では,FPGA上のドメイン固有アクセラレータであるGCV-Turboについて紹介する。
- 参考スコア(独自算出の注目度): 3.2507129535290926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have recently empowered various novel computer vision (CV) tasks. In GNN-based CV tasks, a combination of CNN layers and GNN layers or only GNN layers are employed. This paper introduces GCV-Turbo, a domain-specific accelerator on FPGA for end-to-end acceleration of GNN-based CV tasks. GCV-Turbo consists of two key components: (1) a \emph{novel} hardware architecture optimized for the computation kernels in both CNNs and GNNs using the same set of computation resources. (2) a PyTorch-compatible compiler that takes a user-defined model as input, performs end-to-end optimization for the computation graph of a given GNN-based CV task, and produces optimized code for hardware execution. The hardware architecture and the compiler work synergistically to support a variety of GNN-based CV tasks. We implement GCV-Turbo on a state-of-the-art FPGA and evaluate its performance across six representative GNN-based CV tasks with diverse input data modalities (e.g., image, human skeleton, point cloud). Compared with state-of-the-art CPU (GPU) implementations, GCV-Turbo achieves an average latency reduction of $68.4\times$ ($4.1\times$) on these six GNN-based CV tasks. Moreover, GCV-Turbo supports the execution of the standalone CNNs or GNNs, achieving performance comparable to that of state-of-the-art CNN (GNN) accelerators for widely used CNN-only (GNN-only) models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は最近、様々な新しいコンピュータビジョン(CV)タスクに権限を与えている。
GNNベースのCVタスクでは、CNN層とGNN層の組み合わせ、あるいはGNN層のみを使用する。
本稿では,FPGA上のドメイン固有アクセラレータであるGCV-Turboについて紹介する。
GCV-Turbo は、(1) CNN と GNN の両方の計算カーネルに最適化された \emph{novel} ハードウェアアーキテクチャで、同じ計算リソースセットを使用する。
2) PyTorch互換コンパイラは,ユーザ定義モデルを入力として,所定のGNNベースのCVタスクの計算グラフをエンドツーエンドに最適化し,ハードウェア実行のための最適化コードを生成する。
ハードウェアアーキテクチャとコンパイラは、様々なGNNベースのCVタスクをサポートするために相乗的に機能する。
我々は,最新のFPGA上にGCV-Turboを実装し,GNNをベースとした6つの代表的CVタスク(画像,人体骨格,点クラウドなど)の性能評価を行った。
最先端のCPU(GPU)実装と比較すると、GCV-Turboは6つのGNNベースのCVタスクで平均6.8.4\times$(4.1\times$)のレイテンシ削減を実現している。
さらに、GCV-TurboはスタンドアロンのCNNまたはGNNの実行をサポートし、広く使われているCNNのみ(GNNのみ)モデルに対して、最先端のCNN(GNN)アクセラレータに匹敵するパフォーマンスを達成する。
関連論文リスト
- DF-GNN: Dynamic Fusion Framework for Attention Graph Neural Networks on GPUs [10.766922709869831]
本稿では,Attention Graph Neural Networks (AT-GNN) ファミリーを対象とした動的カーネル融合フレームワーク DF-GNN を提案する。
DF-GNNは動的双方向スレッドスケジューリング戦略を導入し、スレッドスケジューリングの柔軟な調整を可能にする。
cuGraphやdgNNのような既存のGNNカーネルの最適化作業を超え、最先端のDGLスパースライブラリよりも7.0times$のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-11-25T06:26:58Z) - MAG-GNN: Reinforcement Learning Boosted Graph Neural Network [68.60884768323739]
特定の研究の行は、GNNの表現性を向上させるためにサブグラフ情報を使用するサブグラフGNNを提案し、大きな成功を収めた。
このような効果は、すべての可能な部分グラフを列挙することによって、GNNの効率を犠牲にする。
本稿では,強化学習(RL)により強化されたGNNである磁気グラフニューラルネットワーク(MAG-GNN)を提案する。
論文 参考訳(メタデータ) (2023-10-29T20:32:21Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - DGNN-Booster: A Generic FPGA Accelerator Framework For Dynamic Graph
Neural Network Inference [2.2721856484014373]
実時間DGNN推論のための新しいFPGAアクセラレーションフレームワークであるDGNN-Boosterを提案する。
DGNN-Boosterは、CPUベースライン(6226R)と比較して最大5.6倍、GPUベースライン(A6000)に比べて8.4倍、FPGAベースライン(2.1倍)の高速化を実現する。
論文 参考訳(メタデータ) (2023-04-13T21:50:23Z) - GenGNN: A Generic FPGA Framework for Graph Neural Network Acceleration [1.460161657933122]
我々はGenGNNという名前の高レベル合成(HLS)を用いた汎用的なGNN加速フレームワークを提案する。
リアルタイム要求に対するグラフ前処理なしで超高速なGNN推論を実現することを目指している。
我々は,Xilinx Alveo U50 FPGA上での実装を検証するとともに,CPU(6226R)ベースラインに対して最大25倍,GPU(A6000)ベースラインに対して最大13倍のスピードアップを観測する。
論文 参考訳(メタデータ) (2022-01-20T22:30:59Z) - TC-GNN: Bridging Sparse GNN Computation and Dense Tensor Cores on GPUs [21.63854538768414]
我々はGPUコアユニット(TCU)をベースとした最初のGNNフレームワークであるTC-GNNを提案する。
中心となるアイデアは、"スパース"GNNを高性能な"デンス"TCUと整合させることである。
厳密な実験は、最先端のDGLフレームワーク上で平均1.70のスピードアップを示している。
論文 参考訳(メタデータ) (2021-12-03T18:06:23Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Identity-aware Graph Neural Networks [63.6952975763946]
グラフニューラルネットワーク(ID-GNN)を1-WLテストよりも表現力の高いメッセージクラスを開発しています。
ID-GNNは、メッセージパッシング中にノードのIDを誘導的に考慮することにより、既存のGNNアーキテクチャを拡張します。
既存のGNNをID-GNNに変換すると、挑戦ノード、エッジ、グラフプロパティ予測タスクの平均40%の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-25T18:59:01Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。