論文の概要: Hardware-Aware Graph Neural Network Automated Design for Edge Computing
Platforms
- arxiv url: http://arxiv.org/abs/2303.10875v2
- Date: Thu, 13 Apr 2023 09:07:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 20:04:15.817556
- Title: Hardware-Aware Graph Neural Network Automated Design for Edge Computing
Platforms
- Title(参考訳): エッジコンピューティングプラットフォームのためのハードウェア対応グラフニューラルネットワークの自動設計
- Authors: Ao Zhou, Jianlei Yang, Yingjie Qi, Yumeng Shi, Tong Qiao, Weisheng
Zhao, Chunming Hu
- Abstract要約: HGNASは、リソース制約エッジデバイスをターゲットにした最初のハードウェア対応グラフニューラルネットワーク検索フレームワークとして提案されている。
その結果、HGNASは、様々なエッジデバイス上でのDGCNNと比較して、無視できる精度の損失で、約10.6倍のスピードアップと8.2%のピークメモリ削減を達成できることがわかった。
- 参考スコア(独自算出の注目度): 9.345807588929734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have emerged as a popular strategy for handling
non-Euclidean data due to their state-of-the-art performance. However, most of
the current GNN model designs mainly focus on task accuracy, lacking in
considering hardware resources limitation and real-time requirements of edge
application scenarios. Comprehensive profiling of typical GNN models indicates
that their execution characteristics are significantly affected across
different computing platforms, which demands hardware awareness for efficient
GNN designs. In this work, HGNAS is proposed as the first Hardware-aware Graph
Neural Architecture Search framework targeting resource constraint edge
devices. By decoupling the GNN paradigm, HGNAS constructs a fine-grained design
space and leverages an efficient multi-stage search strategy to explore optimal
architectures within a few GPU hours. Moreover, HGNAS achieves hardware
awareness during the GNN architecture design by leveraging a hardware
performance predictor, which could balance the GNN model accuracy and
efficiency corresponding to the characteristics of targeted devices.
Experimental results show that HGNAS can achieve about $10.6\times$ speedup and
$88.2\%$ peak memory reduction with a negligible accuracy loss compared to
DGCNN on various edge devices, including Nvidia RTX3080, Jetson TX2, Intel
i7-8700K and Raspberry Pi 3B+.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、非ユークリッドデータを扱うための一般的な戦略として登場した。
しかしながら、現在のGNNモデルは、ハードウェアリソースの制限やエッジアプリケーションシナリオのリアルタイム要件を考慮していないため、主にタスクの正確性に重点を置いている。
典型的なGNNモデルの包括的なプロファイリングは、その実行特性が様々なコンピューティングプラットフォームに大きく影響していることを示し、効率的なGNN設計のためにハードウェアの認識を要求する。
本研究では,リソース制約エッジデバイスを対象としたハードウェア対応グラフニューラルネットワーク検索フレームワークとして,HGNASを提案する。
GNNパラダイムを分離することで、HGNASはきめ細かい設計空間を構築し、効率的な多段階探索戦略を活用して、数時間以内に最適なアーキテクチャを探索する。
さらに、HGNASは、ハードウェア性能予測器を利用して、ターゲットデバイスの特性に応じたGNNモデルの精度と効率のバランスをとることにより、GNNアーキテクチャ設計時のハードウェア認識を実現する。
実験の結果、hgnasはnvidia rtx3080、jetson tx2、intel i7-8700k、raspberry pi 3b+を含む様々なエッジデバイスでのdgcnnと比較して、約10.6\times$ speedupと8.2\%$ peak memory reductionを達成した。
関連論文リスト
- HGNAS: Hardware-Aware Graph Neural Architecture Search for Edge Devices [11.1990060370675]
本研究は,リソース制約エッジデバイス,すなわちHGNASに適した,ハードウェア対応の新たなグラフニューラルネットワーク探索フレームワークを提案する。
HGNASは効率的なGNNハードウェア性能予測器を統合し、ミリ秒でGNNのレイテンシとピークメモリ使用率を評価する。
ModelNet40のDGCNNと比較して、最大10.6倍のスピードアップと82.5%のピークメモリ削減を実現している。
論文 参考訳(メタデータ) (2024-08-23T05:11:22Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - MaGNAS: A Mapping-Aware Graph Neural Architecture Search Framework for
Heterogeneous MPSoC Deployment [8.29394286023338]
ヘテロジニアスMPSoCプラットフォーム上でのビジョンGNNワークロードの効率的な処理を実現するための新しい設計マッピング手法を提案する。
MaGNASは、2階層の進化的探索を用いて最適なGNNを特定し、最高のパフォーマンストレードオフをもたらすペアリングをマッピングする。
我々の実験結果によると、MaGNASは1.57倍のレイテンシ速度を提供でき、Xavier MPSoCで実行される複数のビジョンデータセットとGPUのみのデプロイメントでは3.38倍エネルギー効率が向上している。
論文 参考訳(メタデータ) (2023-07-16T14:56:50Z) - GHOST: A Graph Neural Network Accelerator using Silicon Photonics [4.226093500082746]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデリングと学習を行うための強力なアプローチとして登場した。
GHOSTは、GNNのための最初のシリコンフォトニックハードウェアアクセラレータである。
論文 参考訳(メタデータ) (2023-07-04T15:37:20Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Hardware/Software Co-Programmable Framework for Computational SSDs to
Accelerate Deep Learning Service on Large-Scale Graphs [8.698995648930806]
グラフニューラルネットワーク(GNN)は、100億のエッジからなる大規模グラフを処理する。
高速でエネルギー効率のよいGNN処理のための,使い易く,ほぼ保存可能な推論基盤を提供する,大規模グラフの新たなディープラーニングフレームワークであるHolisticGNNを提案する。
論文 参考訳(メタデータ) (2022-01-23T06:08:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - BlockGNN: Towards Efficient GNN Acceleration Using Block-Circulant
Weight Matrices [9.406007544032848]
グラフニューラルネットワーク(GNN)は、非ユークリッドグラフデータを分析するための最先端のアルゴリズムです。
リアルタイムにGNNを推論する方法は、リソース制限のあるエッジコンピューティングプラットフォームでは難しい問題となっている。
効率的なGNN加速を実現するソフトウェアハードウェアの共同設計手法であるBlockGNNを提案する。
論文 参考訳(メタデータ) (2021-04-13T14:09:22Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。