論文の概要: LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics
- arxiv url: http://arxiv.org/abs/2209.14065v5
- Date: Tue, 9 Jan 2024 10:05:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 21:08:29.255389
- Title: LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics
- Title(参考訳): LL-GNN:高エネルギー物理のためのFPGA上の低レイテンシグラフニューラルネットワーク
- Authors: Zhiqiang Que, Hongxiang Fan, Marcus Loo, He Li, Michaela Blott,
Maurizio Pierini, Alexander Tapper and Wayne Luk
- Abstract要約: 本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
- 参考スコア(独自算出の注目度): 45.666822327616046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents a novel reconfigurable architecture for Low Latency Graph
Neural Network (LL-GNN) designs for particle detectors, delivering
unprecedented low latency performance. Incorporating FPGA-based GNNs into
particle detectors presents a unique challenge since it requires
sub-microsecond latency to deploy the networks for online event selection with
a data rate of hundreds of terabytes per second in the Level-1 triggers at the
CERN Large Hadron Collider experiments. This paper proposes a novel
outer-product based matrix multiplication approach, which is enhanced by
exploiting the structured adjacency matrix and a column-major data layout.
Moreover, a fusion step is introduced to further reduce the end-to-end design
latency by eliminating unnecessary boundaries. Furthermore, a GNN-specific
algorithm-hardware co-design approach is presented which not only finds a
design with a much better latency but also finds a high accuracy design under
given latency constraints. To facilitate this, a customizable template for this
low latency GNN hardware architecture has been designed and open-sourced, which
enables the generation of low-latency FPGA designs with efficient resource
utilization using a high-level synthesis tool. Evaluation results show that our
FPGA implementation is up to 9.0 times faster and achieves up to 13.1 times
higher power efficiency than a GPU implementation. Compared to the previous
FPGA implementations, this work achieves 6.51 to 16.7 times lower latency.
Moreover, the latency of our FPGA design is sufficiently low to enable
deployment of GNNs in a sub-microsecond, real-time collider trigger system,
enabling it to benefit from improved accuracy. The proposed LL-GNN design
advances the next generation of trigger systems by enabling sophisticated
algorithms to process experimental data efficiently.
- Abstract(参考訳): 本研究では,低レイテンシグラフニューラルネットワーク(LL-GNN)設計のための新しいアーキテクチャを提案する。
fpgaベースのgnnを粒子検出器に組み込むことは、cernの大型ハドロン衝突型加速器実験でレベル1のトリガーで毎秒数百テラバイトのデータレートでオンラインイベント選択のためのネットワークをデプロイするのにサブマイクロ秒のレイテンシを必要とするため、ユニークな課題である。
本稿では,構造化随伴行列と列長データレイアウトを活用し,新たな外積ベース行列乗算手法を提案する。
さらに、不要なバウンダリを排除し、エンド・ツー・エンドの設計遅延をさらに低減するために、融合ステップを導入する。
さらに、GNN固有のアルゴリズム-ハードウェア共設計アプローチが提示され、より優れたレイテンシを持つ設計を見出すだけでなく、与えられたレイテンシ制約の下での高精度な設計も見出す。
これを容易にするために、この低レイテンシGNNハードウェアアーキテクチャのためのカスタマイズ可能なテンプレートを設計、オープンソース化し、高レベル合成ツールを用いた効率的なリソース利用による低レイテンシFPGA設計を可能にする。
評価の結果,FPGA実装は最大9.0倍高速で,GPU実装の最大13.1倍の電力効率を実現していることがわかった。
従来のFPGA実装と比較して、この作業は6.51から16.7倍のレイテンシを実現する。
さらに、FPGA設計のレイテンシは十分低く、サブマイクロ秒のリアルタイムコライダートリガシステムにGNNを配置できるため、精度の向上によるメリットが期待できる。
提案するll-gnn設計は,高度なアルゴリズムを用いて実験データを効率的に処理することにより,次世代のトリガーシステムを進化させる。
関連論文リスト
- Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Embedded Graph Convolutional Networks for Real-Time Event Data Processing on SoC FPGAs [0.815557531820863]
イベントカメラは、組み込みリアルタイムシステムへの統合に大きな関連性を見出す。
イベント処理システムに必要なスループットとレイテンシを保証する効果的なアプローチの1つは、グラフ畳み込みネットワーク(GCN)の利用である。
我々は,ポイントクラウド処理用に設計されたGCNアーキテクチャであるPointNet++用に最適化された,ハードウェア対応の一連の最適化を紹介した。
論文 参考訳(メタデータ) (2024-06-11T14:47:36Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on
FPGA Devices [71.45672882756001]
本研究では,3次元畳み込みニューラルネットワークをFPGAにマッピングするための,新しいストリーミングアーキテクチャベースのツールフローを提案する。
HARFLOW3Dツールフローは、ONNXフォーマットで3D CNNを入力し、FPGAの特性を記述する。
ツールフローが幅広いモデルやデバイスをサポートする能力は、様々な3D CNNとFPGAシステムペアに関する数多くの実験を通して示される。
論文 参考訳(メタデータ) (2023-03-30T08:25:27Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - High-Performance FPGA-based Accelerator for Bayesian Recurrent Neural
Networks [2.0631735969348064]
本稿では,ベイジアンLSTMベースのRNNを高速化するFPGAベースのハードウェア設計を提案する。
GPU実装と比較して、FPGAベースの設計では、最大106倍のエネルギー効率で10倍のスピードアップを実現できます。
論文 参考訳(メタデータ) (2021-06-04T14:30:39Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Distance-Weighted Graph Neural Networks on FPGAs for Real-Time Particle
Reconstruction in High Energy Physics [11.125632758828266]
FPGA上で1$mumathrms未満のレイテンシで実行できる距離重み付きグラフネットワークの設計方法について論じる。
本研究では,粒子衝突型加速器で動作する次世代熱量計における粒子の再構成と同定に関連する代表的課題について考察する。
我々は、圧縮されたモデルをファームウェアに変換し、FPGA上で実装する。
論文 参考訳(メタデータ) (2020-08-08T21:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。