論文の概要: JEDI-linear: Fast and Efficient Graph Neural Networks for Jet Tagging on FPGAs
- arxiv url: http://arxiv.org/abs/2508.15468v1
- Date: Thu, 21 Aug 2025 11:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.298841
- Title: JEDI-linear: Fast and Efficient Graph Neural Networks for Jet Tagging on FPGAs
- Title(参考訳): JEDI-linear:FPGA上のジェットタグ処理のための高速かつ効率的なグラフニューラルネットワーク
- Authors: Zhiqiang Que, Chang Sun, Sudarshan Paramesvaran, Emyr Clement, Katerina Karakoulaki, Christopher Brown, Lauri Laatu, Arianna Cox, Alexander Tapper, Wayne Luk, Maria Spiropulu,
- Abstract要約: グラフニューラルネットワーク (GNN) は、CERN High Luminosity Large Hadron Collider (HLLHC) において、ジェットタグの異常な性能を示した。
本稿では,線形計算複雑性を持つ新しいGNNアーキテクチャであるJEDI-linearを提案する。
これは60ns未満のレイテンシを達成した初めてのインタラクションベースのGNNであり、現在はHL-LHC CMS Level-1トリガシステムで使用される要件を満たしている。
- 参考スコア(独自算出の注目度): 36.158374493924455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs), particularly Interaction Networks (INs), have shown exceptional performance for jet tagging at the CERN High-Luminosity Large Hadron Collider (HL-LHC). However, their computational complexity and irregular memory access patterns pose significant challenges for deployment on FPGAs in hardware trigger systems, where strict latency and resource constraints apply. In this work, we propose JEDI-linear, a novel GNN architecture with linear computational complexity that eliminates explicit pairwise interactions by leveraging shared transformations and global aggregation. To further enhance hardware efficiency, we introduce fine-grained quantization-aware training with per-parameter bitwidth optimization and employ multiplier-free multiply-accumulate operations via distributed arithmetic. Evaluation results show that our FPGA-based JEDI-linear achieves 3.7 to 11.5 times lower latency, up to 150 times lower initiation interval, and up to 6.2 times lower LUT usage compared to state-of-the-art designs while also delivering higher model accuracy and eliminating the need for DSP blocks entirely. In contrast, state-of-the-art solutions consume over 8,700 DSPs. This is the first interaction-based GNN to achieve less than 60~ns latency and currently meets the requirements for use in the HL-LHC CMS Level-1 trigger system. This work advances the next-generation trigger systems by enabling accurate, scalable, and resource-efficient GNN inference in real-time environments. Our open-sourced templates will further support reproducibility and broader adoption across scientific applications.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)、特にインタラクションネットワーク(IN)は、CERN High-Luminosity Large Hadron Collider (HL-LHC)において、ジェットタグの異常な性能を示している。
しかし、その計算複雑性と不規則なメモリアクセスパターンは、厳密なレイテンシとリソース制約が適用されるハードウェアトリガーシステムにおけるFPGAへの展開に重大な課題をもたらす。
本研究では,線形計算複雑性を持つ新しいGNNアーキテクチャであるJEDI-linearを提案する。
ハードウェア効率をさらに高めるため、パラメータごとのビット幅最適化による微粒な量子化認識トレーニングを導入し、分散算術による乗算器フリーな乗算累積演算を採用する。
評価の結果,FPGAベースのJEDIリニアは3.7~11.5倍のレイテンシ,150倍の開始間隔,最大6.2倍のLUT使用率を実現し,モデル精度の向上とDSPブロックの必要性を完全に排除した。
対照的に、最先端のソリューションは8700以上のDSPを消費する。
HL-LHC CMS Level-1トリガシステムで使用するための要件を満たしている。
この作業は、リアルタイム環境における正確でスケーラブルでリソース効率のよいGNN推論を可能にすることによって、次世代のトリガーシステムを進化させる。
当社のオープンソーステンプレートは、再現性と科学的応用における広範な採用をさらに支援します。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Hardware-Software Co-optimised Fast and Accurate Deep Reconfigurable Spiking Inference Accelerator Architecture Design Methodology [2.968768532937366]
Spiking Neural Networks(SNN)は、機械学習モデルのエネルギー効率を改善するための有望なアプローチとして登場した。
我々は,ソフトウェア学習深層ニューラルネットワーク(DNN)を高精度スパイキングモデルに移植するハードウェア・ソフトウェア共同最適化戦略を開発した。
論文 参考訳(メタデータ) (2024-10-07T05:04:13Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - LL-GNN: Low Latency Graph Neural Networks on FPGAs for High Energy
Physics [45.666822327616046]
本研究は,粒子検出器のための低グラフニューラルネットワーク(LL-GNN)設計のための新しい再構成可能なアーキテクチャを提案する。
LL-GNNの設計は、洗練されたアルゴリズムが実験データを効率的に処理できるようにすることで、次世代のトリガーシステムを進化させる。
論文 参考訳(メタデータ) (2022-09-28T12:55:35Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。