論文の概要: End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs
- arxiv url: http://arxiv.org/abs/2304.06745v1
- Date: Thu, 13 Apr 2023 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 15:39:48.279359
- Title: End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs
- Title(参考訳): FPGAとASICのためのヘッセン対応量子化ニューラルネットワークのエンドツーエンド符号
- Authors: Javier Campos, Zhen Dong, Javier Duarte, Amir Gholami, Michael W.
Mahoney, Jovan Mitrevski, Nhan Tran
- Abstract要約: 我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
- 参考スコア(独自算出の注目度): 49.358119307844035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop an end-to-end workflow for the training and implementation of
co-designed neural networks (NNs) for efficient field-programmable gate array
(FPGA) and application-specific integrated circuit (ASIC) hardware. Our
approach leverages Hessian-aware quantization (HAWQ) of NNs, the Quantized Open
Neural Network Exchange (QONNX) intermediate representation, and the hls4ml
tool flow for transpiling NNs into FPGA and ASIC firmware. This makes efficient
NN implementations in hardware accessible to nonexperts, in a single
open-sourced workflow that can be deployed for real-time machine learning
applications in a wide range of scientific and industrial settings. We
demonstrate the workflow in a particle physics application involving trigger
decisions that must operate at the 40 MHz collision rate of the CERN Large
Hadron Collider (LHC). Given the high collision rate, all data processing must
be implemented on custom ASIC and FPGA hardware within a strict area and
latency. Based on these constraints, we implement an optimized mixed-precision
NN classifier for high-momentum particle jets in simulated LHC proton-proton
collisions.
- Abstract(参考訳): 本研究では、FPGA(フィールドプログラマブルゲートアレイ)とASIC(アプリケーション固有集積回路)ハードウェアのための、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
提案手法は,NNのヘッセン対応量子化(HAWQ),量子化されたオープンニューラルネットワーク交換(QONNX)中間表現,およびNNをFPGAおよびASICファームウェアに変換するためのhls4mlツールフローを活用する。
これにより、非専門家が利用できるハードウェアの効率的なnn実装が、1つのオープンソースワークフローで実現され、幅広い科学的および工業的な環境でリアルタイム機械学習アプリケーション向けにデプロイできる。
CERN大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
衝突率が高いため、すべてのデータ処理は、厳格な領域とレイテンシで、カスタムASICおよびFPGAハードウェア上で実装されなければならない。
これらの制約に基づき、シミュレーションLHC陽子-陽子衝突における高分子粒子ジェットに対する最適化された混合精度NN分類器を実装した。
関連論文リスト
- Ultra-low latency quantum-inspired machine learning predictors implemented on FPGA [0.0]
ツリーネットワーク(TN)は、量子多体系を表現するために用いられる計算パラダイムである。
最近の研究は、機械学習(ML)タスクの実行にTNを適用する方法を示している。
本研究では、FPGA(Field-Programmable Gate Array)技術の低ハードウェアを利用して、TTNを高周波リアルタイムアプリケーションに利用することを検討した。
論文 参考訳(メタデータ) (2024-09-24T13:21:21Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Decomposition of Matrix Product States into Shallow Quantum Circuits [62.5210028594015]
テンソルネットワーク(TN)アルゴリズムは、パラメタライズド量子回路(PQC)にマッピングできる
本稿では,現実的な量子回路を用いてTN状態を近似する新しいプロトコルを提案する。
その結果、量子回路の逐次的な成長と最適化を含む1つの特定のプロトコルが、他の全ての手法より優れていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-01T17:08:41Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Graph Neural Networks for Charged Particle Tracking on FPGAs [2.6402980149746913]
CERN大型ハドロン衝突型加速器(LHC)における衝突時の荷電粒子軌道の決定は重要な問題であるが難しい問題である。
グラフニューラルネットワーク(GNN)は、幾何学的なディープラーニングアルゴリズムの一種であり、このタスクにうまく適用されている。
我々は、GNNをフィールドプログラマブルゲートアレイ(FPGA)のためのファームウェアに変換するための、$textthls4ml$と呼ばれるより広範なツールに統合された自動翻訳ワークフローを導入する。
論文 参考訳(メタデータ) (2021-12-03T17:56:10Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - MSP: An FPGA-Specific Mixed-Scheme, Multi-Precision Deep Neural Network
Quantization Framework [39.43144643349916]
本稿では,ディープラーニングエッジコンピューティングのハードウェアプラットフォームとして一般的に使用されているFPGAデバイスを対象としている。
線形数と非線形数の両方を量子化に組み込んだ混合スキームDNN量子化法を提案する。
我々は,層間次元に沿って複数の精度をサポートする量子化法を用い,既存の量子化法は層間次元に沿って多重精度の量子化を適用する。
論文 参考訳(メタデータ) (2020-09-16T04:24:18Z) - A Learning Framework for n-bit Quantized Neural Networks toward FPGAs [20.83904734716565]
重みが2つのパワーに制約されるnビットQNNのための新しい学習フレームワークを提案する。
また,n-BQ-NNという新しいQNN構造も提案する。
SVPEを用いたN-BQ-NNは,ベクトル処理素子(VPE)よりも2.9倍高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2020-04-06T04:21:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。