論文の概要: Exploration of Activation Fault Reliability in Quantized Systolic
Array-Based DNN Accelerators
- arxiv url: http://arxiv.org/abs/2401.09509v1
- Date: Wed, 17 Jan 2024 12:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 19:11:35.975724
- Title: Exploration of Activation Fault Reliability in Quantized Systolic
Array-Based DNN Accelerators
- Title(参考訳): 量子シストリックアレイ型DNN加速器の活性化故障信頼性の探索
- Authors: Mahdi Taheri, Natalia Cherezova, Mohammad Saeed Ansari, Maksim
Jenihhin, Ali Mahani, Masoud Daneshtalab, Jaan Raik
- Abstract要約: 本稿では,量子化がモデル精度,アクティベーション障害の信頼性,ハードウェア効率に与える影響を総合的に評価するための包括的方法論を提案する。
さまざまな量子化対応技術、フォールトインジェクション、ハードウェア実装を適用可能な、完全に自動化されたフレームワークが導入された。
確立されたベンチマーク実験は、信頼性、ハードウェア性能、ネットワーク精度に対する分析フローと量子化の深い影響を実証している。
- 参考スコア(独自算出の注目度): 0.8796261172196743
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The stringent requirements for the Deep Neural Networks (DNNs) accelerator's
reliability stand along with the need for reducing the computational burden on
the hardware platforms, i.e. reducing the energy consumption and execution time
as well as increasing the efficiency of DNN accelerators. Moreover, the growing
demand for specialized DNN accelerators with tailored requirements,
particularly for safety-critical applications, necessitates a comprehensive
design space exploration to enable the development of efficient and robust
accelerators that meet those requirements. Therefore, the trade-off between
hardware performance, i.e. area and delay, and the reliability of the DNN
accelerator implementation becomes critical and requires tools for analysis.
This paper presents a comprehensive methodology for exploring and enabling a
holistic assessment of the trilateral impact of quantization on model accuracy,
activation fault reliability, and hardware efficiency. A fully automated
framework is introduced that is capable of applying various quantization-aware
techniques, fault injection, and hardware implementation, thus enabling the
measurement of hardware parameters. Moreover, this paper proposes a novel
lightweight protection technique integrated within the framework to ensure the
dependable deployment of the final systolic-array-based FPGA implementation.
The experiments on established benchmarks demonstrate the analysis flow and the
profound implications of quantization on reliability, hardware performance, and
network accuracy, particularly concerning the transient faults in the network's
activations.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)アクセラレーターの信頼性の厳格な要件は、ハードウェアプラットフォームにおける計算負担の軽減、すなわち、エネルギー消費と実行時間を削減し、DNNアクセラレーターの効率を向上する必要性に沿うものである。
さらに、特別なDNNアクセラレーターの需要が増大し、特に安全クリティカルなアプリケーションには、これらの要件を満たす効率的で堅牢なアクセラレーターの開発を可能にするために、包括的な設計空間の探索が必要である。
したがって、ハードウェアの性能、すなわち領域と遅延と、dnnアクセラレータの実装の信頼性とのトレードオフが重要となり、分析ツールが必要となる。
本稿では,量子化がモデル精度,アクティベーション障害信頼性,ハードウェア効率に与える影響を総合的に評価するための総合的な手法を提案する。
様々な量子化対応技術、フォールトインジェクション、ハードウェア実装を適用し、ハードウェアパラメータの測定を可能にする、完全に自動化されたフレームワークが導入された。
さらに,本論文では,最終的なシストリックアレイに基づくFPGA実装の信頼性を保証するために,フレームワークに組み込んだ軽量保護手法を提案する。
確立されたベンチマークの実験では、信頼性、ハードウェア性能、ネットワークの正確性、特にネットワークのアクティベーションにおける過渡的障害に関する量子化の分析フローと深い影響が示されている。
関連論文リスト
- Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - SAFFIRA: a Framework for Assessing the Reliability of
Systolic-Array-Based DNN Accelerators [0.4391603054571586]
本稿では,シストリックアレイをベースとしたディープニューラルネットワーク(DNN)アクセラレータに適した,階層型ソフトウェアベースのハードウェア対応フォールトインジェクション戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T13:17:09Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - End-to-end codesign of Hessian-aware quantized neural networks for FPGAs
and ASICs [49.358119307844035]
我々は、共設計ニューラルネットワーク(NN)のトレーニングと実装のためのエンドツーエンドワークフローを開発する。
これにより、ハードウェアにおける効率的なNN実装が、非専門家に、単一のオープンソースワークフローでアクセスできるようになる。
大型ハドロン衝突型加速器(LHC)の40MHz衝突速度で動作しなければならないトリガー決定を含む粒子物理学アプリケーションにおけるワークフローを実演する。
シミュレーションLHC陽子-陽子衝突における高速粒子ジェット用混合精度NNを実装した。
論文 参考訳(メタデータ) (2023-04-13T18:00:01Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - High-Performance FPGA-based Accelerator for Bayesian Neural Networks [5.86877988129171]
本研究は,モンテカルロ・ドロップアウトから推定されるBNNを高速化するFPGAベースのハードウェアアーキテクチャを提案する。
他の最先端のBNN加速器と比較して、提案された加速器は最大で4倍のエネルギー効率と9倍の計算効率を達成することができる。
論文 参考訳(メタデータ) (2021-05-12T06:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。