論文の概要: Energy-efficient DNN Inference on Approximate Accelerators Through
Formal Property Exploration
- arxiv url: http://arxiv.org/abs/2207.12350v1
- Date: Mon, 25 Jul 2022 17:07:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:23:06.065387
- Title: Energy-efficient DNN Inference on Approximate Accelerators Through
Formal Property Exploration
- Title(参考訳): 形式的特性探索による近似加速器のエネルギー効率DNN推定
- Authors: Ourania Spantidi, Georgios Zervakis, Iraklis Anagnostopoulos and
J\"org Henkel
- Abstract要約: 本稿では、近似型ディープニューラルネットワーク(DNN)のための重み付け近似マッピングのための自動フレームワークを提案する。
MAC単位レベルでは、エネルギー利得の点で既にエネルギー効率のよいマッピングを2ドル以上超えた。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are being heavily utilized in modern applications
and are putting energy-constraint devices to the test. To bypass high energy
consumption issues, approximate computing has been employed in DNN accelerators
to balance out the accuracy-energy reduction trade-off. However, the
approximation-induced accuracy loss can be very high and drastically degrade
the performance of the DNN. Therefore, there is a need for a fine-grain
mechanism that would assign specific DNN operations to approximation in order
to maintain acceptable DNN accuracy, while also achieving low energy
consumption. In this paper, we present an automated framework for
weight-to-approximation mapping enabling formal property exploration for
approximate DNN accelerators. At the MAC unit level, our experimental
evaluation surpassed already energy-efficient mappings by more than $\times2$
in terms of energy gains, while also supporting significantly more fine-grain
control over the introduced approximation.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、現代のアプリケーションで多用されており、テストにエネルギー制約デバイスを配置している。
高エネルギー消費問題を回避するため、DNNアクセラレーターで近似計算が採用され、精度-エネルギー削減トレードオフのバランスが取れている。
しかし、近似による精度損失は非常に高く、DNNの性能が大幅に低下する可能性がある。
したがって、許容できるDNNの精度を維持するために特定のDNN演算を近似に割り当て、低エネルギー消費を達成するための微粒化機構が必要である。
本稿では,DNN加速器の形式的特性探索を可能にする重み-近似マッピングの自動フレームワークを提案する。
MAC単位レベルでは,既存のエネルギー効率のマッピングを$\times2$以上のエネルギーゲインで上回り,導入した近似に対する微粒化制御も大きく支持した。
関連論文リスト
- Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization [1.0235078178220354]
本稿では, プルーニングと量子化を併用してハードウェアに配慮したディープニューラルネットワーク(DNN)の自動圧縮フレームワークを提案する。
われわれのフレームワークはデータセットの平均エネルギー消費量を39%減らし、平均精度損失を1.7%減らし、最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-23T18:50:13Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Fault-Aware Design and Training to Enhance DNNs Reliability with
Zero-Overhead [67.87678914831477]
ディープニューラルネットワーク(DNN)は、幅広い技術的進歩を可能にする。
最近の知見は、過渡的なハードウェア欠陥がモデル予測を劇的に損なう可能性があることを示唆している。
本研究では,トレーニングとモデル設計の両面で信頼性の問題に取り組むことを提案する。
論文 参考訳(メタデータ) (2022-05-28T13:09:30Z) - Hardware Approximate Techniques for Deep Neural Network Accelerators: A
Survey [4.856755747052137]
Deep Neural Networks(DNN)は非常に人気があり、機械学習(ML)における様々な認知タスクのパフォーマンスが高い。
近年のDNNの進歩は多くのタスクにおいて人間の精度を超えたが、計算の複雑さのコストがかかる。
本稿では,DNN加速器のハードウェア近似技術に関する包括的調査と解析を行う。
論文 参考訳(メタデータ) (2022-03-16T16:33:13Z) - Enhanced physics-constrained deep neural networks for modeling vanadium
redox flow battery [62.997667081978825]
本稿では,物理制約付き深部ニューラルネットワーク(PCDNN)による高精度電圧予測手法を提案する。
ePCDNNは、電圧放電曲線のテール領域を含む電荷放電サイクルを通して、電圧応答を正確にキャプチャすることができる。
論文 参考訳(メタデータ) (2022-03-03T19:56:24Z) - Positive/Negative Approximate Multipliers for DNN Accelerators [3.1921317895626493]
本稿では,重みを近似乗算器の適切なモードにマッピングするフィルタ指向近似法を提案する。
提案手法では,4つの異なるデータセット上で平均7つのNNで18.33%のエネルギーゲインを達成し,最大精度の低下は1%に留まった。
論文 参考訳(メタデータ) (2021-07-20T09:36:24Z) - DTNN: Energy-efficient Inference with Dendrite Tree Inspired Neural
Networks for Edge Vision Applications [2.1800759000607024]
本稿では,活性化量子化によって実現されたテーブルルックアップ操作を用いたエネルギー効率の高い推論のためのDendrite-Tree-based Neural Network (DTNN)を提案する。
DTNNはResNet-18とVGG-11でそれぞれ19.4Xと64.9Xの大幅な省エネを実現した。
論文 参考訳(メタデータ) (2021-05-25T11:44:12Z) - Random and Adversarial Bit Error Robustness: Energy-Efficient and Secure
DNN Accelerators [105.60654479548356]
固定点量子化と重み切り、およびランダムビット誤り訓練(RandBET)の組み合わせにより、量子化DNN重みにおけるランダムビット誤りや逆ビット誤りに対するロバスト性を著しく向上することを示す。
これは低電圧運転のための高省エネと低精度量子化をもたらすが、DNN加速器の安全性も向上する。
論文 参考訳(メタデータ) (2021-04-16T19:11:14Z) - Exploring Fault-Energy Trade-offs in Approximate DNN Hardware
Accelerators [2.9649783577150837]
異なるAxDNNの層幅およびビット幅の耐障害性およびエネルギー解析について述べる。
その結果、AxDNNsの耐障害性がエネルギー効率にかかっていることが示された。
論文 参考訳(メタデータ) (2021-01-08T05:52:12Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - Bit Error Robustness for Energy-Efficient DNN Accelerators [93.58572811484022]
本稿では、ロバストな固定点量子化、重み切り、ランダムビット誤り訓練(RandBET)の組み合わせにより、ランダムビット誤りに対するロバスト性を向上することを示す。
これは低電圧動作と低精度量子化の両方から高エネルギーの節約につながる。
論文 参考訳(メタデータ) (2020-06-24T18:23:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。