論文の概要: An Experimental Study of Reduced-Voltage Operation in Modern FPGAs for
Neural Network Acceleration
- arxiv url: http://arxiv.org/abs/2005.03451v2
- Date: Wed, 30 Dec 2020 22:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:23:45.021463
- Title: An Experimental Study of Reduced-Voltage Operation in Modern FPGAs for
Neural Network Acceleration
- Title(参考訳): ニューラルネットワーク高速化のための最近のFPGAにおける低電圧動作の実験的検討
- Authors: Behzad Salami, Erhan Baturay Onural, Ismail Emir Yuksel, Fahrettin
Koc, Oguz Ergin, Adrian Cristal Kestelman, Osman S. Unsal, Hamid
Sarbazi-Azad, Onur Mutlu
- Abstract要約: 安全な電圧レベル以下では、過度の回路遅延の増加によるタイミング障害が発生する可能性がある。
実FPGAの複数成分の低電圧動作について実験的に検討した。
減圧運転の欠点を最小限に抑える手法を提案する。
- 参考スコア(独自算出の注目度): 9.06484009562659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We empirically evaluate an undervolting technique, i.e., underscaling the
circuit supply voltage below the nominal level, to improve the power-efficiency
of Convolutional Neural Network (CNN) accelerators mapped to Field Programmable
Gate Arrays (FPGAs). Undervolting below a safe voltage level can lead to timing
faults due to excessive circuit latency increase. We evaluate the
reliability-power trade-off for such accelerators. Specifically, we
experimentally study the reduced-voltage operation of multiple components of
real FPGAs, characterize the corresponding reliability behavior of CNN
accelerators, propose techniques to minimize the drawbacks of reduced-voltage
operation, and combine undervolting with architectural CNN optimization
techniques, i.e., quantization and pruning. We investigate the effect of
environmental temperature on the reliability-power trade-off of such
accelerators. We perform experiments on three identical samples of modern
Xilinx ZCU102 FPGA platforms with five state-of-the-art image classification
CNN benchmarks. This approach allows us to study the effects of our
undervolting technique for both software and hardware variability. We achieve
more than 3X power-efficiency (GOPs/W) gain via undervolting. 2.6X of this gain
is the result of eliminating the voltage guardband region, i.e., the safe
voltage region below the nominal level that is set by FPGA vendor to ensure
correct functionality in worst-case environmental and circuit conditions. 43%
of the power-efficiency gain is due to further undervolting below the
guardband, which comes at the cost of accuracy loss in the CNN accelerator. We
evaluate an effective frequency underscaling technique that prevents this
accuracy loss, and find that it reduces the power-efficiency gain from 43% to
25%.
- Abstract(参考訳): 本研究では,フィールドプログラマブルゲートアレイ(FPGA)にマッピングされた畳み込みニューラルネットワーク(CNN)加速器の電力効率を向上させるために,名目レベル以下で回路供給電圧をアンダスケーリングする手法を実証的に評価する。
安全な電圧レベル以下では、過度の回路遅延の増加によるタイミング障害が発生する可能性がある。
このようなアクセラレーターの信頼性とパワーのトレードオフを評価する。
具体的には、実FPGAの複数成分の減電圧動作を実験的に検討し、CNN加速器の信頼性挙動を特徴付けるとともに、減電圧動作の欠点を最小化するための手法を提案し、過電圧を量子化とプルーニングというアーキテクチャCNN最適化技術と組み合わせる。
環境温度が加速器の信頼性・電力トレードオフに及ぼす影響について検討する。
我々は,最新のXilinx ZCU102 FPGAプラットフォームの3つの同一サンプルに対して,最新の画像分類CNNベンチマークを用いて実験を行った。
このアプローチにより、ソフトウェアとハードウェアの両方の可変性に対する下振れ技術の効果を研究できます。
我々は過電圧で3倍以上の電力効率(gops/w)を得る。
このゲインの2.6倍は電圧ガードバンド領域、すなわちfpgaベンダーが設定した名目レベル以下の安全な電圧領域を除去し、最悪の環境や回路条件で適切な機能を保証する結果である。
電力効率向上の43%は、cnn加速器の精度損失のコストがかかるガードバンドを下回ることによるものである。
この精度の低下を防ぐ効果的な周波数アンダスケーリング手法の評価を行い,電力効率が43%から25%に低下することを確認した。
関連論文リスト
- Shavette: Low Power Neural Network Acceleration via Algorithm-level Error Detection and Undervolting [0.0]
本稿では,Deep Neural Network(DNN)アクセラレータの,単なるソフトウェア修正による低電圧動作を実現するための簡単なアプローチを紹介する。
18%から25%の省エネ効果を示したが,精度の低下やスループットの低下は認められなかった。
論文 参考訳(メタデータ) (2024-10-17T10:29:15Z) - On-Chip Learning with Memristor-Based Neural Networks: Assessing Accuracy and Efficiency Under Device Variations, Conductance Errors, and Input Noise [0.0]
本稿では,オンチップトレーニングと推論のためのメモリメモリハードウェアアクセラレータを提案する。
30メムリスタと4つのニューロンからなるハードウェアは、タングステン、クロム、炭素媒体を持つ3つの異なるM-SDC構造を用いてバイナリ画像分類タスクを実行する。
論文 参考訳(メタデータ) (2024-08-26T23:10:01Z) - Subtractor-Based CNN Inference Accelerator [3.663763133721262]
本稿では,サブトラクタを用いたCNN推論アクセラレータの性能向上手法を提案する。
ラウンドサイズ0.05で、32.03%の省電力化と24.59%の面積削減を実現でき、精度損失はわずか0.1%である。
論文 参考訳(メタデータ) (2023-10-02T09:15:58Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural
Network Inference in Low-Voltage Regimes [52.51014498593644]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は依然として注目すべき問題である。
我々は、低電圧状態における精度とエネルギーのトレードオフに対処する新しいアドオンモジュールであるNeuralFuseを紹介する。
1%のビットエラー率で、NeuralFuseはメモリアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - Improving Reliability of Spiking Neural Networks through Fault Aware
Threshold Voltage Optimization [0.0]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックなハードウェアに自らを貸すことで、コンピュータビジョンを突破した。
Systolic-array SNNアクセラレータ(systolicSNN)が最近提案されているが、信頼性は依然として大きな懸念点である。
本稿では、リトレーニングにおける新しい故障軽減手法、すなわち、故障認識しきい値電圧の最適化について述べる(FalVolt)。
論文 参考訳(メタデータ) (2023-01-12T19:30:21Z) - HEAT: Hardware-Efficient Automatic Tensor Decomposition for Transformer
Compression [69.36555801766762]
本稿では,分解可能な指数空間を効率的に探索できるハードウェア対応テンソル分解フレームワークHEATを提案する。
ハードウェア対応のBERT変異体は, エネルギー遅延を5.7倍に低減し, 精度が1.1%以下であることを示す。
論文 参考訳(メタデータ) (2022-11-30T05:31:45Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - AdaViT: Adaptive Tokens for Efficient Vision Transformer [91.88404546243113]
本稿では,視覚変換器(ViT)の推論コストを,複雑さの異なる画像に対して適応的に調整する手法であるAdaViTを紹介する。
AdaViTは、推論が進むにつれてネットワーク内で処理されるビジョントランスフォーマーのトークン数を自動で削減することで、これを実現する。
論文 参考訳(メタデータ) (2021-12-14T18:56:07Z) - Random and Adversarial Bit Error Robustness: Energy-Efficient and Secure
DNN Accelerators [105.60654479548356]
固定点量子化と重み切り、およびランダムビット誤り訓練(RandBET)の組み合わせにより、量子化DNN重みにおけるランダムビット誤りや逆ビット誤りに対するロバスト性を著しく向上することを示す。
これは低電圧運転のための高省エネと低精度量子化をもたらすが、DNN加速器の安全性も向上する。
論文 参考訳(メタデータ) (2021-04-16T19:11:14Z) - Bit Error Robustness for Energy-Efficient DNN Accelerators [93.58572811484022]
本稿では、ロバストな固定点量子化、重み切り、ランダムビット誤り訓練(RandBET)の組み合わせにより、ランダムビット誤りに対するロバスト性を向上することを示す。
これは低電圧動作と低精度量子化の両方から高エネルギーの節約につながる。
論文 参考訳(メタデータ) (2020-06-24T18:23:10Z) - On the Resilience of Deep Learning for Reduced-voltage FPGAs [1.7998044061364233]
本稿では、FPGAの電圧アンダスケーリング関連欠陥の存在下で、Deep Neural Networks(DNN)のトレーニングフェーズのレジリエンスを実験的に評価する。
我々は、最近のFPGAが極低電圧レベルで十分に堅牢であることを発見した。
精度のギャップを埋めるためには、およそ10%のトレーニングが必要になります。
論文 参考訳(メタデータ) (2019-12-26T15:08:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。