論文の概要: GAVINA: flexible aggressive undervolting for bit-serial mixed-precision DNN acceleration
- arxiv url: http://arxiv.org/abs/2511.23203v1
- Date: Fri, 28 Nov 2025 14:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.920511
- Title: GAVINA: flexible aggressive undervolting for bit-serial mixed-precision DNN acceleration
- Title(参考訳): GAVINA:bit-serial Mixed-precision DNNAccelerationのためのフレキシブルアグレッシブインボイング
- Authors: Jordi Fornt, Pau Fontova-Musté, Adrian Gras, Omar Lahyani, Martí Caro, Jaume Abella, Francesc Moll, Josep Altet,
- Abstract要約: 電圧オーバースケーリング(英: voltage overscaling, undervolting)とは、エネルギー効率の高いディープニューラルネットワーク(Deep Neural Network, DNN)加速度の文脈における近似手法である。
本稿では,GAV(Guarded Aggressive UnderVolting)と呼ばれる新しい手法を提案する。
GAVは任意の混合精度とフレキシブルアンダーボイングをサポートし、最も攻撃的な構成では最大89TOP/sWのエネルギー効率を持つ。
- 参考スコア(独自算出の注目度): 1.168664284092282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voltage overscaling, or undervolting, is an enticing approximate technique in the context of energy-efficient Deep Neural Network (DNN) acceleration, given the quadratic relationship between power and voltage. Nevertheless, its very high error rate has thwarted its general adoption. Moreover, recent undervolting accelerators rely on 8-bit arithmetic and cannot compete with state-of-the-art low-precision (<8b) architectures. To overcome these issues, we propose a new technique called Guarded Aggressive underVolting (GAV), which combines the ideas of undervolting and bit-serial computation to create a flexible approximation method based on aggressively lowering the supply voltage on a select number of least significant bit combinations. Based on this idea, we implement GAVINA (GAV mIxed-precisioN Accelerator), a novel architecture that supports arbitrary mixed precision and flexible undervolting, with an energy efficiency of up to 89 TOP/sW in its most aggressive configuration. By developing an error model of GAVINA, we show that GAV can achieve an energy efficiency boost of 20% via undervolting, with negligible accuracy degradation on ResNet-18.
- Abstract(参考訳): 電圧オーバースケーリング(英: voltage overscaling, undervolting)とは、電力と電圧の二次的関係を考えると、エネルギー効率の高いディープニューラルネットワーク(Deep Neural Network, DNN)加速度の文脈において、近似的な手法である。
それでも、非常に高いエラー率は、一般的な採用を妨げている。
さらに、近年の減算加速器は8ビット演算に依存しており、最先端の低精度 (8b) アーキテクチャと競合することができない。
これらの問題を克服するために、我々は、アンダーボイングとビットシリアル計算のアイデアを組み合わせて、最小数のビットの組み合わせに対して供給電圧を積極的に低下させるフレキシブルな近似法を作成する、Guarded Aggressive UnderVolting (GAV) と呼ばれる新しい手法を提案する。
GAVINA(GAV mIxed-precisioN Accelerator)は、任意の混合精度とフレキシブルアンダーボイングをサポートする新しいアーキテクチャであり、最も攻撃的な構成では最大89TOP/sWのエネルギー効率を持つ。
GAVINAの誤差モデルを開発することにより、GAVはResNet-18の精度劣化を無視して、インボリュートにより20%のエネルギー効率向上を達成できることを示す。
関連論文リスト
- NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural Network Inference in Low-Voltage Regimes [50.00272243518593]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は問題の多いままである。
我々は低電圧状態におけるエネルギー精度のトレードオフを処理する新しいアドオンモジュールであるNeuralFuseを開発した。
1%のビットエラー率で、NeuralFuseはアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - Big-Little Adaptive Neural Networks on Low-Power Near-Subthreshold
Processors [0.0]
論文は、エッジAIアプリケーションにおいて、ほぼサブスレッショルドなプロセッサが得るエネルギーの節約について考察する。
アプリケーションの正確性を維持しながら、それらを改善するための戦略を提案する。
論文 参考訳(メタデータ) (2023-04-19T14:36:30Z) - Data-Driven Chance Constrained AC-OPF using Hybrid Sparse Gaussian
Processes [57.70237375696411]
入力不確実性を伴う潮流方程式をモデル化するために,スパースプロセスとハイブリッドガウスプロセス(GP)フレームワークを用いた高速データ駆動構成を提案する。
提案手法の有効性は,複数のIEEEテストケースに対して,最大2倍の高速かつ高精度な解を示す数値的な研究によって主張する。
論文 参考訳(メタデータ) (2022-08-30T09:27:59Z) - Random and Adversarial Bit Error Robustness: Energy-Efficient and Secure
DNN Accelerators [105.60654479548356]
固定点量子化と重み切り、およびランダムビット誤り訓練(RandBET)の組み合わせにより、量子化DNN重みにおけるランダムビット誤りや逆ビット誤りに対するロバスト性を著しく向上することを示す。
これは低電圧運転のための高省エネと低精度量子化をもたらすが、DNN加速器の安全性も向上する。
論文 参考訳(メタデータ) (2021-04-16T19:11:14Z) - Bit Error Robustness for Energy-Efficient DNN Accelerators [93.58572811484022]
本稿では、ロバストな固定点量子化、重み切り、ランダムビット誤り訓練(RandBET)の組み合わせにより、ランダムビット誤りに対するロバスト性を向上することを示す。
これは低電圧動作と低精度量子化の両方から高エネルギーの節約につながる。
論文 参考訳(メタデータ) (2020-06-24T18:23:10Z) - An Experimental Study of Reduced-Voltage Operation in Modern FPGAs for
Neural Network Acceleration [9.06484009562659]
安全な電圧レベル以下では、過度の回路遅延の増加によるタイミング障害が発生する可能性がある。
実FPGAの複数成分の低電圧動作について実験的に検討した。
減圧運転の欠点を最小限に抑える手法を提案する。
論文 参考訳(メタデータ) (2020-05-04T22:59:07Z) - On the Resilience of Deep Learning for Reduced-voltage FPGAs [1.7998044061364233]
本稿では、FPGAの電圧アンダスケーリング関連欠陥の存在下で、Deep Neural Networks(DNN)のトレーニングフェーズのレジリエンスを実験的に評価する。
我々は、最近のFPGAが極低電圧レベルで十分に堅牢であることを発見した。
精度のギャップを埋めるためには、およそ10%のトレーニングが必要になります。
論文 参考訳(メタデータ) (2019-12-26T15:08:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。