論文の概要: Leveraging Highly Approximated Multipliers in DNN Inference
- arxiv url: http://arxiv.org/abs/2412.16757v1
- Date: Sat, 21 Dec 2024 20:09:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:07.221555
- Title: Leveraging Highly Approximated Multipliers in DNN Inference
- Title(参考訳): DNN推論における高近似乗算器の活用
- Authors: Georgios Zervakis, Fabio Frustaci, Ourania Spantidi, Iraklis Anagnostopoulos, Hussam Amrouch, Jörg Henkel,
- Abstract要約: 提案手法は再学習を必要とせず,近似乗算による帰納誤差を著しく低減する。
本手法を使わずに対応する近似設計と比較して,提案手法は平均1.9倍精度を向上する。
- 参考スコア(独自算出の注目度): 13.973803328588687
- License:
- Abstract: In this work, we present a control variate approximation technique that enables the exploitation of highly approximate multipliers in Deep Neural Network (DNN) accelerators. Our approach does not require retraining and significantly decreases the induced error due to approximate multiplications, improving the overall inference accuracy. As a result, our approach enables satisfying tight accuracy loss constraints while boosting the power savings. Our experimental evaluation, across six different DNNs and several approximate multipliers, demonstrates the versatility of our approach and shows that compared to the accurate design, our control variate approximation achieves the same performance, 45% power reduction, and less than 1% average accuracy loss. Compared to the corresponding approximate designs without using our technique, our approach improves the accuracy by 1.9x on average.
- Abstract(参考訳): 本研究では,Deep Neural Network(DNN)アクセラレータにおいて,高度に近似した乗算器を活用可能な制御変数近似手法を提案する。
提案手法は再学習を必要とせず,近似乗算による帰納誤差を著しく低減し,全体の推測精度を向上する。
その結果, 省電力化を図りながら, 厳密な精度損失制約を満たすことが可能となった。
6つの異なるDNNと複数の近似乗算器を用いた実験により,提案手法の汎用性を実証し,制御変数近似を精度の高い設計と比較することにより,同じ性能,45%の消費電力,1%未満の平均精度損失を達成できることを示した。
本手法を使わずに対応する近似設計と比較して,提案手法は平均1.9倍精度を向上する。
関連論文リスト
- Accurate and Reliable Predictions with Mutual-Transport Ensemble [46.368395985214875]
Kullback-Leibler (KL) を用いた共学習補助モデルの提案とクロスエントロピー損失の適応的正則化
MTEは精度と不確実性の両方を同時に向上させることができる。
例えば、CIFAR-100データセットでは、我々のResNet34/50上のMTEメソッドは、従来の最先端の手法に比べて大幅に改善された。
論文 参考訳(メタデータ) (2024-05-30T03:15:59Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - A Tale of Two Approximations: Tightening Over-Approximation for DNN
Robustness Verification via Under-Approximation [17.924507519230424]
本稿では、活性化関数の過小評価領域を利用して、過剰近似を厳密に定義する新しい双対近似手法を提案する。
以上の結果から,DualAppは,信頼性の高いロバスト性比が100%から1000%,認証下限が平均10.64%(最大66.53%)で,最先端のアプローチを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-05-26T14:58:30Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Neural Networks with Quantization Constraints [111.42313650830248]
量子化学習における制約付き学習手法を提案する。
結果の問題は強い双対であり、勾配推定は不要であることを示す。
提案手法は画像分類タスクにおける競合性能を示す。
論文 参考訳(メタデータ) (2022-10-27T17:12:48Z) - Boost Neural Networks by Checkpoints [9.411567653599358]
本稿では,ディープニューラルネットワーク(DNN)のチェックポイントをアンサンブルする新しい手法を提案する。
同じトレーニング予算で,Cifar-100では4.16%,Tiny-ImageNetでは6.96%,ResNet-110アーキテクチャでは6.96%の誤差を達成した。
論文 参考訳(メタデータ) (2021-10-03T09:14:15Z) - Positive/Negative Approximate Multipliers for DNN Accelerators [3.1921317895626493]
本稿では,重みを近似乗算器の適切なモードにマッピングするフィルタ指向近似法を提案する。
提案手法では,4つの異なるデータセット上で平均7つのNNで18.33%のエネルギーゲインを達成し,最大精度の低下は1%に留まった。
論文 参考訳(メタデータ) (2021-07-20T09:36:24Z) - FasterPose: A Faster Simple Baseline for Human Pose Estimation [65.8413964785972]
本稿では,高速ポーズ推定のためのLR表現を用いた費用対効果ネットワークの設計パラダイムであるFasterPoseを提案する。
我々は,FasterPoseのトレーニング挙動について検討し,収束を加速する新しい回帰クロスエントロピー(RCE)損失関数を定式化する。
従来のポーズ推定ネットワークと比較すると,FLOPの58%が減少し,精度が1.3%向上した。
論文 参考訳(メタデータ) (2021-07-07T13:39:08Z) - Control Variate Approximation for DNN Accelerators [3.1921317895626493]
低誤差近似Deep Neural Network (DNN)アクセラレータの制御変位近似技術について紹介する。
提案手法は,時間的再学習を必要とせず,推論における近似的乗算による帰納誤差を著しく低減する。
論文 参考訳(メタデータ) (2021-02-18T22:11:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。