論文の概要: HEAM: High-Efficiency Approximate Multiplier Optimization for Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2201.08022v4
- Date: Tue, 24 Oct 2023 03:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 04:01:05.011450
- Title: HEAM: High-Efficiency Approximate Multiplier Optimization for Deep
Neural Networks
- Title(参考訳): heam:ディープニューラルネットワークの高効率近似マルチプライア最適化
- Authors: Su Zheng, Zhen Li, Yao Lu, Jingbo Gao, Jide Zhang, Lingli Wang
- Abstract要約: 我々の乗算器は、DNNにおいて最もよく再現された近似乗算器よりも最大50.24%高い精度が得られる。
正確な乗算器と比較して、乗算器は面積、消費電力、遅延をそれぞれ44.94%、47.63%、および16.78%削減する。
- 参考スコア(独自算出の注目度): 5.997295917769142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an optimization method for the automatic design of approximate
multipliers, which minimizes the average error according to the operand
distributions. Our multiplier achieves up to 50.24% higher accuracy than the
best reproduced approximate multiplier in DNNs, with 15.76% smaller area,
25.05% less power consumption, and 3.50% shorter delay. Compared with an exact
multiplier, our multiplier reduces the area, power consumption, and delay by
44.94%, 47.63%, and 16.78%, respectively, with negligible accuracy losses. The
tested DNN accelerator modules with our multiplier obtain up to 18.70% smaller
area and 9.99% less power consumption than the original modules.
- Abstract(参考訳): オペランド分布にしたがって平均誤差を最小化する近似乗算器の自動設計のための最適化手法を提案する。
我々の乗算器は、DNNにおいて最もよく再現された近似乗算器よりも50.24%高い精度で15.76%小さく、消費電力が25.05%減少し、3.50%遅れている。
正確な乗算器と比較して、乗算器は面積、消費電力、遅延を44.94%、47.63%、および16.78%削減し、精度の損失は無視できる。
我々の乗算器を持つ試験されたDNN加速器モジュールは、18.70%の面積と9.99%の消費電力を得る。
関連論文リスト
- xTern: Energy-Efficient Ternary Neural Network Inference on RISC-V-Based Edge Systems [11.488297094967377]
3次ニューラルネットワーク(TNN)は、バイナリニューラルネットワークに比べて精度とエネルギーのトレードオフが優れている。
汎用コア上でのTNN推論の高速化を目的としたRISC-V命令セットアーキテクチャの軽量拡張であるxTernを提案する。
以上の結果から,XTernはRISC-Vベースの超低消費電力エッジAIプラットフォームを,TNNの効率性の恩恵を受けることができることがわかった。
論文 参考訳(メタデータ) (2024-05-29T13:16:46Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Low Error-Rate Approximate Multiplier Design for DNNs with
Hardware-Driven Co-Optimization [5.547686929207811]
2つの近似3*3乗算器が提案され、ASAP-7nmプロセスライブラリの合成結果は、面積を31.38%、36.17%削減できることを正当化している。
それらは2*2乗算器で集約され、DNN重みの分布に基づいて低い誤差率の8*8乗算器を生成する。
ハードウェア駆動型ソフトウェアによる協調最適化手法を提案し,再学習によるDNNの精度向上を図る。
論文 参考訳(メタデータ) (2022-10-08T05:00:26Z) - BottleFit: Learning Compressed Representations in Deep Neural Networks
for Effective and Efficient Split Computing [48.11023234245863]
圧縮速度が強い場合でも高い精度を達成するための新しいトレーニング戦略を含む,BottleFitと呼ばれる新しいフレームワークを提案する。
BottleFitは77.1%のデータ圧縮を実現し、ImageNetデータセットでは最大で0.6%の精度でロスする。
本稿では,BottleFitが消費電力とレイテンシを最大で49%,(w.r.t.)ローカルコンピューティングでは89%,エッジオフロードでは37%,W.r.t.エッジオフロードでは55%削減することを示した。
論文 参考訳(メタデータ) (2022-01-07T22:08:07Z) - Positive/Negative Approximate Multipliers for DNN Accelerators [3.1921317895626493]
本稿では,重みを近似乗算器の適切なモードにマッピングするフィルタ指向近似法を提案する。
提案手法では,4つの異なるデータセット上で平均7つのNNで18.33%のエネルギーゲインを達成し,最大精度の低下は1%に留まった。
論文 参考訳(メタデータ) (2021-07-20T09:36:24Z) - Control Variate Approximation for DNN Accelerators [3.1921317895626493]
低誤差近似Deep Neural Network (DNN)アクセラレータの制御変位近似技術について紹介する。
提案手法は,時間的再学習を必要とせず,推論における近似的乗算による帰納誤差を著しく低減する。
論文 参考訳(メタデータ) (2021-02-18T22:11:58Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Bit Error Robustness for Energy-Efficient DNN Accelerators [93.58572811484022]
本稿では、ロバストな固定点量子化、重み切り、ランダムビット誤り訓練(RandBET)の組み合わせにより、ランダムビット誤りに対するロバスト性を向上することを示す。
これは低電圧動作と低精度量子化の両方から高エネルギーの節約につながる。
論文 参考訳(メタデータ) (2020-06-24T18:23:10Z) - An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing [13.266626571886354]
本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
論文 参考訳(メタデータ) (2020-03-31T19:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。