論文の概要: Low Power Approximate Multiplier Architecture for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2509.00764v1
- Date: Sun, 31 Aug 2025 09:25:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.381622
- Title: Low Power Approximate Multiplier Architecture for Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのための低消費電力近似乗算器アーキテクチャ
- Authors: Pragun Jaswal, L. Hemanth Krishna, B. Srinivasu,
- Abstract要約: 4:2圧縮機は1つの組み合わせエラーしか導入せず、8x8符号の符号なし乗算器として設計・統合されている。
提案する乗算器は、独自の畳み込み層内で採用され、画像認識や復調を含むニューラルネットワークタスクで評価される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper proposes an low power approximate multiplier architecture for deep neural network (DNN) applications. A 4:2 compressor, introducing only a single combination error, is designed and integrated into an 8x8 unsigned multiplier. This integration significantly reduces the usage of exact compressors while preserving low error rates. The proposed multiplier is employed within a custom convolution layer and evaluated on neural network tasks, including image recognition and denoising. Hardware evaluation demonstrates that the proposed design achieves up to 30.24% energy savings compared to the best among existing multipliers. In image denoising, the custom approximate convolution layer achieves improved Peak Signal-to-Noise Ratio (PSNR) and Structural Similarity Index Measure (SSIM) compared to other approximate designs. Additionally, when applied to handwritten digit recognition, the model maintains high classification accuracy. These results demonstrate that the proposed architecture offers a favorable balance between energy efficiency and computational precision, making it suitable for low-power AI hardware implementations.
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(DNN)アプリケーションのための低消費電力近似乗算器アーキテクチャを提案する。
4:2圧縮機は1つの組み合わせエラーしか導入せず、8x8符号の符号なし乗算器として設計・統合されている。
この統合は、エラー率を低く保ちながら、正確な圧縮機の使用を著しく削減する。
提案する乗算器は、独自の畳み込み層内で採用され、画像認識や復調を含むニューラルネットワークタスクで評価される。
ハードウェア評価は、提案された設計が既存の乗算器の中で最高のものに比べて最大で30.24%の省エネを実現していることを示している。
画像復調において、カスタム近似畳み込み層は、他の近似設計と比較して、ピーク信号対雑音比(PSNR)と構造類似度指数測定(SSIM)の改善を達成する。
さらに、手書き文字認識に適用すると、高い分類精度が維持される。
これらの結果は,提案アーキテクチャがエネルギー効率と計算精度のバランスを良好に保ち,低消費電力のAIハードウェア実装に適していることを示す。
関連論文リスト
- Effective Invertible Arbitrary Image Rescaling [77.46732646918936]
Invertible Neural Networks (INN)は、ダウンスケーリングとアップスケーリングのサイクルを共同で最適化することにより、アップスケーリングの精度を大幅に向上させることができる。
本研究の1つのモデルのみをトレーニングすることにより、任意の画像再スケーリングを実現するために、単純で効果的な非可逆的再スケーリングネットワーク(IARN)を提案する。
LR出力の知覚品質を損なうことなく、双方向任意再スケーリングにおいて最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-09-26T22:22:30Z) - CADyQ: Content-Aware Dynamic Quantization for Image Super-Resolution [55.50793823060282]
本稿では,画像超解像(SR)ネットワークのための新しいコンテント・アウェア・ダイナミック量子化(CADyQ)手法を提案する。
CADyQは、入力画像のローカル内容に基づいて、局所領域と層に最適なビットを適応的に割り当てる。
パイプラインは様々なSRネットワークでテストされ、いくつかの標準ベンチマークで評価されている。
論文 参考訳(メタデータ) (2022-07-21T07:50:50Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Sharpness-aware Quantization for Deep Neural Networks [45.150346855368]
シャープネス・アウェア量子化(SAQ)は,シャープネス・アウェア最小化(SAM)がモデル圧縮に与える影響を探索する新しい手法である。
本研究では,SAQにより量子化モデルの一般化性能が向上し,SOTAの結果が均一に量子化されることを示す。
論文 参考訳(メタデータ) (2021-11-24T05:16:41Z) - NeighCNN: A CNN based SAR Speckle Reduction using Feature preserving
Loss Function [1.7188280334580193]
NeighCNNは、乗法ノイズを処理するディープラーニングベースのスペックル削減アルゴリズムである。
様々な合成、および実際のSAR画像は、NeighCNNアーキテクチャのテストに使用される。
論文 参考訳(メタデータ) (2021-08-26T04:20:07Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Novel Approximate Hamming Weight Computing for Spiking Neural
Networks: an FPGA Friendly Architecture [0.47248250311484113]
FPGAのルックアップテーブルを利用して長い入力ベクトルを圧縮する手法を提案する。
圧縮機を最大2段階のルックアップテーブルと2段階以上のディープテーブルに分類する。
シミュレーションの結果, 深部圧縮機のみを用いることで, スパイクニューラルネットワークの1024ビットベクトルのハミング重量を計算することにより, ネットワークのカオス的挙動を保っていることがわかった。
論文 参考訳(メタデータ) (2021-04-29T18:27:51Z) - PLAM: a Posit Logarithm-Approximate Multiplier for Power Efficient
Posit-based DNNs [8.623938357911467]
ポジット番号システムは2017年に浮動小数点数の代替として導入された。
本稿では,ポジット乗算器の複雑性を著しく低減するPosit Logarithm-Approximate乗算法を提案する。
提案手法は,ハードウェア乗算器の面積,電力,遅延をそれぞれ72.86%,81.79%,17.01%まで低減し,精度を低下させることがないことを示す。
論文 参考訳(メタデータ) (2021-02-18T10:43:07Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。