論文の概要: PLAM: a Posit Logarithm-Approximate Multiplier for Power Efficient
Posit-based DNNs
- arxiv url: http://arxiv.org/abs/2102.09262v1
- Date: Thu, 18 Feb 2021 10:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:29:36.233986
- Title: PLAM: a Posit Logarithm-Approximate Multiplier for Power Efficient
Posit-based DNNs
- Title(参考訳): PLAM(Posit Logarithm-approximate multiplier for Power Efficient Posit-based DNNs)
- Authors: Raul Murillo, Alberto A. Del Barrio, Guillermo Botella, Min Soo Kim,
HyunJin Kim and Nader Bagherzadeh
- Abstract要約: ポジット番号システムは2017年に浮動小数点数の代替として導入された。
本稿では,ポジット乗算器の複雑性を著しく低減するPosit Logarithm-Approximate乗算法を提案する。
提案手法は,ハードウェア乗算器の面積,電力,遅延をそれぞれ72.86%,81.79%,17.01%まで低減し,精度を低下させることがないことを示す。
- 参考スコア(独自算出の注目度): 8.623938357911467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Posit Number System was introduced in 2017 as a replacement for
floating-point numbers. Since then, the community has explored its application
in Neural Network related tasks and produced some unit designs which are still
far from being competitive with their floating-point counterparts. This paper
proposes a Posit Logarithm-Approximate Multiplication (PLAM) scheme to
significantly reduce the complexity of posit multipliers, the most power-hungry
units within Deep Neural Network architectures. When comparing with
state-of-the-art posit multipliers, experiments show that the proposed
technique reduces the area, power, and delay of hardware multipliers up to
72.86%, 81.79%, and 17.01%, respectively, without accuracy degradation.
- Abstract(参考訳): ポジット番号システムは2017年に浮動小数点数の代替として導入された。
それ以来、コミュニティはニューラルネットワーク関連のタスクでその応用を探求し、浮動小数点演算器との競合に程遠いいくつかのユニットデザインを作成した。
本稿では,Deep Neural Network アーキテクチャにおける最もパワーハングリーユニットである posit multipliers の複雑さを大幅に削減するための Posit Logarithm-Approximate Multiplication (PLAM) スキームを提案する。
最先端のポジット乗算器と比較した場合,提案手法は,ハードウェア乗算器の面積,電力,遅延を72.86%,81.79%,17.01%まで低減し,精度を低下させることなく改善することを示した。
関連論文リスト
- An Efficient General-Purpose Optical Accelerator for Neural Networks [4.236129222287313]
ディープニューラルネットワーク(DNN)を加速するための有望なプラットフォームとして、汎用光加速器(GOAs)が登場した
本研究では,ニューラルネットワークのGOAへのマッピング効率を高めるために,ハイブリッドGOAアーキテクチャを提案する。
また、消費電力と計算遅延をそれぞれ67%以上と21%以上削減することができる。
論文 参考訳(メタデータ) (2024-09-02T13:04:08Z) - PDPU: An Open-Source Posit Dot-Product Unit for Deep Learning
Applications [9.253002604030085]
Positは、ディープラーニングアプリケーションのためのIEEE-754浮動小数点フォーマットに代わる有望な代替品だ。
乗算器と加算木の組み合わせ、またはカスケード融合型乗算器の組み合わせによって実装され、計算効率が悪く、ハードウェアのオーバーヘッドが過大になる。
本稿では,資源効率と高スループットのドット生成ハードウェアの実装を容易にするオープンソースのポジットドット生成ユニットPDPUを提案する。
論文 参考訳(メタデータ) (2023-02-03T17:26:12Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - A Survey of Quantization Methods for Efficient Neural Network Inference [75.55159744950859]
量子化は、必要なビット数を最小限に抑えるために、固定された離散数の集合に連続実数値を分散する問題である。
近年、コンピュータビジョン、自然言語処理、関連分野でのニューラルネットワークモデルの顕著な性能のために最前線に達しています。
浮動小数点表現から4ビット以下の低精度固定整数値への移行は、メモリフットプリントとレイテンシを16倍削減する可能性を秘めている。
論文 参考訳(メタデータ) (2021-03-25T06:57:11Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - ExPAN(N)D: Exploring Posits for Efficient Artificial Neural Network
Design in FPGA-based Systems [4.2612881037640085]
本稿では,ANNに対するポジット数表現方式の有効性と不動点演算の実装効率を解析し,比較する。
本稿では,ANNのための高性能かつ省エネなハードウェア実装を実現するための,新しい固定点変換器Posit to Fix-pointを提案する。
論文 参考訳(メタデータ) (2020-10-24T11:02:25Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - Floating-Point Multiplication Using Neuromorphic Computing [3.5450828190071655]
IEEE 754準拠浮動小数点乗算を行うニューロモルフィックシステムについて述べる。
本研究では,ビット毎のニューロン数が精度およびビット誤り率に及ぼす影響について検討し,各成分に必要なニューロン数を推定する。
論文 参考訳(メタデータ) (2020-08-30T19:07:14Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。