論文の概要: Multiplier with Reduced Activities and Minimized Interconnect for Inner
Product Arrays
- arxiv url: http://arxiv.org/abs/2204.09515v1
- Date: Mon, 11 Apr 2022 05:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-24 18:10:25.678910
- Title: Multiplier with Reduced Activities and Minimized Interconnect for Inner
Product Arrays
- Title(参考訳): 内部積アレーの動作低減と最小接続による乗算器
- Authors: Muhammad Usman, Jeong-A Lee and Milos D. Ercegovac
- Abstract要約: 本稿では,オンライン桁-シリアル算術に基づいて,アクティビティの削減と相互接続の最小化を図ったパイプライン乗算器を提案する。
8ドル、16ドル、24ドル、32ドルのビット精度で、提案された低消費電力パイプライン設計は、それぞれ38%ドルと44%ドルの電力と面積の削減を示す。
- 参考スコア(独自算出の注目度): 0.8078491757252693
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present a pipelined multiplier with reduced activities and minimized
interconnect based on online digit-serial arithmetic. The working precision has
been truncated such that $p<n$ bits are used to compute $n$ bits product,
resulting in significant savings in area and power. The digit slices follow
variable precision according to input, increasing upto $p$ and then decreases
according to the error profile. Pipelining has been done to achieve high
throughput and low latency which is desirable for compute intensive inner
products. Synthesis results of the proposed designs have been presented and
compared with the non-pipelined online multiplier, pipelined online multiplier
with full working precision and conventional serial-parallel and array
multipliers. For $8, 16, 24$ and $32$ bit precision, the proposed low power
pipelined design show upto $38\%$ and $44\%$ reduction in power and area
respectively compared to the pipelined online multiplier without working
precision truncation.
- Abstract(参考訳): オンライン桁-シリアル算術に基づいて,アクティビティの削減と相互接続の最小化が可能なパイプライン乗算器を提案する。
作業精度は、$p<n$ bits が $n$ bits の積を計算するために使われるように切り詰められ、面積と電力が大幅に節約される。
桁スライスは入力に応じて可変精度に従って$p$まで増加し、エラープロファイルに従って減少する。
パイプライン化は高いスループットと低レイテンシを実現するために行われており、計算集約的な内部製品に望ましい。
提案した設計の合成結果を,非ピペリン型オンライン乗算器,パイプライン型オンライン乗算器,完全作業精度,従来のシリアル並列および配列乗算器と比較した。
8,16,24$,32$bitの精度で、提案されている低電力パイプライン設計は、作業精度の切り込みのないパイプライン化されたオンライン乗算器と比較して、それぞれ3,8\%$と4,4\%の電力と面積の削減を示す。
関連論文リスト
- Chain of Thought Empowers Transformers to Solve Inherently Serial Problems [57.58801785642868]
思考の連鎖(CoT)は、算術や記号的推論タスクにおいて、大きな言語モデル(LLM)の精度を向上させるための非常に効果的な方法である。
この研究は、表現性のレンズを通してデコーダのみの変換器に対するCoTのパワーを理論的に理解する。
論文 参考訳(メタデータ) (2024-02-20T10:11:03Z) - TCNCA: Temporal Convolution Network with Chunked Attention for Scalable
Sequence Processing [52.64837396100988]
MEGAは最近のトランスフォーマーベースのアーキテクチャで、線形リカレント演算子を使用し、並列計算はFFTに基づいて、$O(LlogL)$で、$L$はシーケンス長である。
線形再帰を特別な時間的畳み込みネットワークに置き換えることで、より浅いネットワークでより大きい受容場を許容し、計算複雑性を$O(L)$に減らし、それらのアプローチを構築する。
我々は,EnWik8言語モデリングにおけるTCNCA,LRA(Long-range-arena)シーケンス分類,および合成推論ベンチマーク連想リコールの評価を行った。
論文 参考訳(メタデータ) (2023-12-09T16:12:25Z) - Low-Overhead Parallelisation of LCU via Commuting Operators [0.0]
LCU(Linear Combination of Unitaries)は、演算子のブロック符号化のための強力なスキームであるが、高いオーバーヘッドに悩まされている。
本稿では,LCUの並列化,特にLCUのSELECTサブルーチンについて論じる。
また、本研究の主な成果であるQROM回路の並列化についても論じる。
論文 参考訳(メタデータ) (2023-12-01T16:29:02Z) - Instant Complexity Reduction in CNNs using Locality-Sensitive Hashing [50.79602839359522]
本稿では,パラメータフリーでデータフリーなモジュールであるHASTE(Hashing for Tractable Efficiency)を提案する。
局所性感応ハッシュ (LSH) を用いることで, 精度を犠牲にすることなく, 遅延特徴写像を劇的に圧縮することができる。
特に、HASTEモジュール用のCIFAR-10上のResNet34で畳み込みモジュールを切り替えるだけで、FLOPの46.72%を即座に落とすことができる。
論文 参考訳(メタデータ) (2023-09-29T13:09:40Z) - DeepPCR: Parallelizing Sequential Operations in Neural Networks [4.241834259165193]
我々は、ニューラルネットワークの推論とトレーニングを高速化するために、典型的にはシーケンシャルな操作を並列化する新しいアルゴリズムであるDeepPCRを紹介する。
DeepPCRは、特定の方程式系の解法として$L$のステップ列を解釈し、並列サイクル還元アルゴリズムを用いて回復する。
アルゴリズムの理論的に低い複雑性を検証し,高速化のための機構を同定するために,多層パーセプトロンの前方・後方パスの並列化におけるDeepPCRの有効性を検証した。
論文 参考訳(メタデータ) (2023-09-28T10:15:30Z) - Tangent Transformers for Composition, Privacy and Removal [58.280295030852194]
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
論文 参考訳(メタデータ) (2023-07-16T18:31:25Z) - Low-Latency Online Multiplier with Reduced Activities and Minimized
Interconnect for Inner Product Arrays [0.8078491757252693]
本稿では,オンライン算術や左から右への算術に基づく低レイテンシ乗算器を提案する。
オンライン算術は、データ依存に関係なく連続した操作を重複させることができる。
オンラインアルゴリズムのシリアルな性質と、アクティブスライスの段階的な増減は、相互接続と信号のアクティビティを最小化する。
論文 参考訳(メタデータ) (2023-04-06T01:22:27Z) - Fast quantum circuit cutting with randomized measurements [0.0]
本稿では,単一デバイス上で利用可能な物理量子ビット数を超えて,量子計算のサイズを拡大する手法を提案する。
これは、大きな回路の出力状態を異なるデバイス間で分離可能な状態として表すために、無作為に計測・準備チャネルを挿入することで達成される。
論文 参考訳(メタデータ) (2022-07-29T15:13:04Z) - Tabula: Efficiently Computing Nonlinear Activation Functions for Secure Neural Network Inference [18.363580113885174]
ニューラルネットワークをセキュアにするためのマルチパーティのアプローチは、一般的にガーブラード回路に依存している。
セキュアなルックアップテーブルに基づくアルゴリズムであるTabulaを提案する。
8ビットの量子化入力を持つガーブラー回路と比較して、8ビットのアクティベーションを持つタブラは280ドルから560ドル程度の通信が少ない。
論文 参考訳(メタデータ) (2022-03-05T23:26:06Z) - HAWQV3: Dyadic Neural Network Quantization [73.11579145354801]
現在の低精度量子化アルゴリズムは、浮動小数点から量子化された整数値への変換の隠れコストを持つことが多い。
HAWQV3は、新しい混合精度整数のみの量子化フレームワークである。
論文 参考訳(メタデータ) (2020-11-20T23:51:43Z) - Bayesian Bits: Unifying Quantization and Pruning [73.27732135853243]
我々は、勾配に基づく最適化による混合精度量子化とプルーニングの実用的な方法であるBayesian Bitsを紹介する。
提案手法をいくつかのベンチマーク・データセット上で実験的に検証し,プレナード付き混合精度ネットワークを学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-14T16:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。