論文の概要: Enhancing Computational Efficiency in Intensive Domains via Redundant Residue Number Systems
- arxiv url: http://arxiv.org/abs/2408.05639v1
- Date: Sat, 10 Aug 2024 21:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 18:01:49.068722
- Title: Enhancing Computational Efficiency in Intensive Domains via Redundant Residue Number Systems
- Title(参考訳): 冗長残差数システムによる集中領域の計算効率の向上
- Authors: Soudabeh Mousavi, Dara Rahmati, Saeid Gorgin, Jeong-A Lee,
- Abstract要約: 本稿では, RNS (termed R-RNS) と冗長数系を融合することにより, 遅延を低減し, 回路実装を向上する方法について検討する。
RNS、冗長数システム、BNS(Binary Number System)、SD-RNS(Signed-Digit Redundant Residue Number System)の4つのシステムの比較分析を行った。
SD-RNS は RNS と BNS でそれぞれ 1.27 倍, 2.25 倍の高速化を実現し, 逐次加算および乗算作業において BNS と比較してエネルギー消費量を60% 削減できることを示した。
- 参考スコア(独自算出の注目度): 0.9710679356946952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In computation-intensive domains such as digital signal processing, encryption, and neural networks, the performance of arithmetic units, including adders and multipliers, is pivotal. Conventional numerical systems often fall short of meeting the efficiency requirements of these applications concerning area, time, and power consumption. Innovative approaches like residue number systems (RNS) and redundant number systems have been introduced to surmount this challenge, markedly elevating computational efficiency. This paper examines from multiple perspectives how the fusion of redundant number systems with RNS (termed R-RNS) can diminish latency and enhance circuit implementation, yielding substantial benefits in practical scenarios. We conduct a comparative analysis of four systems - RNS, redundant number system, Binary Number System (BNS), and Signed-Digit Redundant Residue Number System (SD-RNS)-and appraise SD-RNS through an advanced Deep Neural Network (DNN) utilizing the CIFAR-10 dataset. Our findings are encouraging, demonstrating that SD-RNS attains computational speedups of 1.27 times and 2.25 times over RNS and BNS, respectively, and reduces energy consumption by 60% compared to BNS during sequential addition and multiplication tasks.
- Abstract(参考訳): デジタル信号処理、暗号化、ニューラルネットワークなどの計算集約領域では、加算器や乗算器を含む算術単位の性能が重要である。
従来の数値システムは、地域、時間、電力消費に関するこれらの応用の効率要件を満たしていないことが多い。
残基数システム(RNS)や冗長数システムのような革新的アプローチが、この課題を克服するために導入され、計算効率が著しく向上した。
本稿では, RNS (Termed R-RNS) と冗長数系の融合が遅延を低減し, 回路実装を向上し, 実用シナリオにおいて大きなメリットをもたらすか, 複数の視点から検討する。
CIFAR-10データセットを用いて,RSS,冗長数システム,BNS,SD-RNS(Signed-Digit Redundant Residue Number System)とSD-RNS(Signed-Digit Redundant Residue Number System)の4つのシステムの比較分析を行った。
SD-RNS は RNS と BNS でそれぞれ 1.27 倍, 2.25 倍の高速化を実現し, 逐次加算および乗算作業において BNS と比較してエネルギー消費量を60% 削減できることを示した。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Leveraging Residue Number System for Designing High-Precision Analog
Deep Neural Network Accelerators [3.4218508703868595]
我々は、残基数システム(RNS)を用いて、複数の低精度演算から高精度演算を構成する。
RNSは6ドルビットの精度しか持たないデータコンバータを用いて、最先端のDNN推論に対して99%のFP32精度を達成できる。
論文 参考訳(メタデータ) (2023-06-15T20:24:18Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Deep transfer learning for system identification using long short-term
memory neural networks [0.0]
本稿では,パラメータの微調整と凍結という2種類のディープトランスファー学習を用いて,システム識別のためのデータと計算要件を削減することを提案する。
その結果,直接学習と比較して学習の10%から50%が高速化され,データや計算資源も節約されることがわかった。
論文 参考訳(メタデータ) (2022-04-06T23:39:06Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Deep Neural Networks Based Weight Approximation and Computation Reuse
for 2-D Image Classification [0.9507070656654631]
ディープニューラルネットワーク(DNN)は計算とメモリ集約である。
本稿では,近似計算とデータ再利用手法を融合させ,DNNs性能を改善する新しい手法を提案する。
IoTエッジデバイスに適しており、メモリサイズ要件と必要なメモリアクセス数を削減します。
論文 参考訳(メタデータ) (2021-04-28T10:16:53Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Coupled Oscillatory Recurrent Neural Network (coRNN): An accurate and
(gradient) stable architecture for learning long time dependencies [15.2292571922932]
本稿では,リカレントニューラルネットワークのための新しいアーキテクチャを提案する。
提案するRNNは, 2次常微分方程式系の時間分解に基づく。
実験の結果,提案したRNNは,様々なベンチマークによる最先端技術に匹敵する性能を示した。
論文 参考訳(メタデータ) (2020-10-02T12:35:04Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。