論文の概要: Enhancing Computational Efficiency in Intensive Domains via Redundant Residue Number Systems
- arxiv url: http://arxiv.org/abs/2408.05639v1
- Date: Sat, 10 Aug 2024 21:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 18:01:49.068722
- Title: Enhancing Computational Efficiency in Intensive Domains via Redundant Residue Number Systems
- Title(参考訳): 冗長残差数システムによる集中領域の計算効率の向上
- Authors: Soudabeh Mousavi, Dara Rahmati, Saeid Gorgin, Jeong-A Lee,
- Abstract要約: 本稿では, RNS (termed R-RNS) と冗長数系を融合することにより, 遅延を低減し, 回路実装を向上する方法について検討する。
RNS、冗長数システム、BNS(Binary Number System)、SD-RNS(Signed-Digit Redundant Residue Number System)の4つのシステムの比較分析を行った。
SD-RNS は RNS と BNS でそれぞれ 1.27 倍, 2.25 倍の高速化を実現し, 逐次加算および乗算作業において BNS と比較してエネルギー消費量を60% 削減できることを示した。
- 参考スコア(独自算出の注目度): 0.9710679356946952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In computation-intensive domains such as digital signal processing, encryption, and neural networks, the performance of arithmetic units, including adders and multipliers, is pivotal. Conventional numerical systems often fall short of meeting the efficiency requirements of these applications concerning area, time, and power consumption. Innovative approaches like residue number systems (RNS) and redundant number systems have been introduced to surmount this challenge, markedly elevating computational efficiency. This paper examines from multiple perspectives how the fusion of redundant number systems with RNS (termed R-RNS) can diminish latency and enhance circuit implementation, yielding substantial benefits in practical scenarios. We conduct a comparative analysis of four systems - RNS, redundant number system, Binary Number System (BNS), and Signed-Digit Redundant Residue Number System (SD-RNS)-and appraise SD-RNS through an advanced Deep Neural Network (DNN) utilizing the CIFAR-10 dataset. Our findings are encouraging, demonstrating that SD-RNS attains computational speedups of 1.27 times and 2.25 times over RNS and BNS, respectively, and reduces energy consumption by 60% compared to BNS during sequential addition and multiplication tasks.
- Abstract(参考訳): デジタル信号処理、暗号化、ニューラルネットワークなどの計算集約領域では、加算器や乗算器を含む算術単位の性能が重要である。
従来の数値システムは、地域、時間、電力消費に関するこれらの応用の効率要件を満たしていないことが多い。
残基数システム(RNS)や冗長数システムのような革新的アプローチが、この課題を克服するために導入され、計算効率が著しく向上した。
本稿では, RNS (Termed R-RNS) と冗長数系の融合が遅延を低減し, 回路実装を向上し, 実用シナリオにおいて大きなメリットをもたらすか, 複数の視点から検討する。
CIFAR-10データセットを用いて,RSS,冗長数システム,BNS,SD-RNS(Signed-Digit Redundant Residue Number System)とSD-RNS(Signed-Digit Redundant Residue Number System)の4つのシステムの比較分析を行った。
SD-RNS は RNS と BNS でそれぞれ 1.27 倍, 2.25 倍の高速化を実現し, 逐次加算および乗算作業において BNS と比較してエネルギー消費量を60% 削減できることを示した。
関連論文リスト
- Exploring Neural Network Pruning with Screening Methods [3.443622476405787]
現代のディープラーニングモデルは数千万のパラメータを持ち、推論プロセスはリソース集約化されている。
本稿では,非必須パラメータを除去するネットワーク・プルーニング・フレームワークの提案と評価を行う。
提案するフレームワークは,従来のネットワークと比較して,競争力のあるリーンネットワークを生成する。
論文 参考訳(メタデータ) (2025-02-11T02:31:04Z) - Enhanced Quantile Regression with Spiking Neural Networks for Long-Term System Health Prognostics [0.0]
本稿では,拡張量子回帰ニューラルネットワーク(EQRNN)を中心に,新しい予測保守フレームワークを提案する。
先進的なニューラルネットワークを組み合わせたハイブリッドアプローチによる早期障害検出の課題に対処する。
計算効率を維持しながら複雑なマルチモーダルセンサーデータを処理する上でのこのフレームワークの有効性は、産業用4.0の製造環境への適用性を検証する。
論文 参考訳(メタデータ) (2025-01-09T09:11:40Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Leveraging Residue Number System for Designing High-Precision Analog
Deep Neural Network Accelerators [3.4218508703868595]
我々は、残基数システム(RNS)を用いて、複数の低精度演算から高精度演算を構成する。
RNSは6ドルビットの精度しか持たないデータコンバータを用いて、最先端のDNN推論に対して99%のFP32精度を達成できる。
論文 参考訳(メタデータ) (2023-06-15T20:24:18Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Deep Neural Networks Based Weight Approximation and Computation Reuse
for 2-D Image Classification [0.9507070656654631]
ディープニューラルネットワーク(DNN)は計算とメモリ集約である。
本稿では,近似計算とデータ再利用手法を融合させ,DNNs性能を改善する新しい手法を提案する。
IoTエッジデバイスに適しており、メモリサイズ要件と必要なメモリアクセス数を削減します。
論文 参考訳(メタデータ) (2021-04-28T10:16:53Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。