論文の概要: Neural-PIM: Efficient Processing-In-Memory with Neural Approximation of
Peripherals
- arxiv url: http://arxiv.org/abs/2201.12861v1
- Date: Sun, 30 Jan 2022 16:14:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 04:37:19.692292
- Title: Neural-PIM: Efficient Processing-In-Memory with Neural Approximation of
Peripherals
- Title(参考訳): Neural-PIM: 周辺機器のニューラル近似を用いた効率的な処理インメモリ
- Authors: Weidong Cao, Yilong Zhao, Adith Boloor, Yinhe Han, Xuan Zhang, Li
Jiang
- Abstract要約: 本稿では,ディープラーニングタスクを効率的に高速化する新しいPIMアーキテクチャを提案する。
アナログ集積回路とニューラル近似周辺回路で必要となるA/D変換を最小化する。
異なるベンチマークによる評価では、Neural-PIMはエネルギー効率を5.36x (1.73x)向上し、スループットを3.43x (1.59x)向上する。
- 参考スコア(独自算出の注目度): 11.31429464715989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Processing-in-memory (PIM) architectures have demonstrated great potential in
accelerating numerous deep learning tasks. Particularly, resistive
random-access memory (RRAM) devices provide a promising hardware substrate to
build PIM accelerators due to their abilities to realize efficient in-situ
vector-matrix multiplications (VMMs). However, existing PIM accelerators suffer
from frequent and energy-intensive analog-to-digital (A/D) conversions,
severely limiting their performance. This paper presents a new PIM architecture
to efficiently accelerate deep learning tasks by minimizing the required A/D
conversions with analog accumulation and neural approximated peripheral
circuits. We first characterize the different dataflows employed by existing
PIM accelerators, based on which a new dataflow is proposed to remarkably
reduce the required A/D conversions for VMMs by extending shift and add (S+A)
operations into the analog domain before the final quantizations. We then
leverage a neural approximation method to design both analog accumulation
circuits (S+A) and quantization circuits (ADCs) with RRAM crossbar arrays in a
highly-efficient manner. Finally, we apply them to build an RRAM-based PIM
accelerator (i.e., \textbf{Neural-PIM}) upon the proposed analog dataflow and
evaluate its system-level performance. Evaluations on different benchmarks
demonstrate that Neural-PIM can improve energy efficiency by 5.36x (1.73x) and
speed up throughput by 3.43x (1.59x) without losing accuracy, compared to the
state-of-the-art RRAM-based PIM accelerators, i.e., ISAAC (CASCADE).
- Abstract(参考訳): プロセッシング・イン・メモリ(PIM)アーキテクチャは、多くのディープラーニングタスクを加速する大きな可能性を示している。
特に、抵抗性ランダムアクセスメモリ(RRAM)デバイスは、効率的なベクトル行列乗算(VMM)を実現する能力のために、PIMアクセラレータを構築するための有望なハードウェア基板を提供する。
しかし、既存のPIMアクセラレーターは、頻繁でエネルギー集約的なアナログ-デジタル変換(A/D)に悩まされており、性能を著しく制限している。
本稿では,アナログ集積と神経近似周辺回路を用いたa/d変換を最小化し,ディープラーニングタスクを効率的に高速化する新しいpimアーキテクチャを提案する。
我々はまず,既存のPIMアクセラレーターが使用するデータフローを特徴付け,最後の量子化の前に,シフトを拡張し,(S+A)演算をアナログ領域に付加することにより,VMMsに必要なA/D変換を大幅に削減する新たなデータフローを提案する。
次に、ニューラルネットワークを用いてアナログ集積回路(S+A)と量子化回路(ADC)をRRAMクロスバーアレイで高効率に設計する。
最後に、提案したアナログデータフローに基づいてRRAMベースのPIMアクセラレータ(つまり、 \textbf{Neural-PIM})を構築し、システムレベルの性能を評価する。
異なるベンチマークによる評価では、ニューラルピムはエネルギー効率を5.36x (1.73x)向上し、精度を損なうことなくスループットを3.43x (1.59x)向上できることが示されている。
関連論文リスト
- Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - DDC-PIM: Efficient Algorithm/Architecture Co-design for Doubling Data
Capacity of SRAM-based Processing-In-Memory [6.367916611208411]
等価データ容量を効果的に2倍にする効率的なアルゴリズム/アーキテクチャ共設計手法であるDDC-PIMを提案する。
DDC-PIMはMobileNetV2で約2.84タイム、EfficientNet-B0で約2.69タイム、精度の損失は無視できる。
最先端のマクロと比較して、DDC-PIMは重量密度と面積効率をそれぞれ最大8.41タイムと2.75タイムに改善する。
論文 参考訳(メタデータ) (2023-10-31T12:49:54Z) - Containing Analog Data Deluge at Edge through Frequency-Domain
Compression in Collaborative Compute-in-Memory Networks [0.0]
本稿では,ディープラーニング推論タスクにおける領域効率向上のための新しい手法を提案する。
アナログデータをより効率的に処理することにより、センサからの貴重なデータを選択的に保持し、アナログデータデルージュによる課題を軽減することができる。
論文 参考訳(メタデータ) (2023-09-20T03:52:04Z) - ADC/DAC-Free Analog Acceleration of Deep Neural Networks with Frequency
Transformation [2.7488316163114823]
本稿では,アナログ領域の周波数ベーステンソル変換を用いた周波数領域ニューラルネットワークのエネルギー効率向上手法を提案する。
提案手法は,変換行列のトレーニング可能なパラメータを不要にすることで,よりコンパクトなセルを実現する。
16$times$16のクロスバーで8ビット入力処理を行い,Watt当たりの1602テラ演算のエネルギー効率を実現する。
論文 参考訳(メタデータ) (2023-09-04T19:19:39Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - A New MRAM-based Process In-Memory Accelerator for Efficient Neural
Network Training with Floating Point Precision [28.458719513745812]
本研究では、浮動小数点精度をサポートしたスピン軌道トルク磁気ランダムアクセスメモリ(SOT-MRAM)を用いたデジタルPIM加速器を提案する。
実験の結果,提案したSOT-MRAM PIMベースのDNNトレーニングアクセラレータは3.3$times$,1.8$times$,2.5$times$をエネルギー,遅延,面積の面で改善できることがわかった。
論文 参考訳(メタデータ) (2020-03-02T04:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。