論文の概要: An In-Memory Analog Computing Co-Processor for Energy-Efficient CNN
Inference on Mobile Devices
- arxiv url: http://arxiv.org/abs/2105.13904v1
- Date: Mon, 24 May 2021 23:01:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 08:54:51.235214
- Title: An In-Memory Analog Computing Co-Processor for Energy-Efficient CNN
Inference on Mobile Devices
- Title(参考訳): モバイルデバイス上での省エネルギーcnn推定のためのインメモリアナログコンピューティングコプロセッサ
- Authors: Mohammed Elbtity, Abhishek Singh, Brendan Reidy, Xiaochen Guo, Ramtin
Zand
- Abstract要約: 非揮発性メモリアレイ内のシナプス挙動とアクティベーション機能の両方を実現するインメモリアナログコンピューティング(IMAC)アーキテクチャを開発した。
スピン軌道トルク磁気抵抗ランダムアクセスメモリ(SOT-MRAM)装置を利用してシグモダルニューロンと双対シナプスを実現する。
モバイルプロセッサ上での畳み込みニューラルネットワーク(CNN)推論において、異種混合信号と混合精度のCPU-IMACアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 4.117012092777604
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we develop an in-memory analog computing (IMAC) architecture
realizing both synaptic behavior and activation functions within non-volatile
memory arrays. Spin-orbit torque magnetoresistive random-access memory
(SOT-MRAM) devices are leveraged to realize sigmoidal neurons as well as
binarized synapses. First, it is shown the proposed IMAC architecture can be
utilized to realize a multilayer perceptron (MLP) classifier achieving orders
of magnitude performance improvement compared to previous mixed-signal and
digital implementations. Next, a heterogeneous mixed-signal and mixed-precision
CPU-IMAC architecture is proposed for convolutional neural networks (CNNs)
inference on mobile processors, in which IMAC is designed as a co-processor to
realize fully-connected (FC) layers whereas convolution layers are executed in
CPU. Architecture-level analytical models are developed to evaluate the
performance and energy consumption of the CPU-IMAC architecture. Simulation
results exhibit 6.5% and 10% energy savings for CPU-IMAC based realizations of
LeNet and VGG CNN models, for MNIST and CIFAR-10 pattern recognition tasks,
respectively.
- Abstract(参考訳): 本稿では,不揮発性メモリアレイ内のシナプス挙動とアクティベーション機能の両方を実現するインメモリアナログコンピューティング(IMAC)アーキテクチャを提案する。
スピン軌道トルク磁気抵抗ランダムアクセスメモリ(SOT-MRAM)装置を利用してシグモダルニューロンと双対シナプスを実現する。
まず、提案したIMACアーキテクチャを用いて、従来の混合信号およびデジタル実装と比較して、桁違いの性能向上を実現する多層パーセプトロン(MLP)分類器を実現する。
次に,モバイルプロセッサ上での畳み込みニューラルネットワーク (cnns) の推論において,完全接続層 (fc) を実現するためのコプロセッサとしてimacが設計され,畳み込み層がcpuで実行されるようにした。
CPU-IMACアーキテクチャの性能とエネルギー消費を評価するために,アーキテクチャレベルの解析モデルを開発した。
MNIST と CIFAR-10 パターン認識タスクでは CPU-IMAC ベースの LeNet と VGG CNN モデルに対する6.5% と10% の省エネ効果が示されている。
関連論文リスト
- GPU-RANC: A CUDA Accelerated Simulation Framework for Neuromorphic Architectures [1.3401966602181168]
ニューロモーフィックコンピューティングのための再構成可能なアーキテクチャ(RANC)のGPUによる実装について紹介する。
512個のニューロモルフィックコアMNIST推論アプリケーションに基づくRANCシミュレータのシリアルバージョンと比較して,最大780倍の高速化を示した。
論文 参考訳(メタデータ) (2024-04-24T21:08:21Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - CIMulator: A Comprehensive Simulation Platform for Computing-In-Memory
Circuit Macros with Low Bit-Width and Real Memory Materials [0.5325753548715747]
本稿では,ニューロモルフィック加速器における各種シナプスデバイスの有効性を定量化するためのシミュレーションプラットフォーム,CIMulatorを提案する。
抵抗性ランダムアクセスメモリ、強誘電体電界効果トランジスタ、揮発性静的ランダムアクセスメモリ装置などの不揮発性メモリ装置をシナプスデバイスとして選択することができる。
LeNet-5、VGG-16、C4W-1と呼ばれるカスタムCNNのような多層パーセプトロンと畳み込みニューラルネットワーク(CNN)をシミュレートし、これらのシナプスデバイスがトレーニングおよび推論結果に与える影響を評価する。
論文 参考訳(メタデータ) (2023-06-26T12:36:07Z) - Heterogeneous Integration of In-Memory Analog Computing Architectures
with Tensor Processing Units [0.0]
本稿では,IMACユニットとエッジTPUを統合してモバイルCNNの性能を向上させる,新しい,異種,混合信号,混合精度アーキテクチャを提案する。
本稿では,TPU-IMACアーキテクチャ上にモデルをデプロイする際の潜在的な精度低下を軽減するために,混合精度トレーニング手法を取り入れた統合学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-18T19:44:56Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - A Heterogeneous In-Memory Computing Cluster For Flexible End-to-End
Inference of Real-World Deep Neural Networks [12.361842554233558]
最新のTinyMLタスクを小さなバッテリに制約されたIoTデバイスにデプロイするには、高い計算エネルギー効率が必要である。
非揮発性メモリ(NVM)を使用したアナログメモリコンピューティング(IMC)は、ディープニューラルネットワーク(DNN)推論の大幅な効率向上を実現する。
8つのRISC-Vコア、インメモリ・コンピューティング・アクセラレータ(IMA)、デジタル・アクセラレータを統合した異種密結合アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-01-04T11:12:01Z) - A Single-Cycle MLP Classifier Using Analog MRAM-based Neurons and
Synapses [0.0]
MRAMデバイスは、単一サイクルアナログインメモリコンピューティングアーキテクチャのためのシグモダルニューロンと双対シナプスを実現するために利用される。
アナログSOT-MRAMベースのニューロンビットセルが提案され,12倍の消費電力削減を実現している。
アナログMCアーキテクチャは、混合信号アナログ/デジタルMCアーキテクチャと比較して少なくとも2桁と4桁の性能向上を実現している。
論文 参考訳(メタデータ) (2020-12-04T16:04:32Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。