論文の概要: Interconnect Parasitics and Partitioning in Fully-Analog In-Memory
Computing Architectures
- arxiv url: http://arxiv.org/abs/2201.12480v1
- Date: Sat, 29 Jan 2022 02:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 20:01:19.219994
- Title: Interconnect Parasitics and Partitioning in Fully-Analog In-Memory
Computing Architectures
- Title(参考訳): 全Analogインメモリコンピューティングアーキテクチャにおける相互接続とパーティショニング
- Authors: Md Hasibul Amin, Mohammed Elbtity, Ramtin Zand
- Abstract要約: 完全アナログIMCアーキテクチャに実装したディープニューラルネットワーク(DNN)モデルの精度に及ぼすワイヤ寄生抵抗と容量の影響について検討した。
本稿では,アナログ領域における計算を保ちながら寄生虫の影響を軽減するための分配機構を提案する。
分割処理に要する余分な回路により,高消費電力化による精度の向上が期待できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fully-analog in-memory computing (IMC) architectures that implement both
matrix-vector multiplication and non-linear vector operations within the same
memory array have shown promising performance benefits over conventional IMC
systems due to the removal of energy-hungry signal conversion units. However,
maintaining the computation in the analog domain for the entire deep neural
network (DNN) comes with potential sensitivity to interconnect parasitics.
Thus, in this paper, we investigate the effect of wire parasitic resistance and
capacitance on the accuracy of DNN models deployed on fully-analog IMC
architectures. Moreover, we propose a partitioning mechanism to alleviate the
impact of the parasitic while keeping the computation in the analog domain
through dividing large arrays into multiple partitions. The SPICE circuit
simulation results for a 400 X 120 X 84 X 10 DNN model deployed on a
fully-analog IMC circuit show that a 94.84% accuracy could be achieved for
MNIST classification application with 16, 8, and 8 horizontal partitions, as
well as 8, 8, and 1 vertical partitions for first, second, and third layers of
the DNN, respectively, which is comparable to the ~97% accuracy realized by
digital implementation on CPU. It is shown that accuracy benefits are achieved
at the cost of higher power consumption due to the extra circuitry required for
handling partitioning.
- Abstract(参考訳): 行列ベクトル乗算と非線形ベクトル演算の両方を同一メモリアレイ内に実装した完全アナログインメモリコンピューティング(IMC)アーキテクチャは、エネルギー空調信号変換ユニットの除去により従来のIMCシステムよりも有望な性能上の利点を示している。
しかし、ディープニューラルネットワーク(DNN)全体のアナログ領域での計算を維持するには、寄生虫の相互接続に対する潜在的な感受性が伴う。
そこで本研究では,完全アナログIMCアーキテクチャに実装したDNNモデルの精度に及ぼすワイヤ寄生抵抗と容量の影響について検討する。
さらに,大きな配列を複数のパーティションに分割することで,アナログ領域での計算を保ちながら寄生虫の影響を緩和するパーティショニング機構を提案する。
完全なアナログICC回路上に展開された400 X 120 X 84 X 10 DNNモデルのSPICE回路シミュレーションの結果、MNIST分類では16、8、8の水平分割、DNNの第1、第2、第3の層では8、第3の層では8、第1の層では8、第3の層では97%の精度で94.84%の精度が達成された。
その結果,パーティショニング処理に余分な回路が必要となるため,高消費電力のコストで精度の向上が期待できることがわかった。
関連論文リスト
- IMAGINE: An 8-to-1b 22nm FD-SOI Compute-In-Memory CNN Accelerator With an End-to-End Analog Charge-Based 0.15-8POPS/W Macro Featuring Distribution-Aware Data Reshaping [0.6071203743728119]
作業負荷適応型1-to-8b CIM-CNNアクセラレータであるIMAGINEを22nm FD-SOIで紹介する。
1152x256のエンドツーエンドのチャージベースマクロと、パワーハングリーDACを回避する入力シリアル、ウェイトパラレルの蓄積に基づくマルチビットDPを導入している。
測定結果は、MNISTとCIFAR-10の競争力を持つ、0.3/0.6Vで40TOPS/Wの8b系レベルのエネルギー効率を示す。
論文 参考訳(メタデータ) (2024-12-27T17:18:15Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - StoX-Net: Stochastic Processing of Partial Sums for Efficient In-Memory Computing DNN Accelerators [5.245727758971415]
ディープニューラルネットワーク(DNN)のハードウェアアクセラレーションのための有望なプラットフォームとして、クロスバーウェアベースのインメモリコンピューティング(IMC)が登場した。
論文 参考訳(メタデータ) (2024-07-17T07:56:43Z) - Fast, Scalable, Energy-Efficient Non-element-wise Matrix Multiplication on FPGA [10.630802853096462]
現代のニューラルネットワーク(NN)アーキテクチャは、膨大な数の乗算演算に依存している。
本稿ではFPGA上の高スループット,スケーラブル,エネルギー効率の非要素的行列乗算ユニットを提案する。
AMUを使用すると、FPGAベースの量子ニューラルネットワーク(QNN)アクセラレーターの最先端ソリューションよりも最大9倍高いスループットと112倍高いエネルギー効率が得られる。
論文 参考訳(メタデータ) (2024-07-02T15:28:10Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - Over-the-Air Split Machine Learning in Wireless MIMO Networks [56.27831295707334]
スプリット機械学習(ML)では、ニューラルネットワーク(NN)の異なるパーティションが異なる計算ノードによって実行される。
通信負担を軽減するため、OAC(Over-the-air calculation)は通信と同時に計算の全てまたは一部を効率的に実装することができる。
論文 参考訳(メタデータ) (2022-10-07T15:39:11Z) - Reliability-Aware Deployment of DNNs on In-Memory Analog Computing
Architectures [0.0]
In-Memory Analog Computing (IMAC) 回路は、アナログ領域におけるMVMとNLVの両方の操作を実現することにより、信号変換器の必要性を取り除く。
我々は、ディープニューラルネットワーク(DNN)に大規模な行列を複数の小さなIMACサブアレイに展開する実践的なアプローチを導入し、ノイズや寄生虫の影響を軽減する。
論文 参考訳(メタデータ) (2022-10-02T01:43:35Z) - MRAM-based Analog Sigmoid Function for In-memory Computing [0.0]
本稿では、2つのスピン軌道トルク磁気抵抗ランダムアクセスメモリ(SOT-MRAM)とCMOSインバータを用いた超越活性化関数のアナログ実装を提案する。
提案したアナログニューロン回路は1.8-27倍の消費電力を消費し、最先端アナログやデジタル実装と比較して2.5-4931倍の面積を占める。
論文 参考訳(メタデータ) (2022-04-21T07:13:54Z) - AnalogNets: ML-HW Co-Design of Noise-robust TinyML Models and Always-On
Analog Compute-in-Memory Accelerator [50.31646817567764]
本稿では,キーワードスポッティング (KWS) と視覚覚醒語 (VWW) を常用するTinyMLモデルについて述べる。
アナログ非イデオロギーに面した精度を維持するため、包括的学習手法を詳述する。
また、プログラム可能な最小領域位相変化メモリ(PCM)アナログCiMアクセラレータであるAON-CiMについて述べる。
論文 参考訳(メタデータ) (2021-11-10T10:24:46Z) - Binary DAD-Net: Binarized Driveable Area Detection Network for
Autonomous Driving [94.40107679615618]
本稿では,二項化駆動型領域検出ネットワーク(バイナリDAD-Net)を提案する。
エンコーダ、ボトルネック、デコーダ部分の2重みとアクティベーションのみを使用する。
パブリックデータセット上で、最先端のセマンティックセグメンテーションネットワークより優れています。
論文 参考訳(メタデータ) (2020-06-15T07:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。