論文の概要: C3PU: Cross-Coupling Capacitor Processing Unit Using Analog-Mixed Signal
In-Memory Computing for AI Inference
- arxiv url: http://arxiv.org/abs/2110.05947v1
- Date: Mon, 11 Oct 2021 08:08:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 13:38:42.135482
- Title: C3PU: Cross-Coupling Capacitor Processing Unit Using Analog-Mixed Signal
In-Memory Computing for AI Inference
- Title(参考訳): C3PU:AI推論のためのアナログミキシング信号インメモリコンピューティングを用いたクロスカップリングキャパシタ処理ユニット
- Authors: Dima Kilani, Baker Mohammad, Yasmin Halawani, Mohammed F. Tolba and
Hani Saleh
- Abstract要約: C3PUは、メモリコンピューティングにおけるアナログ混合信号をサポートし、乗算および累積(MAC)操作を実行する。
4つのMACユニットを実装可能な5x4 C3PUアレイのデモレータを提示する。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel cross-coupling capacitor processing unit (C3PU)
that supports analog-mixed signal in memory computing to perform
multiply-and-accumulate (MAC) operations. The C3PU consists of a capacitive
unit, a CMOS transistor, and a voltage-to-time converter (VTC). The capacitive
unit serves as a computational element that holds the multiplier operand and
performs multiplication once the multiplicand is applied at the terminal. The
multiplicand is the input voltage that is converted to a pulse width signal
using a low power VTC. The transistor transfers this multiplication where a
voltage level is generated. A demonstrator of 5x4 C3PU array that is capable of
implementing 4 MAC units is presented. The design has been verified using Monte
Carlo simulation in 65 nm technology. The 5x4 C3PU consumed energy of 66.4
fJ/MAC at 0.3 V voltage supply with an error of 5.7%. The proposed unit
achieves lower energy and occupies a smaller area by 3.4x and 3.6x,
respectively, with similar error value when compared to a digital-based 8x4-bit
fixed point MAC unit. The C3PU has been utilized through an iris fower
classification utilizing an artificial neural network which achieved a 90%
classification accuracy compared to ideal accuracy of 96.67% using MATLAB.
- Abstract(参考訳): 本稿では,メモリコンピューティングにおけるアナログ混合信号をサポートするクロスカップリングコンデンサ処理ユニット(C3PU)を提案する。
C3PUは、容量ユニット、CMOSトランジスタ、電圧対時変換器(VTC)から構成される。
容量単位は、乗算演算子を保持する計算要素として機能し、乗算が端末に適用されると乗算を行う。
乗算器は、低消費電力のVTCを用いてパルス幅信号に変換される入力電圧である。
トランジスタは、電圧レベルが生成されるこの乗算を転送する。
4つのMACユニットを実装することができる5x4 C3PUアレイのデモレータを示す。
この設計は65nm技術でモンテカルロシミュレーションを用いて検証されている。
5x4 C3PUは66.4 fJ/MACのエネルギーを0.3Vの電圧で消費し、誤差は5.7%だった。
提案ユニットは、デジタルベースの8x4ビット固定点MACユニットと比較して、それぞれ低エネルギーを実現し、それぞれ3.4xと3.6xの小さな領域を占有する。
C3PUは、MATLABを用いた96.67%の理想的な精度と比較して90%の分類精度を達成した人工ニューラルネットワークを用いた虹彩ファーバ分類によって利用されてきた。
関連論文リスト
- Learning Equivariant Non-Local Electron Density Functionals [51.721844709174206]
Equivariant Graph Exchange correlation (EG-XC) は、同変グラフニューラルネットワークに基づく新しい非局所XC関数である。
EG-XCは、半局所関数と同変核中心点雲表現によってパラメータ化された非局所特徴密度を結合する。
MD17では,金標準のCCSD(T)エネルギーを正確に再構成するEG-XCが発見された。
論文 参考訳(メタデータ) (2024-10-10T14:31:45Z) - Kolmogorov-Arnold Transformer [72.88137795439407]
Kolmogorov-Arnold Transformer(KAT)は,階層をKAN(Kolmogorov-Arnold Network)層に置き換える新しいアーキテクチャである。
C1)基本関数,(C2)非効率,(C3)重みの3つの主要な課題を特定する。
これらの設計により、KATは従来のトランスフォーマーよりも優れている。
論文 参考訳(メタデータ) (2024-09-16T17:54:51Z) - A 137.5 TOPS/W SRAM Compute-in-Memory Macro with 9-b Memory
Cell-Embedded ADCs and Signal Margin Enhancement Techniques for AI Edge
Applications [20.74979295607707]
CIMマクロは4x4ビットMAC演算を実行し、9ビット符号付き出力を出力できる。
細胞の無害放電枝を用いて、時間変調MACと9ビットADC読み出し操作を適用する。
論文 参考訳(メタデータ) (2023-07-12T06:20:19Z) - M3ICRO: Machine Learning-Enabled Compact Photonic Tensor Core based on
PRogrammable Multi-Operand Multimode Interference [18.0155410476884]
標準光学部品に基づく光テンソルコア(PTC)の設計は、空間フットプリントが大きいため、スケーラビリティと計算密度を損なう。
M3ICROというプログラム可能なマルチモード干渉(MOMMI)デバイスを用いた超コンパクトPSCを提案する。
M3ICROは、フットプリントが3.4-9.6倍、1.6-4.4倍、計算密度が10.6-42倍、システムスループットが3.7-12倍、ノイズロバスト性が優れている。
論文 参考訳(メタデータ) (2023-05-31T02:34:36Z) - A Charge Domain P-8T SRAM Compute-In-Memory with Low-Cost DAC/ADC
Operation for 4-bit Input Processing [4.054285623919103]
本稿では,PMOS ベースの 8T (P-8T) Compute-In-Memory (CIM) アーキテクチャを提案する。
4ビットの入力アクティベーションと8ビットの重みの間の乗算累積(MAC)演算を効率よく行う。
28nm CMOSプロセスを用いた256X80 P-8T CIMマクロ実装は、91.46%と66.67%の精度を示している。
論文 参考訳(メタデータ) (2022-11-29T08:15:27Z) - A 65nm 8b-Activation 8b-Weight SRAM-Based Charge-Domain Computing-in-Memory Macro Using A Fully-Parallel Analog Adder Network and A Single-ADC Interface [16.228299091691873]
コンピューティング・イン・メモリ(Computer-in-Memory, CiM)は、メモリ内の多重累積演算を可能にする、有望な緩和手法である。
この研究は、CIFAR-10データセットで88.6%の精度を示しながら、51.2GOPSのスループットと10.3TOPS/Wエネルギー効率を達成する。
論文 参考訳(メタデータ) (2022-11-23T07:52:10Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - CAP-RAM: A Charge-Domain In-Memory Computing 6T-SRAM for Accurate and
Precision-Programmable CNN Inference [27.376343943107788]
CAP-RAMは、コンパクトで、正確で、ビット幅でプログラム可能なインメモリ・コンピューティング(IMC)の静的ランダムアクセスメモリ(SRAM)マクロである。
エネルギー効率の良い畳み込みニューラルネットワーク(CNN)の推論を行う。
65nmのプロトタイプは、CAP-RAMの優れた線形性と計算精度を検証する。
論文 参考訳(メタデータ) (2021-07-06T04:59:16Z) - HAWQV3: Dyadic Neural Network Quantization [73.11579145354801]
現在の低精度量子化アルゴリズムは、浮動小数点から量子化された整数値への変換の隠れコストを持つことが多い。
HAWQV3は、新しい混合精度整数のみの量子化フレームワークである。
論文 参考訳(メタデータ) (2020-11-20T23:51:43Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Near-degenerate quadrature-squeezed vacuum generation on a
silicon-nitride chip [54.87128096861778]
本報告では, 小型プリントシリコン窒化ケイ素マイクロ共振器と2重励起4波混合方式を用いて, 高周波キャリアサイドバンドの4相圧縮状態の生成を実証する。
このシステムでは, ポンプの非線形挙動を考慮し, 発生可能なスクイーズを適切に予測することが重要である。
論文 参考訳(メタデータ) (2020-02-04T01:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。