論文の概要: Bias-Scalable Near-Memory CMOS Analog Processor for Machine Learning
- arxiv url: http://arxiv.org/abs/2202.05022v3
- Date: Wed, 4 Jan 2023 08:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 04:48:26.275089
- Title: Bias-Scalable Near-Memory CMOS Analog Processor for Machine Learning
- Title(参考訳): 機械学習のためのバイアススケーラブルニアメモリCMOSアナログプロセッサ
- Authors: Pratik Kumar, Ankita Nandi, Shantanu Chakrabartty, Chetan Singh Thakur
- Abstract要約: バイアススケーリング可能な近似アナログコンピューティングは、異なる性能仕様の機械学習(ML)プロセッサを実装する上で魅力的である。
本稿では、マージン・プロパゲーションの原理を一般化したバイアス計算可能な近似アナログ演算回路の実装を実証する。
- 参考スコア(独自算出の注目度): 6.548257506132353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bias-scalable analog computing is attractive for implementing machine
learning (ML) processors with distinct power-performance specifications. For
instance, ML implementations for server workloads are focused on higher
computational throughput for faster training, whereas ML implementations for
edge devices are focused on energy-efficient inference. In this paper, we
demonstrate the implementation of bias-scalable approximate analog computing
circuits using the generalization of the margin-propagation principle called
shape-based analog computing (S-AC). The resulting S-AC core integrates several
near-memory compute elements, which include: (a) non-linear activation
functions; (b) inner-product compute circuits; and (c) a mixed-signal
compressive memory, all of which can be scaled for performance or power while
preserving its functionality. Using measured results from prototypes fabricated
in a 180nm CMOS process, we demonstrate that the performance of computing
modules remains robust to transistor biasing and variations in temperature. In
this paper, we also demonstrate the effect of bias-scalability and
computational accuracy on a simple ML regression task.
- Abstract(参考訳): Bias-scalable analog computingは、異なるパワーパフォーマンス仕様の機械学習(ML)プロセッサを実装する上で魅力的である。
例えば、サーバーワークロード用のML実装はより高速なトレーニングのために高い計算スループットに重点を置いているのに対して、エッジデバイス用のML実装はエネルギー効率のよい推論に重点を置いている。
本稿では,形状ベースアナログコンピューティング(S-AC)と呼ばれるマージン伝搬原理を一般化したバイアス計算可能な近似アナログ演算回路の実装を実演する。
S-ACコアは、以下のいくつかのニアメモリ計算要素を統合している。
(a)非線形活性化機能
(b)内積演算回路及び
(c)混合信号圧縮メモリで、その機能を維持しながら、性能やパワーのために拡張することができる。
180nm CMOSプロセスで作製したプロトタイプの計測結果を用いて,演算モジュールの性能がトランジスタのバイアスや温度変化に対して頑健であることを実証した。
本稿では,単純なML回帰課題に対するバイアススケーリング性と計算精度の影響を実証する。
関連論文リスト
- Kernel Approximation using Analog In-Memory Computing [3.5231018007564203]
カーネル関数は、いくつかの機械学習アルゴリズムの重要な要素であるが、しばしば大きなメモリと計算コストを発生させる。
本稿では,混合信号アナログメモリ・コンピューティング(AIMC)アーキテクチャに適した機械学習アルゴリズムにおけるカーネル近似手法を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:18:47Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Electronic excited states from physically-constrained machine learning [0.0]
本稿では,実効ハミルトニアンの対称性適応MLモデルをトレーニングし,量子力学計算から電子励起を再現する統合モデリング手法を提案する。
結果として得られるモデルは、トレーニングされた分子よりもずっと大きく、より複雑な分子を予測できる。
論文 参考訳(メタデータ) (2023-11-01T20:49:59Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Theory and Implementation of Process and Temperature Scalable
Shape-based CMOS Analog Circuits [6.548257506132353]
本研究はアナログMLプロセッサを設計するための新しいアナログコンピューティングフレームワークを提案する。
私たちの研究の核心は形状ベースのアナログコンピューティング(S-AC)です。
S-ACパラダイムにより、ユーザーは計算精度をシリコン回路領域と電力でトレードオフできる。
論文 参考訳(メタデータ) (2022-05-11T17:46:01Z) - Memristive Stochastic Computing for Deep Learning Parameter Optimization [1.6344851071810071]
コンピューティング(sc)は、ビットストリームとデジタルロジックを用いた様々な演算処理の低コストかつ低消費電力化を可能にするコンピューティングパラダイムである。
40nmの補完金属酸化物半導体(CMOS)プロセスを使用することで、拡張可能なアーキテクチャは1.55mm$2$を占め、文字認識タスクのために訓練されている間、畳み込みニューラルネットワーク(CNN)のパラメータを最適化する際に約167$mu$Wを消費します。
論文 参考訳(メタデータ) (2021-03-11T07:10:32Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Automatic Differentiation in ROOT [62.997667081978825]
数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
本稿では、任意のC/C++関数の導関数を生成するために、ClingがサポートするROOTで利用可能なAD技術を提案する。
論文 参考訳(メタデータ) (2020-04-09T09:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。