論文の概要: Analog, In-memory Compute Architectures for Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2302.06417v1
- Date: Fri, 13 Jan 2023 21:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:20:28.491529
- Title: Analog, In-memory Compute Architectures for Artificial Intelligence
- Title(参考訳): 人工知能のためのアナログ・インメモリ計算アーキテクチャ
- Authors: Patrick Bowen, Guy Regev, Nir Regev, Bruno Pedroni, Edward Hanson, and
Yiran Chen
- Abstract要約: 分析の焦点は、計算の規模、算術的強度、ビット精度で効率がどのようにスケールするかである。
アナログなインメモリコンピューティングアーキテクチャは、問題サイズとプロセッササイズの両方のスケールで、任意に高いエネルギー効率にアプローチできることが示されている。
- 参考スコア(独自算出の注目度): 24.29157492961455
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents an analysis of the fundamental limits on energy
efficiency in both digital and analog in-memory computing architectures, and
compares their performance to single instruction, single data (scalar) machines
specifically in the context of machine inference. The focus of the analysis is
on how efficiency scales with the size, arithmetic intensity, and bit precision
of the computation to be performed. It is shown that analog, in-memory
computing architectures can approach arbitrarily high energy efficiency as both
the problem size and processor size scales.
- Abstract(参考訳): 本稿では,デジタルおよびアナログのインメモリ・コンピューティング・アーキテクチャにおけるエネルギー効率に関する基礎的限界の解析を行い,その性能を機械推論の文脈における単一命令・単一データ(スカラー)マシンと比較する。
分析の焦点は、計算対象のサイズ、演算強度、ビット精度によって効率がどのようにスケールするかである。
アナログなインメモリコンピューティングアーキテクチャは、問題サイズとプロセッササイズの両方のスケールで、任意に高いエネルギー効率にアプローチできることが示されている。
関連論文リスト
- Kernel Approximation using Analog In-Memory Computing [3.5231018007564203]
カーネル関数は、いくつかの機械学習アルゴリズムの重要な要素であるが、しばしば大きなメモリと計算コストを発生させる。
本稿では,混合信号アナログメモリ・コンピューティング(AIMC)アーキテクチャに適した機械学習アルゴリズムにおけるカーネル近似手法を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:18:47Z) - CHIME: Energy-Efficient STT-RAM-based Concurrent Hierarchical In-Memory Processing [1.5566524830295307]
本稿では、新しいPiC/PiMアーキテクチャ、Concurrent Hierarchical In-Memory Processing(CHIME)を紹介する。
CHIMEは、メモリ階層の複数のレベルにわたる不均一な計算ユニットを戦略的に組み込む。
実験の結果、最先端のビット線コンピューティングアプローチと比較して、CHIMEは57.95%と78.23%の大幅なスピードアップと省エネを実現していることがわかった。
論文 参考訳(メタデータ) (2024-07-29T01:17:54Z) - BOLD: Boolean Logic Deep Learning [1.4272256806865107]
本稿では、ブール重みと入力からなるニューロンを、降下勾配や実算術の代わりにブール論理を用いてブール領域で効率的に訓練できるようなブール変動の概念を導入する。
提案手法は,ImageNet分類におけるベースライン完全精度を実現し,セマンティックセグメンテーションの最先端結果を上回った。
トレーニングと推論の双方において、エネルギー消費を著しく減少させる。
論文 参考訳(メタデータ) (2024-05-25T19:50:23Z) - Pruning random resistive memory for optimizing analogue AI [54.21621702814583]
AIモデルは、エネルギー消費と環境持続可能性に前例のない課題を提示する。
有望な解決策の1つは、アナログコンピューティングを再考することである。
ここでは、構造的塑性に着想を得たエッジプルーニングを用いたユニバーサルソリューション、ソフトウェア・ハードウエアの共設計について報告する。
論文 参考訳(メタデータ) (2023-11-13T08:59:01Z) - A survey on efficient vision transformers: algorithms, techniques, and
performance benchmarking [19.65897437342896]
Vision Transformer (ViT) アーキテクチャは、コンピュータビジョンアプリケーションに取り組むために人気が高まり、広く使われている。
本稿では,ビジョントランスフォーマーを効率的にするための戦略を数学的に定義し,最先端の方法論を記述・議論し,その性能を異なるアプリケーションシナリオで解析する。
論文 参考訳(メタデータ) (2023-09-05T08:21:16Z) - Machine learning at the mesoscale: a computation-dissipation bottleneck [77.34726150561087]
入力出力デバイスとして使用されるメソスコピックシステムにおける計算散逸ボトルネックについて検討する。
我々のフレームワークは、情報圧縮、入出力計算、非相互相互作用によって引き起こされる動的不可逆性の間の決定的な妥協に光を当てている。
論文 参考訳(メタデータ) (2023-07-05T15:46:07Z) - Theory and Implementation of Process and Temperature Scalable
Shape-based CMOS Analog Circuits [6.548257506132353]
本研究はアナログMLプロセッサを設計するための新しいアナログコンピューティングフレームワークを提案する。
私たちの研究の核心は形状ベースのアナログコンピューティング(S-AC)です。
S-ACパラダイムにより、ユーザーは計算精度をシリコン回路領域と電力でトレードオフできる。
論文 参考訳(メタデータ) (2022-05-11T17:46:01Z) - Symmetry Group Equivariant Architectures for Physics [52.784926970374556]
機械学習の分野では、対称性に対する認識が目覚ましいパフォーマンスのブレークスルーを引き起こしている。
物理学のコミュニティと、より広い機械学習のコミュニティの両方に、理解すべきことがたくさんある、と私たちは主張する。
論文 参考訳(メタデータ) (2022-03-11T18:27:04Z) - Optimal radial basis for density-based atomic representations [58.720142291102135]
データセットの構造的多様性を最も効率的に表現するために選択される適応的で最適な数値ベースを構築する方法について議論します。
トレーニングデータセットごとに、この最適なベースはユニークで、プリミティブベースに関して追加のコストなしで計算することができる。
この構成が精度と計算効率のよい表現をもたらすことを実証する。
論文 参考訳(メタデータ) (2021-05-18T17:57:08Z) - Quantum Algorithms for Data Representation and Analysis [68.754953879193]
機械学習におけるデータ表現のための固有problemsの解を高速化する量子手続きを提供する。
これらのサブルーチンのパワーと実用性は、主成分分析、対応解析、潜在意味解析のための入力行列の大きさのサブ線形量子アルゴリズムによって示される。
その結果、入力のサイズに依存しない実行時のパラメータは妥当であり、計算モデル上の誤差が小さいことが示され、競合的な分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-19T00:41:43Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。