論文の概要: A Co-design view of Compute in-Memory with Non-Volatile Elements for
Neural Networks
- arxiv url: http://arxiv.org/abs/2206.08735v1
- Date: Fri, 3 Jun 2022 15:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 02:52:48.267051
- Title: A Co-design view of Compute in-Memory with Non-Volatile Elements for
Neural Networks
- Title(参考訳): ニューラルネットワークのための不揮発性要素を用いた計算インメモリの共設計
- Authors: Wilfried Haensch, Anand Raghunathan, Kaushik Roy, Bhaswar Chakrabarti,
Charudatta M. Phatak, Cheng Wang and Supratik Guha
- Abstract要約: 次世代のコンピューティングハードウェアにおいて,コンピュート・イン・メモリがいかに重要な役割を果たすかを論じる。
非揮発性メモリベースのクロスバーアーキテクチャは、アナログプロセスを使用して行列ベクトル乗算演算を並列化するエンジンの心臓を形成する。
クロスバーアーキテクチャは、時にはニューロモルフィックアプローチと呼ばれ、将来のコンピュータにおいて重要なハードウェア要素となる。
- 参考スコア(独自算出の注目度): 12.042322495445196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning neural networks are pervasive, but traditional computer
architectures are reaching the limits of being able to efficiently execute them
for the large workloads of today. They are limited by the von Neumann
bottleneck: the high cost in energy and latency incurred in moving data between
memory and the compute engine. Today, special CMOS designs address this
bottleneck. The next generation of computing hardware will need to eliminate or
dramatically mitigate this bottleneck. We discuss how compute-in-memory can
play an important part in this development. Here, a non-volatile memory based
cross-bar architecture forms the heart of an engine that uses an analog process
to parallelize the matrix vector multiplication operation, repeatedly used in
all neural network workloads. The cross-bar architecture, at times referred to
as a neuromorphic approach, can be a key hardware element in future computing
machines. In the first part of this review we take a co-design view of the
design constraints and the demands it places on the new materials and memory
devices that anchor the cross-bar architecture. In the second part, we review
what is knows about the different new non-volatile memory materials and devices
suited for compute in-memory, and discuss the outlook and challenges.
- Abstract(参考訳): ディープラーニングニューラルネットワークは広く普及しているが、従来のコンピュータアーキテクチャは、今日の大規模ワークロードで効率的に実行できる限界に達している。
これはvon neumannのボトルネックによって制限されている: メモリと計算エンジン間のデータ移動に発生するエネルギーとレイテンシの高コスト。
今日、特殊なCMOS設計がこのボトルネックに対処しています。
次世代のコンピューティングハードウェアは、このボトルネックを排除または劇的に軽減する必要がある。
我々は、この開発において、コンピュート・イン・メモリがどのように重要な役割を果たすかについて議論する。
ここでは、不揮発性メモリベースのクロスバーアーキテクチャが、すべてのニューラルネットワークワークロードで繰り返し使用される行列ベクトル乗算演算を並列化するためにアナログプロセスを使用するエンジンの心臓を形成する。
クロスバーアーキテクチャ(cross-bar architecture)は、ニューロモルフィックアプローチと呼ばれることもあるが、将来のコンピューティングマシンにおいて重要なハードウェア要素となる。
このレビューの最初の部分では、クロスバーアーキテクチャをアンカーする新しい材料とメモリデバイスに課される設計上の制約と要求について、共同設計の視点を取っています。
第2部では,インメモリ計算に適した新しい不揮発性メモリ材料とデバイスについて何を知っているのかをレビューし,その展望と課題について論じる。
関連論文リスト
- Memory Is All You Need: An Overview of Compute-in-Memory Architectures for Accelerating Large Language Model Inference [2.9302211589186244]
大規模言語モデル(LLM)は自然言語処理を変換し、機械が人間のようなテキストを生成し、意味のある会話を行うことを可能にする。
計算と記憶能力の発達はムーアの法則の廃止によってさらに悪化している。
コンピュート・イン・メモリ(CIM)技術は、メモリ内でアナログ計算を直接実行することにより、AI推論を加速するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-12T16:57:58Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - AI and Memory Wall [81.06494558184049]
メモリ帯域幅がデコーダモデルの主要なボトルネックとなることを示す。
私たちは、このメモリ制限を克服するためのモデルアーキテクチャ、トレーニング、デプロイメント戦略の再設計を主張します。
論文 参考訳(メタデータ) (2024-03-21T04:31:59Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Robust High-dimensional Memory-augmented Neural Networks [13.82206983716435]
メモリ拡張ニューラルネットワークは、これらの問題を克服するために、明示的なメモリでニューラルネットワークを強化する。
この明示的なメモリへのアクセスは、各個々のメモリエントリを含むソフト読み取りおよび書き込み操作を介して行われる。
本稿では,高次元(HD)ベクトル上でのアナログインメモリ計算を行う明示メモリとして,計算メモリユニットを用いた頑健なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-05T12:01:56Z) - In-memory Implementation of On-chip Trainable and Scalable ANN for AI/ML
Applications [0.0]
本稿では,人工知能(AI)と機械学習(ML)アプリケーションを実現するための,ANNのためのインメモリコンピューティングアーキテクチャを提案する。
我々の新しいオンチップトレーニングとインメモリアーキテクチャは、プリチャージサイクル当たりの配列の複数行を同時にアクセスすることで、エネルギーコストを削減し、スループットを向上させる。
提案したアーキテクチャはIRISデータセットでトレーニングされ、以前の分類器と比較してMAC当たりのエネルギー効率が4,6倍に向上した。
論文 参考訳(メタデータ) (2020-05-19T15:36:39Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。