論文の概要: Breaking the Memory Wall for AI Chip with a New Dimension
- arxiv url: http://arxiv.org/abs/2009.13664v1
- Date: Mon, 28 Sep 2020 22:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:48:24.656109
- Title: Breaking the Memory Wall for AI Chip with a New Dimension
- Title(参考訳): 新しい次元でaiチップのメモリ壁を壊す
- Authors: Eugene Tam, Shenfei Jiang, Paul Duan, Shawn Meng, Yue Pang, Cayden
Huang, Yi Han, Jacke Xie, Yuanjun Cui, Jinsong Yu, Minggui Lu
- Abstract要約: ディープラーニングは、コンピュータビジョンや自然言語処理などのアプリケーションに人工知能(AI)が広く採用されている。
メモリ帯域幅は処理能力より遅れており、エネルギー消費が総所有コストを支配している。
私たちは、これらの3つの課題に対処するために、ニアメモリコンピューティングアーキテクチャを備えたサンライズと呼ばれる3DAIチップを提示します。
- 参考スコア(独自算出の注目度): 2.01683337112982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in deep learning have led to the widespread adoption of
artificial intelligence (AI) in applications such as computer vision and
natural language processing. As neural networks become deeper and larger, AI
modeling demands outstrip the capabilities of conventional chip architectures.
Memory bandwidth falls behind processing power. Energy consumption comes to
dominate the total cost of ownership. Currently, memory capacity is
insufficient to support the most advanced NLP models. In this work, we present
a 3D AI chip, called Sunrise, with near-memory computing architecture to
address these three challenges. This distributed, near-memory computing
architecture allows us to tear down the performance-limiting memory wall with
an abundance of data bandwidth. We achieve the same level of energy efficiency
on 40nm technology as competing chips on 7nm technology. By moving to similar
technologies as other AI chips, we project to achieve more than ten times the
energy efficiency, seven times the performance of the current state-of-the-art
chips, and twenty times of memory capacity as compared with the best chip in
each benchmark.
- Abstract(参考訳): 近年のディープラーニングの進歩により、コンピュータビジョンや自然言語処理などの応用に人工知能(AI)が広く採用されている。
ニューラルネットワークがより深く大きくなるにつれて、aiモデリングは従来のチップアーキテクチャの能力を上回っている。
メモリ帯域幅は処理能力に遅れる。
エネルギー消費は総所有コストを支配することになる。
現在、メモリ容量は最も高度なNLPモデルをサポートするには不十分である。
本稿では,これら3つの課題を解決するために,近メモリコンピューティングアーキテクチャを備えた3次元aiチップsunriseを提案する。
この分散ニアメモリコンピューティングアーキテクチャにより、データ帯域幅の豊富なパフォーマンス制限されたメモリウォールを分解することができます。
7nm技術における競合チップと同等のエネルギー効率を40nm技術で達成する。
他のaiチップと同じような技術に移行することで、我々は、エネルギー効率の10倍以上、現在の最先端チップのパフォーマンスの7倍、各ベンチマークの最高チップの20倍のメモリ容量を達成することを計画しています。
関連論文リスト
- Dynamic neural network with memristive CIM and CAM for 2D and 3D vision [57.6208980140268]
本稿では,memristor を用いた意味記憶に基づく動的ニューラルネットワーク (DNN) を提案する。
ネットワークは、受信したデータとセマンティックベクターとして格納された過去の経験を関連付ける。
MNISTとModelNetのデータセットから画像と3Dポイントを分類するために、ResNetとPointNet++の40nmのmemristorマクロを用いて、我々の共同設計を検証する。
論文 参考訳(メタデータ) (2024-07-12T04:55:57Z) - OPIMA: Optical Processing-In-Memory for Convolutional Neural Network Acceleration [5.0389804644646174]
我々は,処理インメモリ(PIM)ベースの機械学習アクセラレータであるOPIMAを紹介する。
PIMは、内部データ移動のボトルネックのため、高いスループットとエネルギー効率を達成するのに苦労している。
我々は,OPIMAのスループットが2.98倍,エネルギー効率が137倍であることを示す。
論文 参考訳(メタデータ) (2024-07-11T06:12:04Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - AI and Memory Wall [81.06494558184049]
メモリ帯域幅がデコーダモデルの主要なボトルネックとなることを示す。
私たちは、このメモリ制限を克服するためのモデルアーキテクチャ、トレーニング、デプロイメント戦略の再設計を主張します。
論文 参考訳(メタデータ) (2024-03-21T04:31:59Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Synapse Compression for Event-Based Convolutional-Neural-Network
Accelerators [0.4359525715551522]
シナプス接続のための大きなメモリ要件は、現代の畳み込みニューラルネットワーク(CNN)の実行のためのショートッパーである
この作業は、シナプスメモリ要求を数千回圧縮する軽量なハードウェアスキームを提供することによって、この障害を克服する。
12nm技術におけるシリコン実装は、この技術がシステムの実装コストをわずか2%向上させることを示している。
論文 参考訳(メタデータ) (2021-12-13T21:14:35Z) - Edge AI without Compromise: Efficient, Versatile and Accurate
Neurocomputing in Resistive Random-Access Memory [0.0]
我々は,RRAM CIMを用いた最初のマルチモーダルエッジAIチップであるNeuRRAMを提案する。
計算ビット精度の異なる先行技術よりも, 5 倍のエネルギー効率を 5 倍から 8 倍に向上することを示す。
この作業は、高度に効率的で再構成可能なエッジAIハードウェアプラットフォームを構築するための道を開くものだ。
論文 参考訳(メタデータ) (2021-08-17T21:08:51Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - In-memory Implementation of On-chip Trainable and Scalable ANN for AI/ML
Applications [0.0]
本稿では,人工知能(AI)と機械学習(ML)アプリケーションを実現するための,ANNのためのインメモリコンピューティングアーキテクチャを提案する。
我々の新しいオンチップトレーニングとインメモリアーキテクチャは、プリチャージサイクル当たりの配列の複数行を同時にアクセスすることで、エネルギーコストを削減し、スループットを向上させる。
提案したアーキテクチャはIRISデータセットでトレーニングされ、以前の分類器と比較してMAC当たりのエネルギー効率が4,6倍に向上した。
論文 参考訳(メタデータ) (2020-05-19T15:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。