論文の概要: Resistive Neural Hardware Accelerators
- arxiv url: http://arxiv.org/abs/2109.03934v1
- Date: Wed, 8 Sep 2021 21:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 20:15:45.952063
- Title: Resistive Neural Hardware Accelerators
- Title(参考訳): 抵抗性ニューラルハードウェアアクセラレーター
- Authors: Kamilya Smagulova, Mohammed E. Fouda, Fadi Kurdahi, Khaled Salama and
Ahmed Eltawil
- Abstract要約: ReRAMベースのインメモリコンピューティングは、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
ReRAMベースのインメモリコンピューティングへの移行は、領域と電力効率のよい推論の実装において大きな可能性を秘めている。
本稿では,最先端のReRAMベースディープニューラルネットワーク(DNN)多コアアクセラレータについて概説する。
- 参考スコア(独自算出の注目度): 0.46198289193451136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs), as a subset of Machine Learning (ML) techniques,
entail that real-world data can be learned and that decisions can be made in
real-time. However, their wide adoption is hindered by a number of software and
hardware limitations. The existing general-purpose hardware platforms used to
accelerate DNNs are facing new challenges associated with the growing amount of
data and are exponentially increasing the complexity of computations. An
emerging non-volatile memory (NVM) devices and processing-in-memory (PIM)
paradigm is creating a new hardware architecture generation with increased
computing and storage capabilities. In particular, the shift towards
ReRAM-based in-memory computing has great potential in the implementation of
area and power efficient inference and in training large-scale neural network
architectures. These can accelerate the process of the IoT-enabled AI
technologies entering our daily life. In this survey, we review the
state-of-the-art ReRAM-based DNN many-core accelerators, and their superiority
compared to CMOS counterparts was shown. The review covers different aspects of
hardware and software realization of DNN accelerators, their present
limitations, and future prospectives. In particular, comparison of the
accelerators shows the need for the introduction of new performance metrics and
benchmarking standards. In addition, the major concerns regarding the efficient
design of accelerators include a lack of accuracy in simulation tools for
software and hardware co-design.
- Abstract(参考訳): Deep Neural Networks(DNN)は、機械学習(ML)技術のサブセットとして、現実世界のデータを学習し、意思決定をリアルタイムで行うことを必要とする。
しかし、その広範な採用は、多くのソフトウェアとハードウェアの制限によって妨げられている。
dnnの高速化に使われる既存の汎用ハードウェアプラットフォームは、データ量の増加に伴う新たな課題に直面しており、計算の複雑さを指数関数的に増加させている。
新たな非揮発性メモリ(NVM)デバイスとプロセッシング・イン・メモリ(PIM)パラダイムは、コンピューティングとストレージ機能を強化した、新しいハードウェアアーキテクチャの生成である。
特に、reramベースのインメモリコンピューティングへのシフトは、領域と電力効率のよい推論の実装と大規模ニューラルネットワークアーキテクチャのトレーニングにおいて大きな可能性を秘めている。
これらのことは、IoT対応AI技術が私たちの日常生活に浸透する過程を加速させる。
本稿では、最先端のReRAMベースの多コアアクセラレータDNNについて概説し、CMOSと比較して優位性を示した。
本レビューでは,DNNアクセラレータのハードウェアおよびソフトウェア実現のさまざまな側面,現状の限界,今後の展望について紹介する。
特に、アクセラレータの比較は、新しいパフォーマンスメトリクスとベンチマーク標準の導入の必要性を示しています。
加えて、アクセラレーターの効率的な設計に関する主な懸念は、ソフトウェアとハードウェアの共同設計のためのシミュレーションツールの精度の欠如である。
関連論文リスト
- Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - From DNNs to GANs: Review of efficient hardware architectures for deep
learning [0.0]
ニューラルネットワークとディープラーニングが現在の研究パラダイムに影響を与え始めている。
DSPプロセッサは、ニューラルネットワーク、アクティベーション機能、畳み込みニューラルネットワーク、生成的敵ネットワーク操作を実行することができない。
異なるアルゴリズムは、ニューラルネットワーク、アクティベーション機能、畳み込みニューラルネットワーク、生成対向ネットワークにおける高速なパフォーマンスに適合するDSPプロセッサを設計するために適合している。
論文 参考訳(メタデータ) (2021-06-06T13:23:06Z) - Measuring what Really Matters: Optimizing Neural Networks for TinyML [7.455546102930911]
ニューラルネットワーク(NN)は、アーキテクチャと計算の複雑さが前例のない成長を遂げた。
NNをリソース制約のあるデバイスに導入することで、コスト効率の高いデプロイメント、広範な可用性、機密データの保存が可能になる。
この作業は、ユビキタスなARM Cortex-Mアーキテクチャに焦点を当てた、機械学習をMCUに持ち込むという課題に対処する。
論文 参考訳(メタデータ) (2021-04-21T17:14:06Z) - Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors [0.0]
ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
論文 参考訳(メタデータ) (2021-04-19T12:50:27Z) - DANCE: Differentiable Accelerator/Network Co-Exploration [8.540518473228078]
この研究は、ハードウェアアクセラレーターとネットワークアーキテクチャ設計の共同探索に向けた異なるアプローチを示す。
ハードウェア評価ソフトウェアをニューラルネットワークでモデル化することにより、アクセラレーションアーキテクチャとハードウェアメトリクスの関係は微分可能となる。
提案手法は,既存手法と比較して,精度とハードウェアコストの指標を向上しつつ,比較的短い時間で共同探索を行う。
論文 参考訳(メタデータ) (2020-09-14T07:43:27Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。