論文の概要: ODIN: A Bit-Parallel Stochastic Arithmetic Based Accelerator for In-Situ
Neural Network Processing in Phase Change RAM
- arxiv url: http://arxiv.org/abs/2103.03953v1
- Date: Fri, 5 Mar 2021 21:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 07:48:52.774629
- Title: ODIN: A Bit-Parallel Stochastic Arithmetic Based Accelerator for In-Situ
Neural Network Processing in Phase Change RAM
- Title(参考訳): ODIN: 位相変化RAMにおけるその場ニューラルネットワーク処理のためのビットパラレル確率的算術ベース加速器
- Authors: Supreeth Mysore Shivanandamurthy, Ishan. G. Thakkar, Sayed Ahmad
Salehi
- Abstract要約: ハイブリッド二進数確率ビット並列演算を用いたメモリ内処理エンジンODIN(PCRAM)を提案する。
この分析の結果、当社のODIN加速器は少なくとも5.8倍速く、エネルギー効率が23.2倍、最大90.8倍速く、エネルギー効率が1554倍高いことが示されています。
- 参考スコア(独自算出の注目度): 0.5257115841810257
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Due to the very rapidly growing use of Artificial Neural Networks (ANNs) in
real-world applications related to machine learning and Artificial Intelligence
(AI), several hardware accelerator de-signs for ANNs have been proposed
recently. In this paper, we present a novel processing-in-memory (PIM) engine
called ODIN that employs hybrid binary-stochastic bit-parallel arithmetic
in-side phase change RAM (PCRAM) to enable a low-overhead in-situ acceleration
of all essential ANN functions such as multiply-accumulate (MAC), nonlinear
activation, and pooling. We mapped four ANN benchmark applications on ODIN to
compare its performance with a conventional processor-centric design and a
crossbar-based in-situ ANN accelerator from prior work. The results of our
analysis for the considered ANN topologies indicate that our ODIN accelerator
can be at least 5.8x faster and 23.2x more energy-efficient, and up to 90.8x
faster and 1554x more energy-efficient, compared to the crossbar-based in-situ
ANN accelerator from prior work.
- Abstract(参考訳): ANN(Artificial Neural Networks)が機械学習やAI(Artificial Intelligence)に関連する現実世界のアプリケーションで急速に普及しているため、ANNのハードウェアアクセラレーター設計が最近提案されている。
本論文では,マルチプライ累積(MAC),非線形アクティベーション,プーリングといった重要なANN関数を低オーバーヘッドで加速するために,ハイブリッドバイナリ確率ビット並列演算インサイド位相変化RAM (PCRAM) を採用した ODIN と呼ばれる新しい処理インメモリ (PIM) エンジンを提案する。
4つのANNベンチマークアプリケーションをODIN上にマップし、従来のプロセッサ中心の設計とクロスバーベースのANNアクセラレータと比較した。
検討されたANNトポロジの分析の結果は、ODIN加速器が少なくとも5.8倍速く、23.2倍エネルギー効率が高く、最大90.8倍速く、1554倍エネルギー効率が高いことを示しています。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - FireFly v2: Advancing Hardware Support for High-Performance Spiking
Neural Network with a Spatiotemporal FPGA Accelerator [8.0611988136866]
Spiking Neural Networks(SNN)は、Artificial Neural Networks(ANN)の代替として期待されている。
特殊なSNNハードウェアは、電力と性能の点で汎用デバイスよりも明確な優位性を提供する。
FPGA SNNアクセラレータであるFireFly v2は、現在のSOTA SNNアルゴリズムにおける非スパイク操作の問題に対処することができる。
論文 参考訳(メタデータ) (2023-09-28T04:17:02Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - NASA: Neural Architecture Search and Acceleration for Hardware Inspired
Hybrid Networks [24.95135135092478]
我々はNASAというニューラルアーキテクチャ検索・加速フレームワークを提案する。
自動乗算型DNN開発を可能にし、専用乗算型加速器を統合する。
実験は、達成可能な精度と効率のトレードオフの観点から、NASAのアルゴリズム・ハードウェアの共同設計フレームワークの利点を一貫して評価する。
論文 参考訳(メタデータ) (2022-10-24T16:03:42Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - U-Boost NAS: Utilization-Boosted Differentiable Neural Architecture
Search [50.33956216274694]
ターゲットプラットフォームにおけるリソース利用の最適化は、DNN推論時に高いパフォーマンスを達成するための鍵となる。
本稿では,タスクの正確性や推論遅延を最適化するだけでなく,資源利用のためのハードウェア対応NASフレームワークを提案する。
我々は,従来のハードウェア対応NAS法と比較して,DNN推論の2.8~4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-03-23T13:44:15Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - SpinAPS: A High-Performance Spintronic Accelerator for Probabilistic
Spiking Neural Networks [31.3159725020842]
Spintronic Accelerator for Probabilistic SNNの"SpinAPS"は、ファースト・ツー・スパイク復号のための原則的直接学習ルールを実装している。
提案手法は,手書き桁と人的活動認識ベンチマークにおいて,同等のANNで同等の性能を達成できることが示されている。
論文 参考訳(メタデータ) (2020-08-05T15:37:47Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - Balancing Efficiency and Flexibility for DNN Acceleration via Temporal
GPU-Systolic Array Integration [22.90145417561172]
本稿では,新しいアーキテクチャ設計・実行モデルである同時多モードアーキテクチャ(SMA)を提案する。
SMAは、エンドツーエンドのアプリケーションを高速化するために、DNNアクセラレーターに汎用的なプログラマビリティを提供する。
SMAは最大63%のパフォーマンス向上を実現し、Volta-Coreのベースラインアーキテクチャよりも23%少ないエネルギーを消費する。
論文 参考訳(メタデータ) (2020-02-18T17:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。