論文の概要: U-SWIM: Universal Selective Write-Verify for Computing-in-Memory Neural
Accelerators
- arxiv url: http://arxiv.org/abs/2401.05357v1
- Date: Mon, 11 Dec 2023 05:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 08:55:58.958498
- Title: U-SWIM: Universal Selective Write-Verify for Computing-in-Memory Neural
Accelerators
- Title(参考訳): U-SWIM: メモリ内ニューラルネットワークのためのユニバーサル選択書き込み検証
- Authors: Zheyu Yan, Xiaobo Sharon Hu, Yiyu Shi
- Abstract要約: 書き込み検証を要求される重みを識別する新しい方法であるUSWIMを紹介する。
USWIMは、従来の徹底的な書き込み検証手法に対して、プログラムアクセラレーションを最大10倍に向上させる。
以前のSWIM技術と比較すると、USWIMは非均一な変化を示すデバイスを扱う場合のスピードアップを7倍に向上させる。
- 参考スコア(独自算出の注目度): 8.813981342105151
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Architectures that incorporate Computing-in-Memory (CiM) using emerging
non-volatile memory (NVM) devices have become strong contenders for deep neural
network (DNN) acceleration due to their impressive energy efficiency. Yet, a
significant challenge arises when using these emerging devices: they can show
substantial variations during the weight-mapping process. This can severely
impact DNN accuracy if not mitigated. A widely accepted remedy for imperfect
weight mapping is the iterative write-verify approach, which involves verifying
conductance values and adjusting devices if needed. In all existing
publications, this procedure is applied to every individual device, resulting
in a significant programming time overhead. In our research, we illustrate that
only a small fraction of weights need this write-verify treatment for the
corresponding devices and the DNN accuracy can be preserved, yielding a notable
programming acceleration. Building on this, we introduce USWIM, a novel method
based on the second derivative. It leverages a single iteration of forward and
backpropagation to pinpoint the weights demanding write-verify. Through
extensive tests on diverse DNN designs and datasets, USWIM manifests up to a
10x programming acceleration against the traditional exhaustive write-verify
method, all while maintaining a similar accuracy level. Furthermore, compared
to our earlier SWIM technique, USWIM excels, showing a 7x speedup when dealing
with devices exhibiting non-uniform variations.
- Abstract(参考訳): 新たな非揮発性メモリ(NVM)デバイスを使用したComputer-in-Memory(CiM)を組み込んだアーキテクチャは、その印象的なエネルギー効率のため、ディープニューラルネットワーク(DNN)アクセラレーションの強力な競争相手となっている。
しかし、これらの新興デバイスを使用する際には、重大な課題が生じる。
これはDNNの精度に悪影響を及ぼす可能性がある。
不完全な重みマッピングに対する広く受け入れられている治療法は、コンダクタンス値の検証と必要に応じてデバイスを調整する反復書き込み検証アプローチである。
既存のすべての出版物において、この手順は各デバイスに適用され、結果としてプログラミングのオーバーヘッドが大幅に増大する。
本研究では,対応するデバイスに対する書き込み検証処理が必要な重みのごく一部に過ぎず,dnn精度を維持でき,プログラミングの高速化が期待できることを示す。
これに基づいて、第2微分に基づく新しい方法であるUSWIMを紹介する。
フォワードとバックプロパゲーションの1イテレーションを活用して、書き込み検証を必要とする重みを特定できる。
多様なDNNの設計とデータセットに関する広範なテストを通じて、USWIMは、同じ精度を維持しながら、従来の徹底的な書き込み検証手法に対して、最大10倍のプログラムアクセラレーションを示す。
さらに、以前のSWIM技術と比較して、USWIMは7倍のスピードアップを示し、非均一なばらつきを示すデバイスを扱う。
関連論文リスト
- High-speed Low-consumption sEMG-based Transient-state micro-Gesture
Recognition [6.649481653007372]
提案されたSNNの精度はそれぞれ83.85%と93.52%である。
この手法は、高精度、高速、低消費電力のマイクロジェスチャー認識タスクに使用できる。
論文 参考訳(メタデータ) (2024-03-04T08:59:12Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - Fixflow: A Framework to Evaluate Fixed-point Arithmetic in Light-Weight
CNN Inference [0.0]
畳み込みニューラルネットワーク(CNN)は、IoTアプリケーションのリソース制約されたデバイスで広く利用されている。
本稿では,異なる固定点ハードウェアユニットがCNN推定精度に与える影響について検討する。
論文 参考訳(メタデータ) (2023-02-19T12:48:52Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - Adaptive Block Floating-Point for Analog Deep Learning Hardware [1.6997472894492924]
アナログ混合信号(AMS)デバイスは、デジタル信号よりも高速でエネルギー効率の高いディープニューラルネットワーク(DNN)推論を約束する。
近年の研究では、固定点数を持つAMSデバイス上でのDNNは、精度の低下により精度の低下を招き得ることが示されている。
AMS互換適応ブロック浮動小数点(ABFP)数表現を提案する。
論文 参考訳(メタデータ) (2022-05-12T18:05:37Z) - SWIM: Selective Write-Verify for Computing-in-Memory Neural Accelerators [15.760502065894778]
書込み検証が必要なウェイトを効率よく選択するために,フォワードとバックプロパゲーションの1パスしか必要としない第2のデリバティブベース手法SWIMを導入する。
実験により、SWIMは従来のフルブルーの書き込み検証に比べて最大10倍のプログラムスピードアップを実現可能であることが示された。
論文 参考訳(メタデータ) (2022-02-17T01:27:39Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。