論文の概要: Device-aware inference operations in SONOS nonvolatile memory arrays
- arxiv url: http://arxiv.org/abs/2004.00802v1
- Date: Thu, 2 Apr 2020 04:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 09:45:01.426728
- Title: Device-aware inference operations in SONOS nonvolatile memory arrays
- Title(参考訳): sonos不揮発性メモリアレイにおけるデバイスアウェア推論演算
- Authors: Christopher H. Bennett, T. Patrick Xiao, Ryan Dellana, Vineet Agrawal,
Ben Feinberg, Venkatraman Prabhakar, Krishnaswamy Ramkumar, Long Hinh,
Swatilekha Saha, Vijay Raghavan, Ramesh Chettuvetty, Sapan Agarwal, and
Matthew J. Marinella
- Abstract要約: 非揮発性メモリアレイは、エッジ推論のためのトレーニング済みニューラルネットワークモデルをデプロイすることができる。
これらのシステムは、デバイスレベルのノイズと保持の問題によって影響を受ける。
緩和戦略を導入し,その有効性を実証する。
- 参考スコア(独自算出の注目度): 0.6001592274883663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-volatile memory arrays can deploy pre-trained neural network models for
edge inference. However, these systems are affected by device-level noise and
retention issues. Here, we examine damage caused by these effects, introduce a
mitigation strategy, and demonstrate its use in fabricated array of SONOS
(Silicon-Oxide-Nitride-Oxide-Silicon) devices. On MNIST, fashion-MNIST, and
CIFAR-10 tasks, our approach increases resilience to synaptic noise and drift.
We also show strong performance can be realized with ADCs of 5-8 bits
precision.
- Abstract(参考訳): 非揮発性メモリアレイは、エッジ推論のためのトレーニング済みニューラルネットワークモデルをデプロイすることができる。
しかし、これらのシステムはデバイスレベルのノイズと保持の問題によって影響を受ける。
本稿では、これらの影響による損傷を調査し、緩和戦略を導入し、SONOS(Silicon-Oxide-Nitride-Oxide-Silicon)デバイスの製造配列での使用を実証する。
MNIST, ファッション-MNIST, CIFAR-10タスクにおいて, 本手法はシナプス雑音やドリフトに対するレジリエンスを高める。
また,5~8ビットのADCで高い性能が得られることを示す。
関連論文リスト
- The Inherent Adversarial Robustness of Analog In-Memory Computing [2.435021773579434]
Deep Neural Network(DNN)アルゴリズムの重要な課題は、敵の攻撃に対する脆弱性である。
本稿では,位相変化メモリ(PCM)デバイスを用いたAIMCチップ上での予測を実験的に検証する。
ハードウェア・イン・ザ・ループ攻撃を行う際には、さらなる堅牢性も観察される。
論文 参考訳(メタデータ) (2024-11-11T14:29:59Z) - Implications of Noise in Resistive Memory on Deep Neural Networks for
Image Classification [0.0]
抵抗メモリは本質的に不安定なデバイスであり、正しい読み書き操作を保証するためにかなりの労力を要する。
本稿では、模範記憶ユニットのノイズを模倣する特殊な雑音演算子を提案する。
我々は、CIFAR-10分類タスクにおける畳み込みニューラルネットワークのレジリエンスについて検討し、このレジリエンスを改善するためのいくつかの対策について論じる。
論文 参考訳(メタデータ) (2024-01-11T10:36:45Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Computing-In-Memory Neural Network Accelerators for Safety-Critical
Systems: Can Small Device Variations Be Disastrous? [15.760502065894778]
NVMデバイスは様々な非理想性、特に製造欠陥やデバイスの動作によるサイクル・ツー・サイクルの変動によるデバイス・ツー・デバイスの変化に悩まされている。
本稿では,高次元空間におけるデバイス変動の特定の組み合わせを効果的に見つける方法を提案する。
論文 参考訳(メタデータ) (2022-07-15T17:38:01Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Nonlinear Tensor Ring Network [39.89070144585793]
最先端のディープニューラルネットワーク(DNN)は、様々な現実世界のアプリケーションに広く適用されており、認知問題に対して大きなパフォーマンスを実現している。
冗長モデルをコンパクトなモデルに変換することで、圧縮技術はストレージとメモリ消費を減らすための実用的な解決策であるように見える。
本稿では,完全連結層と畳み込み層の両方を圧縮した非線形テンソルリングネットワーク(NTRN)を開発する。
論文 参考訳(メタデータ) (2021-11-12T02:02:55Z) - Multiplicative Reweighting for Robust Neural Network Optimization [51.67267839555836]
MW(multiplicative weight)更新は、専門家のアドバイスにより、適度なデータ破損に対して堅牢である。
MWはラベルノイズの存在下でニューラルネットワークの精度を向上することを示す。
論文 参考訳(メタデータ) (2021-02-24T10:40:25Z) - SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and
Training [82.35376405568975]
ディープニューラルネットワーク(DNN)は重いパラメータ化を伴い、ストレージ用の外部動的ランダムアクセスメモリ(DRAM)につながります。
We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost compute。
SDは貯蔵および訓練エネルギーの10.56xそして4.48x減少、最先端の訓練のベースラインと比較される無視可能な正確さの損失をもたらすことを示します。
論文 参考訳(メタデータ) (2021-01-04T18:54:07Z) - Process tomography of Robust Dynamical Decoupling in Superconducting
Qubits [91.3755431537592]
リゲッティ量子コンピューティングプラットフォームは、異なる動的デカップリングシーケンスをテストするために使用された。
シーケンスの性能は量子プロセストモグラフィーによって特徴づけられ、量子チャネル形式を用いて解析された。
論文 参考訳(メタデータ) (2020-06-18T14:48:18Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。