論文の概要: On the Mitigation of Read Disturbances in Neuromorphic Inference
Hardware
- arxiv url: http://arxiv.org/abs/2201.11527v1
- Date: Thu, 27 Jan 2022 14:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 18:19:35.080541
- Title: On the Mitigation of Read Disturbances in Neuromorphic Inference
Hardware
- Title(参考訳): ニューロモルフィック推論ハードウェアにおける読解障害の緩和について
- Authors: Ankita Paul and Shihao Song and Twisha Titirsha and Anup Das
- Abstract要約: 非揮発性メモリ(NVM)セルはニューロモルフィックハードウェアでモデルパラメータを格納するために使用される。
NVM細胞は、推論中に繰り返しセルにアクセスすると、プログラムされた抵抗状態がドリフトする読み取り乱れ問題に悩まされる。
ニューロモルフィックハードウェアのNVMセル上のプログラミングモデルパラメータにそのような依存関係を組み込むシステムソフトウェアフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.22940141855172028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-Volatile Memory (NVM) cells are used in neuromorphic hardware to store
model parameters, which are programmed as resistance states. NVMs suffer from
the read disturb issue, where the programmed resistance state drifts upon
repeated access of a cell during inference. Resistance drifts can lower the
inference accuracy. To address this, it is necessary to periodically reprogram
model parameters (a high overhead operation). We study read disturb failures of
an NVM cell. Our analysis show both a strong dependency on model
characteristics such as synaptic activation and criticality, and on the voltage
used to read resistance states during inference. We propose a system software
framework to incorporate such dependencies in programming model parameters on
NVM cells of a neuromorphic hardware. Our framework consists of a convex
optimization formulation which aims to implement synaptic weights that have
more activations and are critical, i.e., those that have high impact on
accuracy on NVM cells that are exposed to lower voltages during inference. In
this way, we increase the time interval between two consecutive reprogramming
of model parameters. We evaluate our system software with many emerging
inference models on a neuromorphic hardware simulator and show a significant
reduction in the system overhead.
- Abstract(参考訳): 非揮発性メモリ(NVM)セルはニューロモルフィックハードウェアでモデルパラメータを格納するために使われ、抵抗状態としてプログラムされる。
NVMは読み取り障害問題に悩まされ、プログラムされた抵抗状態は、推論中に繰り返しセルにアクセスするとドリフトする。
抵抗ドリフトは推論精度を低下させる。
これに対処するには、モデルパラメータを定期的に再プログラムする必要がある(オーバーヘッドの高い操作)。
我々はNVM細胞の読取障害について検討した。
本分析は, シナプス活性化や臨界などのモデル特性と, 推論中の抵抗状態を読み取るための電圧に強く依存していることを示す。
ニューロモルフィックハードウェアのNVMセル上のプログラミングモデルパラメータにそのような依存関係を組み込むシステムソフトウェアフレームワークを提案する。
私たちのフレームワークは、より多くのアクティベーションを持ち、重要なシナプス重みを実装することを目的とした凸最適化定式化(convex optimization formula)で構成されています。
このように、モデルパラメータの2つの連続した再プログラミングの間の時間間隔を増加させる。
我々は,ニューロモルフィックハードウェアシミュレータ上で多くの推論モデルを用いてシステムソフトウェアを評価し,システムのオーバーヘッドを大幅に低減したことを示す。
関連論文リスト
- Efficient hierarchical Bayesian inference for spatio-temporal regression
models in neuroimaging [6.512092052306553]
例えば、M/EEG逆問題、タスクベースのfMRI分析のためのニューラルネットワークの符号化、温度モニタリングスキームなどがある。
モデルパラメータとノイズの内在的時間的ダイナミクスをモデル化した,新しい階層型フレキシブルベイズフレームワークを考案する。
論文 参考訳(メタデータ) (2021-11-02T15:50:01Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Towards self-organized control: Using neural cellular automata to
robustly control a cart-pole agent [62.997667081978825]
我々は、カートポールエージェントを制御するために、ニューラルセルオートマトンを使用する。
我々は、Q値の推定値として出力セルの状態を用いる深層学習を用いてモデルを訓練した。
論文 参考訳(メタデータ) (2021-06-29T10:49:42Z) - Improving Inference Lifetime of Neuromorphic Systems via Intelligent
Synapse Mapping [0.2578242050187029]
RRAMセルは、コンテンツを一定回数読み込んだ後に状態を切り替えることができる。
本稿では,RRAMに基づくニューロモルフィックシステムの可読性向上のためのアーキテクチャ手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:12:47Z) - Dynamic Reliability Management in Neuromorphic Computing [8.616676521313815]
ニューロモルフィックコンピューティングシステムは、高密度で低エネルギーのシナプス記憶を実装するために非揮発性メモリ(NVM)を使用する。
NVMを操作するために必要な電流は、ハードウェアの各ニューロンとシナプス回路におけるCMOSベースのトランジスタの老化を引き起こす。
本稿では,知的ランタイムマネージャを設計することにより,ニューロモルフィックシステムにおける老化に伴う信頼性問題を緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-05T13:17:17Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Neural Closure Models for Dynamical Systems [35.000303827255024]
低忠実度モデルに対する非マルコフ閉閉パラメータ化を学習する新しい手法を開発した。
ニューラルクロージャモデル」はニューラル遅延微分方程式(nDDE)を用いた低忠実度モデルを強化する
非マルコヴィアンオーバーマルコヴィアンクロージャを使用することで、長期的精度が向上し、より小さなネットワークが必要であることを示した。
論文 参考訳(メタデータ) (2020-12-27T05:55:33Z) - On the Sparsity of Neural Machine Translation Models [65.49762428553345]
性能向上のために冗長パラメータを再利用できるかどうかを検討する。
実験と分析は異なるデータセットとNTTアーキテクチャで体系的に行われる。
論文 参考訳(メタデータ) (2020-10-06T11:47:20Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Improving Dependability of Neuromorphic Computing With Non-Volatile
Memory [5.306819482496464]
本稿では,機械学習アプリケーションをニューロモーフィックハードウェアにマップする信頼性指向アプローチであるRENEUを提案する。
RENEUの基本は、異なる故障機構を考慮したニューロモルフィックハードウェアにおけるCMOSベースの回路の老化の新たな定式化である。
その結果,回路の老化は平均38%減少し,ハードウェアの寿命は現行と比較して平均18%改善した。
論文 参考訳(メタデータ) (2020-06-10T14:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。