論文の概要: CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation
- arxiv url: http://arxiv.org/abs/2211.14917v1
- Date: Sun, 27 Nov 2022 19:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 20:36:05.033101
- Title: CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation
- Title(参考訳): CorrectNet: 誤り抑制と補償によるニューラルネットワークのアナログインメモリコンピューティングのロバスト性向上
- Authors: Amro Eldebiky, Grace Li Zhang, Georg Boecherer, Bing Li, Ulf
Schlichtmann
- Abstract要約: 本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
- 参考スコア(独自算出の注目度): 4.570841222958966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The last decade has witnessed the breakthrough of deep neural networks (DNNs)
in many fields. With the increasing depth of DNNs, hundreds of millions of
multiply-and-accumulate (MAC) operations need to be executed. To accelerate
such operations efficiently, analog in-memory computing platforms based on
emerging devices, e.g., resistive RAM (RRAM), have been introduced. These
acceleration platforms rely on analog properties of the devices and thus suffer
from process variations and noise. Consequently, weights in neural networks
configured into these platforms can deviate from the expected values, which may
lead to feature errors and a significant degradation of inference accuracy. To
address this issue, in this paper, we propose a framework to enhance the
robustness of neural networks under variations and noise. First, a modified
Lipschitz constant regularization is proposed during neural network training to
suppress the amplification of errors propagated through network layers.
Afterwards, error compensation is introduced at necessary locations determined
by reinforcement learning to rescue the feature maps with remaining errors.
Experimental results demonstrate that inference accuracy of neural networks can
be recovered from as low as 1.69% under variations and noise back to more than
95% of their original accuracy, while the training and hardware cost are
negligible.
- Abstract(参考訳): 過去10年間、多くの分野におけるディープニューラルネットワーク(DNN)のブレークスルーを目撃してきた。
DNNの深みが増すにつれ、数億の乗算および累積(MAC)操作を実行する必要がある。
このような演算を効率的に高速化するために、抵抗RAM(RRAM)のような新興デバイスに基づくアナログインメモリコンピューティングプラットフォームが導入された。
これらの加速プラットフォームはデバイスのアナログ特性に依存しており、プロセスの変化やノイズに悩まされている。
その結果、これらのプラットフォームに設定されたニューラルネットワークの重みは期待値から逸脱し、特徴誤差と推論精度の大幅な低下につながる可能性がある。
この問題に対処するため,本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
まず,ニューラルネットワークトレーニング中に修正されたリプシッツ定数正則化を提案し,ネットワーク層を伝播する誤りの増幅を抑制する。
その後、補足学習によって決定される必要箇所でエラー補償を導入し、残りのエラーで特徴マップを救出する。
実験の結果、ニューラルネットワークの推論精度は、変動とノイズの下で1.69%以下から元の精度の95%以上まで回復でき、トレーニングとハードウェアコストは無視できることがわかった。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - SteppingNet: A Stepping Neural Network with Incremental Accuracy
Enhancement [10.20763050412309]
MAC(multiply-and-accumulate)操作の数が増えると、リソース制約のあるプラットフォームでの運用が妨げられる。
これらの課題に対処するために,SteppingNetという設計フレームワークを提案する。
我々は、SteppingNetが効果的なインクリメンタルな精度向上を提供し、その推論精度が最先端の作業より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2022-11-27T20:20:33Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Reduced-Order Neural Network Synthesis with Robustness Guarantees [0.0]
機械学習アルゴリズムは、デバイスがユーザのプライバシを改善し、レイテンシを低減し、エネルギー効率を高めるために、ローカルで実行するように適応されている。
この問題に対処するために、より大きなニューロンの入出力マッピングを近似する低次ニューラルネットワーク(ニューロンが少ない)を自動的に合成する手法を導入する。
この近似誤差に対する最悪の境界が得られ、このアプローチは幅広いニューラルネットワークアーキテクチャに適用することができる。
論文 参考訳(メタデータ) (2021-02-18T12:03:57Z) - Robust error bounds for quantised and pruned neural networks [1.8083503268672914]
機械学習のアルゴリズムは、データとアルゴリズムを保存し、訓練し、デバイス上でローカルに分散化しようとしている。
デバイスハードウェアは、このセットアップにおけるモデル機能の主要なボトルネックとなり、スリム化され、より効率的なニューラルネットワークの必要性を生み出します。
半確定プログラムを導入して、ニューラルネットワークのプルーニングや定量化による最悪のケースエラーをバインドする。
計算されたバウンダリは、安全クリティカルなシステムにデプロイした場合に、これらのアルゴリズムの性能に確実性をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-11-30T22:19:44Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。