論文の概要: Enabling Incremental Training with Forward Pass for Edge Devices
- arxiv url: http://arxiv.org/abs/2103.14007v1
- Date: Thu, 25 Mar 2021 17:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:22:24.944943
- Title: Enabling Incremental Training with Forward Pass for Edge Devices
- Title(参考訳): エッジデバイスのためのフォワードパスによるインクリメンタルトレーニング
- Authors: Dana AbdulQader, Shoba Krishnan, Claudionor N. Coelho Jr
- Abstract要約: 進化戦略(ES)を用いてネットワークを部分的に再トレーニングし,エラー発生後に変更に適応し,回復できるようにする手法を提案する。
この技術は、バックプロパゲーションを必要とせず、最小限のリソースオーバーヘッドで推論専用ハードウェアのトレーニングを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are commonly deployed on end devices that exist
in constantly changing environments. In order for the system to maintain it's
accuracy, it is critical that it is able to adapt to changes and recover by
retraining parts of the network. However, end devices have limited resources
making it challenging to train on the same device. Moreover, training deep
neural networks is both memory and compute intensive due to the backpropagation
algorithm. In this paper we introduce a method using evolutionary strategy (ES)
that can partially retrain the network enabling it to adapt to changes and
recover after an error has occurred. This technique enables training on an
inference-only hardware without the need to use backpropagation and with
minimal resource overhead. We demonstrate the ability of our technique to
retrain a quantized MNIST neural network after injecting noise to the input.
Furthermore, we present the micro-architecture required to enable training on
HLS4ML (an inference hardware architecture) and implement it in Verilog. We
synthesize our implementation for a Xilinx Kintex Ultrascale Field Programmable
Gate Array (FPGA) resulting in less than 1% resource utilization required to
implement the incremental training.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、常に変化する環境に存在するエンドデバイスに一般的にデプロイされる。
システムの精度を維持するためには、ネットワークの一部を再トレーニングすることで変更に適応し、回復できることが重要である。
しかし、エンドデバイスはリソースが限られており、同じデバイスでトレーニングすることは困難である。
さらに、深層ニューラルネットワークのトレーニングは、バックプロパゲーションアルゴリズムによるメモリと計算集約の両方である。
本稿では,進化戦略(ES)を用いてネットワークを部分的に再トレーニングし,エラー発生後に変更に適応し,回復できるようにする手法を提案する。
この技術は、バックプロパゲーションを必要とせず、最小限のリソースオーバーヘッドで推論専用ハードウェアのトレーニングを可能にする。
我々は,入力にノイズを注入した後,量子化されたMNISTニューラルネットワークを再学習する手法を実証する。
さらに,HLS4ML(推論ハードウェアアーキテクチャ)のトレーニングを可能とし,Verilogで実装するために必要なマイクロアーキテクチャを提案する。
我々は,xilinx kintex ultrascale field programmable gate array (fpga)の実装を合成し,インクリメンタルトレーニングを実現するために必要なリソース利用率を1%以下に抑えた。
関連論文リスト
- Self-training superconducting neuromorphic circuits using reinforcement learning rules [0.0]
本稿では,強化学習に基づく局所的重量更新規則の集合とその超伝導ハードウェアへの実装について述べる。
我々は1ナノ秒の学習時間を持つ小型ニューラルネットワークを実装した。
重みの調整は、回路がエラーをバックプロパゲートする必要性をなくすグローバルな強化信号に基づいている。
論文 参考訳(メタデータ) (2024-04-29T15:09:00Z) - Synaptic metaplasticity with multi-level memristive devices [1.5598974049838272]
推論とトレーニングの両方において,メタ塑性を実現するためのメムリスタベースのハードウェアソリューションを提案する。
MNISTとFashion-MNISTの連続トレーニングにおいて,2層パーセプトロンの精度は97%,86%であった。
我々のアーキテクチャは、mmristorの制限された耐久性と互換性があり、メモリは15倍削減されている。
論文 参考訳(メタデータ) (2023-06-21T09:40:25Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation [4.570841222958966]
本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T19:13:33Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。