論文の概要: ReckOn: A 28nm Sub-mm2 Task-Agnostic Spiking Recurrent Neural Network
Processor Enabling On-Chip Learning over Second-Long Timescales
- arxiv url: http://arxiv.org/abs/2208.09759v1
- Date: Sat, 20 Aug 2022 22:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:11:15.672295
- Title: ReckOn: A 28nm Sub-mm2 Task-Agnostic Spiking Recurrent Neural Network
Processor Enabling On-Chip Learning over Second-Long Timescales
- Title(参考訳): reckon: 28nmのサブmm2タスクに依存しないスパイクリカレントニューラルネットワークプロセッサ
- Authors: Charlotte Frenkel, Giacomo Indiveri
- Abstract要約: 我々は,タスク非依存のオンライン学習を数秒で実現する,0.45-mm$2$のスパイクRNNプロセッサを提案する。
ナビゲーション、ジェスチャー認識、キーワードスポッティングを0.8-%のメモリオーバーヘッドと150-mu$Wのトレーニングパワー予算で実証する。
- 参考スコア(独自算出の注目度): 2.8732531902793172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A robust real-world deployment of autonomous edge devices requires on-chip
adaptation to user-, environment- and task-induced variability. Due to on-chip
memory constraints, prior learning devices were limited to static stimuli with
no temporal contents. We propose a 0.45-mm$^2$ spiking RNN processor enabling
task-agnostic online learning over seconds, which we demonstrate for
navigation, gesture recognition, and keyword spotting within a 0.8-% memory
overhead and a <150-$\mu$W training power budget.
- Abstract(参考訳): 自律エッジデバイスの堅牢な実世界展開には、ユーザ、環境、タスクによる可変性へのオンチップ適応が必要である。
オンチップメモリの制約により、事前学習装置は時間的内容を持たない静的刺激に制限された。
我々は,タスクに依存しないオンライン学習を数秒で実現した0.45-mm$^2$のRNNプロセッサを提案し,0.8-%のメモリオーバーヘッドと<150-$\mu$Wトレーニングパワー予算でナビゲーション,ジェスチャー認識,キーワードスポッティングを実証した。
関連論文リスト
- EON-1: A Brain-Inspired Processor for Near-Sensor Extreme Edge Online Feature Extraction [32.343120409334475]
EON-1は脳にインスパイアされた、極端端端のオンライン特徴抽出のためのプロセッサである。
学習に要するエネルギーオーバーヘッドは1%に過ぎず,他のSoTAソリューションと比較した場合のオーバーヘッドは極端に低い。
論文 参考訳(メタデータ) (2024-06-25T05:23:41Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Designing and Training of Lightweight Neural Networks on Edge Devices
using Early Halting in Knowledge Distillation [16.74710649245842]
本稿では,エッジデバイス上での軽量ディープニューラルネットワーク(DNN)の設計と訓練のための新しいアプローチを提案する。
このアプローチでは、利用可能なストレージ、処理速度、許容可能な最大処理時間を考慮する。
本稿では,ネットワーク資源を保存できる新しい早期停止手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T16:18:24Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - perf4sight: A toolflow to model CNN training performance on Edge GPUs [16.61258138725983]
この研究は、CNNのトレーニングメモリフットプリントとレイテンシを予測する正確なモデルを開発するための自動化手法であるperf4sightを提案する。
フレームワークはPyTorch、ターゲットデバイスはNVIDIA Jetson TX2、それぞれ95%と91%の精度でトレーニングメモリフットプリントとレイテンシを予測する。
論文 参考訳(メタデータ) (2021-08-12T07:55:37Z) - Low-Rank Training of Deep Neural Networks for Emerging Memory Technology [4.456122555367167]
非揮発性メモリを持つエッジデバイス上でのトレーニングには,低書き込み密度と低補助メモリという2つの課題に対処する。
計算効率を保ちながらこれらの課題に対処する低ランクトレーニング方式を提案する。
論文 参考訳(メタデータ) (2020-09-08T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。