論文の概要: Ultra-low power on-chip learning of speech commands with phase-change
memories
- arxiv url: http://arxiv.org/abs/2010.11741v1
- Date: Wed, 21 Oct 2020 04:08:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 01:18:31.735508
- Title: Ultra-low power on-chip learning of speech commands with phase-change
memories
- Title(参考訳): 位相変化記憶を有する音声コマンドの超低消費電力オンチップ学習
- Authors: Venkata Pavan Kumar Miriyala, Masatoshi Ishii
- Abstract要約: エッジアプリケーションに適した30uW以下の消費電力で,Ravenをオンチップでトレーニングできることを示す。
Ravenは、エッジでの超低消費電力トレーニングと推論への有望な経路を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding artificial intelligence at the edge (edge-AI) is an elegant
solution to tackle the power and latency issues in the rapidly expanding
Internet of Things. As edge devices typically spend most of their time in sleep
mode and only wake-up infrequently to collect and process sensor data,
non-volatile in-memory computing (NVIMC) is a promising approach to design the
next generation of edge-AI devices. Recently, we proposed an NVIMC-based
neuromorphic accelerator using the phase change memories (PCMs), which we call
as Raven. In this work, we demonstrate the ultra-low-power on-chip training and
inference of speech commands using Raven. We showed that Raven can be trained
on-chip with power consumption as low as 30~uW, which is suitable for edge
applications. Furthermore, we showed that at iso-accuracies, Raven needs 70.36x
and 269.23x less number of computations to be performed than a deep neural
network (DNN) during inference and training, respectively. Owing to such low
power and computational requirements, Raven provides a promising pathway
towards ultra-low-power training and inference at the edge.
- Abstract(参考訳): エッジ(エッジAI)に人工知能を組み込むことは、急速に拡大するモノのインターネットにおけるパワーとレイテンシの問題に取り組むためのエレガントなソリューションです。
エッジデバイスは一般的に、ほとんどの時間をスリープモードに費やし、センサーデータの収集と処理に頻繁に起きるだけなので、次世代のエッジAIデバイスを設計する上では、非揮発性インメモリコンピューティング(NVIMC)が有望なアプローチである。
近年,NVIMCをベースとした相変化記憶(PCM)を用いたニューロモルフィック・アクセラレーターを提案し,これをRavenと呼ぶ。
本稿では,ravenを用いた超低消費電力オンチップ学習と音声コマンドの推論について述べる。
エッジアプリケーションに適した30〜uWの低消費電力で、Ravenをオンチップでトレーニングできることを実証した。
さらに, アイソ精度では, 推論とトレーニングにおいて, ディープニューラルネットワーク (DNN) よりも, 70.36x と 269.23x の計算量を必要とすることを示した。
このような低消費電力と計算能力の要求により、ravenは超低消費電力トレーニングとエッジでの推論への有望な経路を提供する。
関連論文リスト
- EON-1: A Brain-Inspired Processor for Near-Sensor Extreme Edge Online Feature Extraction [32.343120409334475]
EON-1は脳にインスパイアされた、極端端端のオンライン特徴抽出のためのプロセッサである。
学習に要するエネルギーオーバーヘッドは1%に過ぎず,他のSoTAソリューションと比較した場合のオーバーヘッドは極端に低い。
論文 参考訳(メタデータ) (2024-06-25T05:23:41Z) - Efficient and accurate neural field reconstruction using resistive memory [52.68088466453264]
デジタルコンピュータにおける従来の信号再構成手法は、ソフトウェアとハードウェアの両方の課題に直面している。
本稿では,スパース入力からの信号再構成のためのソフトウェア・ハードウェア協調最適化を用いた体系的アプローチを提案する。
この研究は、AI駆動の信号復元技術を進歩させ、将来の効率的で堅牢な医療AIと3Dビジョンアプリケーションへの道を開く。
論文 参考訳(メタデータ) (2024-04-15T09:33:09Z) - On-device Self-supervised Learning of Visual Perception Tasks aboard
Hardware-limited Nano-quadrotors [53.59319391812798]
SI50グラム以下のナノドロンは、学術と産業の両方で勢いを増している。
彼らの最も魅力的なアプリケーションは、知覚のためのディープラーニングモデルに依存している。
未知の環境にデプロイする場合、これらのモデルはドメインシフトによってパフォーマンスが低下することが多い。
本研究では,ナノドローンを用いたデバイス上での学習を初めて提案する。
論文 参考訳(メタデータ) (2024-03-06T22:04:14Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - POET: Training Neural Networks on Tiny Devices with Integrated
Rematerialization and Paging [35.397804171588476]
エッジデバイスの微調整モデルは、機密データに対するプライバシー保護のパーソナライゼーションを可能にする。
バッテリー駆動エッジデバイス上での大規模ニューラルネットワークのトレーニングを可能にするアルゴリズムであるPOETを提案する。
論文 参考訳(メタデータ) (2022-07-15T18:36:29Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Optimizing Neural Network for Computer Vision task in Edge Device [0.0]
エッジデバイス自体に畳み込みニューラルネットワークをデプロイします。
エッジデバイスの計算コストは、モデル内のパラメータの浮動小数点精度を下げることによって削減される。
これにより、エッジデバイスはニューラルネットワークから自身で予測できる。
論文 参考訳(メタデータ) (2021-10-02T12:25:18Z) - DeepEdgeBench: Benchmarking Deep Neural Networks on Edge Devices [0.6021787236982659]
Inference time and power consumption of the four Systems on a Chip (SoCs): Asus Tinker Edge R, Raspberry Pi 4, Google Coral Dev Board, Nvidia Jetson Nano, and one microcontroller, Arduino Nano 33 BLE。
推論時間の少なさ、すなわちMobileNetV2の29.3%以下では、Jetson Nanoは他のデバイスよりも高速に動作している。
論文 参考訳(メタデータ) (2021-08-21T08:13:22Z) - 3U-EdgeAI: Ultra-Low Memory Training, Ultra-Low BitwidthQuantization,
and Ultra-Low Latency Acceleration [8.419854797930668]
エッジ上のディープニューラルネットワーク(DNN)ベースのAIアプリケーションは、低コストのコンピューティングプラットフォームと高品質なサービスの両方を必要とする。
本稿では、トレーニング、量子化、加速器設計の重要性を強調し、エッジ上のAI分野におけるさらなる研究のブレークスルーを求める。
論文 参考訳(メタデータ) (2021-05-11T03:22:30Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。