論文の概要: Always-On, Sub-300-nW, Event-Driven Spiking Neural Network based on
Spike-Driven Clock-Generation and Clock- and Power-Gating for an
Ultra-Low-Power Intelligent Device
- arxiv url: http://arxiv.org/abs/2006.12314v2
- Date: Tue, 23 Jun 2020 12:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:36:50.040707
- Title: Always-On, Sub-300-nW, Event-Driven Spiking Neural Network based on
Spike-Driven Clock-Generation and Clock- and Power-Gating for an
Ultra-Low-Power Intelligent Device
- Title(参考訳): スパイク駆動クロック生成とクロックとパワーゲーティングに基づく超低消費電力デバイスのための常時オン、サブ300nw、イベント駆動スパイクニューラルネットワーク
- Authors: Dewei Wang, Pavan Kumar Chundi, Sung Justin Kim, Minhao Yang, Joao
Pedro Cerqueira, Joonsung Kang, Seungchul Jung, Sangjoon Kim, Mingoo Seok
- Abstract要約: キーワードスポッティング(KWS)や視覚覚醒といったAI関数が、超低消費電力デバイスにおける総消費電力を支配する傾向にある。
キーとなる観察は、常時オンの関数に対する信号は、スパイクニューラルネットワーク(SNN)分類器が省電力に利用できる、時間的に疎いことである。
- 参考スコア(独自算出の注目度): 1.704443882665726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Always-on artificial intelligent (AI) functions such as keyword spotting
(KWS) and visual wake-up tend to dominate total power consumption in ultra-low
power devices. A key observation is that the signals to an always-on function
are sparse in time, which a spiking neural network (SNN) classifier can
leverage for power savings, because the switching activity and power
consumption of SNNs tend to scale with spike rate. Toward this goal, we present
a novel SNN classifier architecture for always-on functions, demonstrating
sub-300nW power consumption at the competitive inference accuracy for a KWS and
other always-on classification workloads.
- Abstract(参考訳): キーワードスポッティング(KWS)や視覚覚醒といったAI関数が、超低消費電力デバイスにおける総消費電力を支配する傾向にある。
キーとなる観察は、常時オンの関数に対する信号は、スパイクするニューラルネットワーク(SNN)分類器が、スパイクレートによってSNNのスイッチング活性と電力消費がスケールする傾向があるため、電力節約に有効である、というものである。
そこで本論文では,KWSや他の常時オン型分類処理の競合推定精度において,300nW未満の電力消費を示す,常時オン型関数のための新しいSNN分類器アーキテクチャを提案する。
関連論文リスト
- DPSNN: Spiking Neural Network for Low-Latency Streaming Speech Enhancement [3.409728296852651]
音声強調は、ノイズの多い環境でのコミュニケーションを改善し、自動音声認識、補聴器、電気通信などの分野に影響を与える。
スパイキングニューラルネットワーク(SNN)の形でのニューロモルフィックアルゴリズムには大きな可能性がある。
DPSNN(Dual-Path Spiking Neural Network)と呼ばれる2段階の時間領域ストリーミングSNNフレームワークを開発した。
論文 参考訳(メタデータ) (2024-08-14T09:08:43Z) - sVAD: A Robust, Low-Power, and Light-Weight Voice Activity Detection
with Spiking Neural Networks [51.516451451719654]
スパイキングニューラルネットワーク(SNN)は生物学的に妥当で、電力効率が高いことが知られている。
本稿では sVAD と呼ばれる新しい SNN ベースの音声活動検出モデルを提案する。
SincNetと1D畳み込みによる効果的な聴覚特徴表現を提供し、アテンション機構による雑音の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-09T02:55:44Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - NiSNN-A: Non-iterative Spiking Neural Networks with Attention with
Application to Motor Imagery EEG Classification [7.430549997480745]
運動画像は脳波(EEG)研究において重要なカテゴリである。
従来のディープラーニングアルゴリズムは、重要な計算要求と高エネルギー利用によって特徴付けられる。
スパイクニューラルネットワーク(SNN)は、有望なエネルギー効率のソリューションとして出現する。
論文 参考訳(メタデータ) (2023-12-09T19:13:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - LaneSNNs: Spiking Neural Networks for Lane Detection on the Loihi
Neuromorphic Processor [12.47874622269824]
我々は、イベントベースのカメラ入力を用いて、道路にマークされた車線を検出するための新しいSNNベースのアプローチであるLaneSNNを提案する。
我々は、学習したSNNモデルをIntel Loihi Neuromorphic Research Chipに実装し、マッピングする。
損失関数に対して,重み付き二元交叉エントロピー(WCE)と平均二乗誤差(MSE)の線形合成に基づく新しい手法を開発した。
論文 参考訳(メタデータ) (2022-08-03T14:51:15Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - A Spike in Performance: Training Hybrid-Spiking Neural Networks with
Quantized Activation Functions [6.574517227976925]
Spiking Neural Network(SNN)は、エネルギー効率の高いコンピューティングに対する有望なアプローチである。
我々は、非スパイキングネットワークをSNNに変換する際に、最先端の精度を維持する方法を示す。
論文 参考訳(メタデータ) (2020-02-10T05:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。