論文の概要: Neural Networks for Keyword Spotting on IoT Devices
- arxiv url: http://arxiv.org/abs/2101.00693v1
- Date: Sun, 3 Jan 2021 19:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 00:57:24.464338
- Title: Neural Networks for Keyword Spotting on IoT Devices
- Title(参考訳): IoTデバイス上でのキーワードスポッティングのためのニューラルネットワーク
- Authors: Rakesh Dhakshinamurthy
- Abstract要約: スマートスピーカーやウェアラブルなどのIoTデバイスにおけるキーワードスポッティング(KWS)のためのニューラルネットワーク(NNs)について検討します。
制約のあるメモリと計算フットプリントでNNを実行することを目標としているため、CNNの設計を提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore Neural Networks (NNs) for keyword spotting (KWS) on IoT devices
like smart speakers and wearables. Since we target to execute our NN on a
constrained memory and computation footprint, we propose a CNN design that. (i)
uses a limited number of multiplies. (ii) uses a limited number of model
parameters.
- Abstract(参考訳): スマートスピーカーやウェアラブルといったIoTデバイス上でのキーワードスポッティング(KWS)のためのニューラルネットワーク(NN)について検討する。
我々は,制約のあるメモリと計算フットプリント上でNNを実行することを目標としているので,CNNの設計を提案する。
(i)限られた数の乗数を用いる。
(ii) 限られた数のモデルパラメータを使用する。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - Applications of Spiking Neural Networks in Visual Place Recognition [19.577433371468533]
スパイキングニューラルネットワーク(SNN)は、その潜在的なエネルギー効率と低レイテンシについて、ますます認識されている。
本稿では,視覚的位置認識(VPR)におけるSNNの3つの進歩について述べる。
まず,各SNNが重複しない地理的に異なる場所の集合を表すモジュールSNNを提案する。
次に、複数のネットワークが同じ場所を表すモジュールSNNのアンサンブルを示す。
最後に,SNNに基づくVPRにおけるシーケンスマッチングの役割について検討する。
論文 参考訳(メタデータ) (2023-11-22T06:26:24Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Deep Binary Reinforcement Learning for Scalable Verification [44.44006029119672]
バイナライズニューラルネットワーク(BNN)に特化したRLアルゴリズムを提案する。
Atari環境でBNNを訓練した後、ロバスト性特性を検証する。
論文 参考訳(メタデータ) (2022-03-11T01:20:23Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - A Microarchitecture Implementation Framework for Online Learning with
Temporal Neural Networks [1.4530235554268331]
時間的ニューラルネットワーク(TNN)は、情報を表現し処理するためのリソースとして時間を使用するニューラルネットワークをスパイクしている。
本研究では,標準CMOSを用いたTNN実装のためのマイクロアーキテクチャフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-27T15:59:54Z) - Binary Neural Network for Speaker Verification [13.472791713805762]
本稿では,二元的ニューラルネットワークを話者検証の課題に適用する方法に焦点をあてる。
実験の結果、Convolutional Neural Networkをバイナライズした後、ResNet34ベースのネットワークは約5%のEERを達成した。
論文 参考訳(メタデータ) (2021-04-06T06:04:57Z) - Spiking Neural Networks -- Part I: Detecting Spatial Patterns [38.518936229794214]
Spiking Neural Networks(SNN)は生物学的にインスパイアされた機械学習モデルで、バイナリとスパーススパイキング信号をイベント駆動のオンラインな方法で処理する動的ニューラルモデルに基づいている。
SNNは、学習と推論のためのエネルギー効率の良いコプロセッサとして出現しているニューロモルフィックコンピューティングプラットフォーム上で実装することができる。
論文 参考訳(メタデータ) (2020-10-27T11:37:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。