論文の概要: Ultra-Low Power Keyword Spotting at the Edge
- arxiv url: http://arxiv.org/abs/2111.04988v1
- Date: Tue, 9 Nov 2021 08:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 20:53:54.453232
- Title: Ultra-Low Power Keyword Spotting at the Edge
- Title(参考訳): エッジの超低電力キーワードスポッティング
- Authors: Mehmet Gorkem Ulkar, Osman Erman Okman
- Abstract要約: キーワードスポッティング(KWS)は、私たちを取り巻く多くのインテリジェントデバイスの中で、不可欠である。
そこで本研究では,MAX78000における配置におけるエンド・ツー・エンドのエネルギー効率を考慮した最適化KWS CNNモデルを設計する。
ハードウェアとモデル最適化の組み合わせにより、12クラスの96.3%の精度を実現し、推論あたり251 uJしか消費しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Keyword spotting (KWS) has become an indispensable part of many intelligent
devices surrounding us, as audio is one of the most efficient ways of
interacting with these devices. The accuracy and performance of KWS solutions
have been the main focus of the researchers, and thanks to deep learning,
substantial progress has been made in this domain. However, as the use of KWS
spreads into IoT devices, energy efficiency becomes a very critical requirement
besides the performance. We believe KWS solutions that would seek power
optimization both in the hardware and the neural network (NN) model
architecture are advantageous over many solutions in the literature where
mostly the architecture side of the problem is considered. In this work, we
designed an optimized KWS CNN model by considering end-to-end energy efficiency
for the deployment at MAX78000, an ultra-low-power CNN accelerator. With the
combined hardware and model optimization approach, we achieve 96.3\% accuracy
for 12 classes while only consuming 251 uJ per inference. We compare our
results with other small-footprint neural network-based KWS solutions in the
literature. Additionally, we share the energy consumption of our model in
power-optimized ARM Cortex-M4F to depict the effectiveness of the chosen
hardware for the sake of clarity.
- Abstract(参考訳): 音声がこれらのデバイスと対話する最も効率的な方法の1つであるため、キーワードスポッティング(KWS)は、私たちを取り巻く多くのインテリジェントデバイスにとって必須の要素となっている。
KWSソリューションの正確さと性能が研究者の主な焦点であり、ディープラーニングのおかげで、この領域でかなりの進歩を遂げた。
しかし、KWSがIoTデバイスに普及するにつれて、エネルギー効率はパフォーマンス以外の非常に重要な要件となる。
ハードウェアとニューラルネットワーク(nn)モデルアーキテクチャの両方でパワー最適化を求めるkwsソリューションは、問題のアーキテクチャ側が主に考慮されている文献において、多くのソリューションよりも有利であると考えています。
そこで本研究では,超低消費電力CNN加速器MAX78000のエンド・ツー・エンドエネルギー効率を考慮した最適化KWS CNNモデルを設計した。
ハードウェアとモデル最適化の組み合わせにより、12クラスに対して96.3\%の精度を実現し、推論あたり251 uJしか消費しない。
我々は,本研究の成果を,他のスモールフットプリントニューラルネットワークベースのKWSソリューションと比較した。
さらに、電力最適化アームcortex-m4fにおけるモデルエネルギー消費量を共有し、明快さのために選択したハードウェアの有効性を表現した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning [9.957458251671486]
Convolutional Neural Networks(CNN)のようなモデルを組み立てると、メモリとコンピューティングのオーバーヘッドが高くなり、組み込みシステムへのデプロイが妨げられる。
人工知能(AI)をベースとした組込みシステムを対象としたCNNのアンサンブルを構築するための,新しいエネルギー効率の良いエッジ組立フレームワークであるE-QUARTICを提案する。
論文 参考訳(メタデータ) (2024-09-12T19:30:22Z) - Global-Local Convolution with Spiking Neural Networks for Energy-efficient Keyword Spotting [17.795498397570675]
我々は、ニューラルネットワークのエネルギー効率をスパイクし、エンドツーエンドの軽量KWSモデルを提案する。
1)グローバル・ローカル・スパイキング・コンボリューション (GLSC) モジュールと 2) Bottleneck-PLIF モジュールである。
Bottleneck-PLIFモジュールはさらにGLSCからの信号を処理し、より少ないパラメータで高い精度を達成する。
論文 参考訳(メタデータ) (2024-06-19T03:19:25Z) - Efficient Post-Training Augmentation for Adaptive Inference in
Heterogeneous and Distributed IoT Environments [4.343246899774834]
Early Exit Neural Networks (EENN)は、ニューラルネットワークのデプロイメントの効率を高めるソリューションを提供する。
本稿では,既存のモデルをEENNに変換することに焦点を当てた自動拡張フローを提案する。
本フレームワークはEENNアーキテクチャを構築し,そのサブグラフをハードウェアターゲットにマップし,その決定機構を構成する。
論文 参考訳(メタデータ) (2024-03-12T08:27:53Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - EdgeViTs: Competing Light-weight CNNs on Mobile Devices with Vision
Transformers [88.52500757894119]
自己注意に基づく視覚変換器(ViT)は、コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)に代わる、非常に競争力のあるアーキテクチャとして登場した。
われわれはEdgeViTsを紹介した。これは新しい軽量ViTのファミリーで、注目に基づく視覚モデルが初めて、最高の軽量CNNと競合することを可能にする。
論文 参考訳(メタデータ) (2022-05-06T18:17:19Z) - Sub-mW Keyword Spotting on an MCU: Analog Binary Feature Extraction and
Binary Neural Networks [19.40893986868577]
キーワードスポッティング(KWS)は、我々の周辺にある多くのユビキタススマートデバイスとのインタラクションを可能にする重要な機能である。
本研究は、低コストマイクロコントローラユニット(MCU)におけるKWSエネルギー効率に対処する。
デジタル前処理をアナログフロントエンドに置き換えることで、データ取得と前処理に必要なエネルギーを29倍に削減できることを示す。
論文 参考訳(メタデータ) (2022-01-10T15:10:58Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient On-Chip Learning for Optical Neural Networks Through
Power-Aware Sparse Zeroth-Order Optimization [12.052076188811052]
光ニューラルネットワーク(ONN)は、ニューロモルフィックコンピューティングにおける記録破りの可能性を示した。
我々は,パワー効率向上のためのONNの潜在能力を最大限に発揮するための,新しいオンチップ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-21T07:00:39Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。