論文の概要: Tiny Eats: Eating Detection on a Microcontroller
- arxiv url: http://arxiv.org/abs/2003.06699v1
- Date: Sat, 14 Mar 2020 20:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:02:05.729030
- Title: Tiny Eats: Eating Detection on a Microcontroller
- Title(参考訳): Tiny Eats: マイクロコントローラ上での食検出
- Authors: Maria T. Nyamukuru and Kofi M. Odame
- Abstract要約: 本稿では,資源制約のあるアプリケーションに適した浅層ゲート再帰ユニット(GRU)アーキテクチャを提案する。
本稿では,低消費電力マイクロコントローラであるArm Cortex M0+上で,浅いGRUニューラルネットワークであるTiny Eats GRUの実装について述べる。
Tiny Eats GRUはArm Cortex M0+メモリの4%しか使用せず、6ミリ秒のレイテンシと95.15%の精度で食事や非食事のエピソードを特定する。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing interest in low power highly efficient wearable devices
for automatic dietary monitoring (ADM) [1]. The success of deep neural networks
in audio event classification problems makes them ideal for this task. Deep
neural networks are, however, not only computationally intensive and energy
inefficient but also require a large amount of memory. To address these
challenges, we propose a shallow gated recurrent unit (GRU) architecture
suitable for resource-constrained applications. This paper describes the
implementation of the Tiny Eats GRU, a shallow GRU neural network, on a low
power micro-controller, Arm Cortex M0+, to classify eating episodes. Tiny Eats
GRU is a hybrid of the traditional GRU [2] and eGRU [3] to make it small and
fast enough to fit on the Arm Cortex M0+ with comparable accuracy to the
traditional GRU. The Tiny Eats GRU utilizes only 4% of the Arm Cortex M0+
memory and identifies eating or non-eating episodes with 6 ms latency and
accuracy of 95.15%.
- Abstract(参考訳): 自動食事モニタリング(adm)のための低電力高効率ウェアラブルデバイスへの関心が高まっている[1]。
オーディオイベント分類問題におけるディープニューラルネットワークの成功は、このタスクに理想的です。
しかし、ディープニューラルネットワークは計算集約的でエネルギー非効率なだけでなく、大量のメモリを必要とする。
これらの課題に対処するため、資源制約のあるアプリケーションに適した浅いゲート再帰ユニット(GRU)アーキテクチャを提案する。
本稿では,低消費電力マイクロコントローラであるArm Cortex M0+上で,浅いGRUニューラルネットワークであるTiny Eats GRUの実装について述べる。
Tiny Eats GRU は従来の GRU [2] と eGRU [3] のハイブリッドで、Arm Cortex M0+ に収まるほど小さく高速で、従来の GRU に匹敵する精度である。
Tiny Eats GRUはArm Cortex M0+メモリの4%しか使用せず、6ミリ秒のレイテンシと95.15%の正確さで食事や非食事のエピソードを特定する。
関連論文リスト
- Efficient Neural Networks for Tiny Machine Learning: A Comprehensive
Review [1.049712834719005]
このレビューでは、効率的なニューラルネットワークの進歩と超低消費電力マイクロコントローラへのディープラーニングモデルの展開を詳細に分析する。
レビューの中核は、TinyMLの効率的なニューラルネットワークに焦点を当てている。
モデル圧縮、量子化、低ランク因数分解などのテクニックをカバーし、最小限のリソース利用のためにニューラルネットワークアーキテクチャを最適化する。
次に,超低消費電力MCU上でのディープラーニングモデルの展開について検討し,限られた計算能力やメモリ資源といった課題に対処する。
論文 参考訳(メタデータ) (2023-11-20T16:20:13Z) - Faster Attention Is What You Need: A Fast Self-Attention Neural Network
Backbone Architecture for the Edge via Double-Condensing Attention Condensers [71.40595908386477]
本稿では,2重対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向
結果のバックボーン(AttendNeXtと呼ぶ)は、組み込みARMプロセッサ上で大幅に高い推論スループットを実現する。
これらの有望な結果は、さまざまな効率的なアーキテクチャ設計と自己アテンション機構の探索が、TinyMLアプリケーションのための興味深い新しいビルディングブロックにつながることを実証している。
論文 参考訳(メタデータ) (2022-08-15T02:47:33Z) - Keyword Spotting System and Evaluation of Pruning and Quantization
Methods on Low-power Edge Microcontrollers [7.570300579676175]
キーワードスポッティング(KWS)は、エッジの低消費電力デバイスとの音声ベースのユーザインタラクションに有用である。
本稿では,Cortex-M7コア@216MHzと512KBの静的RAMを備えたSTM32F7マイクロコントローラ上で動作するKWSシステムについて述べる。
論文 参考訳(メタデータ) (2022-08-04T16:49:45Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - AttendSeg: A Tiny Attention Condenser Neural Network for Semantic
Segmentation on the Edge [71.80459780697956]
デバイス上のセマンティックセグメンテーションに適した,低精度でコンパクトなディープニューラルネットワークである textbfAttendSeg を紹介する。
attendsegは、空間-チャネル選択的注意を改善するために軽量注意凝縮器からなるセルフアテンションネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2021-04-29T19:19:04Z) - Sound Event Detection with Binary Neural Networks on Tightly
Power-Constrained IoT Devices [20.349809458335532]
サウンドイベント検出(SED)は、消費者およびスマートシティアプリケーションのホットトピックです。
Deep Neural Networksに基づく既存のアプローチは非常に効果的ですが、メモリ、電力、スループットの面で非常に要求が高いです。
本稿では,高エネルギー効率なRISC-V(8+1)コアGAP8マイクロコントローラと,極端量子化と小プリントバイナリニューラルネットワーク(BNN)の組み合わせについて検討する。
論文 参考訳(メタデータ) (2021-01-12T12:38:23Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - SiTGRU: Single-Tunnelled Gated Recurrent Unit for Abnormality Detection [29.500392184282518]
異常検出のための単一トンネルGRU(Single Tunnelled GRU)と呼ばれるGRU(Gated Recurrent Unit)の新規バージョンを提案する。
提案手法は,標準GRUとLong Short Term Memory(LSTM)ネットワークを,検出および一般化タスクのほとんどの指標で上回っている。
論文 参考訳(メタデータ) (2020-03-30T14:58:13Z) - REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild [62.36144064259933]
ニューラルネットワークの逆トレーニングとLipschitz定数の制御を通じて、両問題に同時に対処する新しい方法であるRESTを提案する。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
これらのモデルをスマートフォン上のAndroidアプリケーションにデプロイすることにより、RESTによってモデルが最大17倍のエネルギー削減と9倍高速な推論を達成することができることを定量的に観察する。
論文 参考訳(メタデータ) (2020-01-29T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。