論文の概要: EmotionNet Nano: An Efficient Deep Convolutional Neural Network Design
for Real-time Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2006.15759v1
- Date: Mon, 29 Jun 2020 00:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:50:41.528513
- Title: EmotionNet Nano: An Efficient Deep Convolutional Neural Network Design
for Real-time Facial Expression Recognition
- Title(参考訳): EmotionNet Nano: リアルタイム表情認識のための効率的な深部畳み込みニューラルネットワーク設計
- Authors: James Ren Hou Lee, Linda Wang, and Alexander Wong
- Abstract要約: 本研究では,人間と機械の協調設計戦略によって構築された,効率的な深層畳み込みニューラルネットワークであるEmotionNet Nanoを提案する。
EmotionNet Nanoの2つの異なるバリエーションが提示され、それぞれがアーキテクチャと計算の複雑さと精度のトレードオフを持っている。
提案するEmotionNet Nanoネットワークは,実時間推定速度(例えば,15Wおよび30Wで$>25$ FPSと$>70$ FPS)と高エネルギー効率を実現した。
- 参考スコア(独自算出の注目度): 75.74756992992147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While recent advances in deep learning have led to significant improvements
in facial expression classification (FEC), a major challenge that remains a
bottleneck for the widespread deployment of such systems is their high
architectural and computational complexities. This is especially challenging
given the operational requirements of various FEC applications, such as safety,
marketing, learning, and assistive living, where real-time requirements on
low-cost embedded devices is desired. Motivated by this need for a compact, low
latency, yet accurate system capable of performing FEC in real-time on low-cost
embedded devices, this study proposes EmotionNet Nano, an efficient deep
convolutional neural network created through a human-machine collaborative
design strategy, where human experience is combined with machine meticulousness
and speed in order to craft a deep neural network design catered towards
real-time embedded usage. Two different variants of EmotionNet Nano are
presented, each with a different trade-off between architectural and
computational complexity and accuracy. Experimental results using the CK+
facial expression benchmark dataset demonstrate that the proposed EmotionNet
Nano networks demonstrated accuracies comparable to state-of-the-art in FEC
networks, while requiring significantly fewer parameters (e.g., 23$\times$
fewer at a higher accuracy). Furthermore, we demonstrate that the proposed
EmotionNet Nano networks achieved real-time inference speeds (e.g. $>25$ FPS
and $>70$ FPS at 15W and 30W, respectively) and high energy efficiency (e.g.
$>1.7$ images/sec/watt at 15W) on an ARM embedded processor, thus further
illustrating the efficacy of EmotionNet Nano for deployment on embedded
devices.
- Abstract(参考訳): 近年のディープラーニングの進歩は表情分類(FEC)の大幅な改善につながっているが、そのようなシステムの普及のボトルネックとして残る大きな課題は、その高いアーキテクチャと計算の複雑さである。
低コスト組み込みデバイスに対するリアルタイム要求が望まれる安全、マーケティング、学習、補助的生活など、さまざまなFECアプリケーションの運用要件を考えると、これは特に困難である。
低コストな組み込みデバイス上でfecをリアルタイムに実行可能な、コンパクトで低レイテンシで正確なシステムの必要性に動機づけられた本研究は、人間と機械の協調設計戦略によって作成された、効率的な深層畳み込みニューラルネットワークであるemotionnet nanoを提案する。
EmotionNet Nanoの2つの異なるバリエーションが提示され、それぞれがアーキテクチャと計算の複雑さと精度のトレードオフを持っている。
CK+の表情ベンチマークデータセットを用いた実験の結果、提案したEmotionNet Nano Network は FEC ネットワークの最先端に匹敵する精度を示し、パラメータは大幅に少ない(例えば、23$\times$ より高い精度でより少ない)。
さらに,提案したEmotionNet Nano ネットワークは,ARM 組み込みプロセッサ上でのリアルタイム推論速度 (例えば $>25$ FPS と $>70$ FPS の 15W と 30W ) と高エネルギー効率 (例えば $>1.7$ image/sec/watt の 15W ) を実現し,EmotionNet Nano の組み込みデバイスへの展開の有効性を実証した。
関連論文リスト
- Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - InstantNet: Automated Generation and Deployment of Instantaneously
Switchable-Precision Networks [65.78061366594106]
可変ビット幅で動作する即時切替可能精度ネットワークを自動生成・展開するInstantNetを提案する。
実験では、提案されたInstantNetは最先端の設計を一貫して上回っている。
論文 参考訳(メタデータ) (2021-04-22T04:07:43Z) - ExPAN(N)D: Exploring Posits for Efficient Artificial Neural Network
Design in FPGA-based Systems [4.2612881037640085]
本稿では,ANNに対するポジット数表現方式の有効性と不動点演算の実装効率を解析し,比較する。
本稿では,ANNのための高性能かつ省エネなハードウェア実装を実現するための,新しい固定点変換器Posit to Fix-pointを提案する。
論文 参考訳(メタデータ) (2020-10-24T11:02:25Z) - AttendNets: Tiny Deep Image Recognition Neural Networks for the Edge via
Visual Attention Condensers [81.17461895644003]
我々は、オンデバイス画像認識に適した、低精度でコンパクトなディープニューラルネットワークであるAttendNetsを紹介する。
AttendNetsは、視覚的注意の凝縮に基づく深い自己注意アーキテクチャを持っている。
その結果、AttendNetsは、いくつかのディープニューラルネットワークと比較して、アーキテクチャと計算の複雑さが著しく低いことが示された。
論文 参考訳(メタデータ) (2020-09-30T01:53:17Z) - DepthNet Nano: A Highly Compact Self-Normalizing Neural Network for
Monocular Depth Estimation [76.90627702089357]
DepthNet Nanoは、人間の機械の共同設計戦略を用いて設計された単眼深度推定のためのコンパクトなディープニューラルネットワークである。
提案したDepthNet Nanoは、最先端のネットワークで同等の性能を保ちながら、高い効率のネットワークアーキテクチャを持っている。
論文 参考訳(メタデータ) (2020-04-17T00:41:35Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。