論文の概要: Imponderous Net for Facial Expression Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2103.15136v1
- Date: Sun, 28 Mar 2021 13:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:01:42.252122
- Title: Imponderous Net for Facial Expression Recognition in the Wild
- Title(参考訳): 野生における顔面表情認識のためのインポンダラスネット
- Authors: Darshan Gera and S. Balasubramanian
- Abstract要約: Imponderous Netは、わずか1.45Mパラメータの低カロリーネットであり、最先端の(SOTA)アーキテクチャの約50倍小さい。
これは、インテルi7DBで毎秒40フレーム(fps)のリアルタイムレートで処理することができます。
Imponderous Net は 87.09%,88.17%,62.06% を in-the-wild RAF, FERPlus, AffectNet データセットで報告している。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the renaissance of deep learning (DL), facial expression recognition
(FER) has received a lot of interest, with continual improvement in the
performance. Hand-in-hand with performance, new challenges have come up. Modern
FER systems deal with face images captured under uncontrolled conditions (also
called in-the-wild scenario) including occlusions and pose variations. They
successfully handle such conditions using deep networks that come with various
components like transfer learning, attention mechanism and local-global context
extractor. However, these deep networks are highly complex with large number of
parameters, making them unfit to be deployed in real scenarios. Is it possible
to build a light-weight network that can still show significantly good
performance on FER under in-the-wild scenario? In this work, we methodically
build such a network and call it as Imponderous Net. We leverage on the
aforementioned components of deep networks for FER, and analyse, carefully
choose and fit them to arrive at Imponderous Net. Our Imponderous Net is a low
calorie net with only 1.45M parameters, which is almost 50x less than that of a
state-of-the-art (SOTA) architecture. Further, during inference, it can process
at the real time rate of 40 frames per second (fps) in an intel-i7 cpu. Though
it is low calorie, it is still power packed in its performance, overpowering
other light-weight architectures and even few high capacity architectures.
Specifically, Imponderous Net reports 87.09\%, 88.17\% and 62.06\% accuracies
on in-the-wild datasets RAFDB, FERPlus and AffectNet respectively. It also
exhibits superior robustness under occlusions and pose variations in comparison
to other light-weight architectures from the literature.
- Abstract(参考訳): ディープラーニング (DL) のルネサンス以来, 顔表情認識 (FER) が注目され, 性能が継続的に向上している。
パフォーマンスと引き換えに、新たな課題が生まれました。
現代のFERシステムは、オクルージョンやポーズのバリエーションを含む、制御されていない条件下で撮影された顔画像("in-the-wild scenario"とも呼ばれる)を扱う。
彼らは、転送学習、アテンション機構、局所的グローバルコンテキスト抽出器といったさまざまなコンポーネントを備えたディープネットワークを使用して、そのような条件をうまく処理します。
しかし、これらのディープネットワークは多数のパラメータで非常に複雑であり、実際のシナリオにデプロイするには適さない。
内蔵のシナリオ下で、FER上で非常に優れたパフォーマンスを示す軽量ネットワークを構築することは可能か?
本研究では,このようなネットワークを体系的に構築し,Imponderous Netと呼ぶ。
我々は、先のディープネットワークのコンポーネントをFERに活用し、分析し、慎重に選択し、Imponderous Netに到達させる。
我々のインポンダラスネットは1.45Mパラメータしか持たない低カロリーネットであり、最先端(SOTA)アーキテクチャの約50倍小さい。
さらに、推論の間、intel-i7 cpuでリアルタイムレート40フレーム/秒(fps)で処理することができる。
カロリーは低いが、その性能は依然としてパワー満載であり、他の軽量アーキテクチャや高容量アーキテクチャを圧倒している。
具体的には、in-the-wildデータセット rafdb, ferplus, affectnet それぞれ 87.09\%, 88.17\%, 62.06\% を報告している。
また、オクルージョン下では優れたロバスト性を示し、文献の他の軽量建築と比べてポーズのバリエーションも示している。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - SideRT: A Real-time Pure Transformer Architecture for Single Image Depth
Estimation [11.513054537848227]
そこで我々は,SideRTと呼ばれる純粋なトランスフォーマーアーキテクチャを提案する。
これは、トランスフォーマーベースのネットワークが、単一画像深度推定フィールドにおいて、リアルタイムに最先端の性能が得られることを示す最初の研究である。
論文 参考訳(メタデータ) (2022-04-29T05:46:20Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Toward Compact Deep Neural Networks via Energy-Aware Pruning [2.578242050187029]
ネットワークにおける各フィルタの重要性を核ノルム(NN)を用いて定量化する新しいエネルギー対応プルーニング手法を提案する。
FLOPの40.4/49.8%、パラメータ還元の45.9/52.9%、トップ1の精度の94.13/94.61%、CIFAR-10のResNet-56/110で競合する結果を得た。
論文 参考訳(メタデータ) (2021-03-19T15:33:16Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Principal Component Networks: Parameter Reduction Early in Training [10.14522349959932]
パラメータ化されたネットワークと同じ性能を示す小さなネットワークを見つける方法を示す。
我々はPCAを用いて、層入力の高分散の基盤を見つけ、これらの方向を用いて層重みを表現する。
また、ResNet-20 PCNは、より高速なトレーニングを行いながら、Deep ResNet-110ネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2020-06-23T21:40:24Z) - The FaceChannel: A Light-weight Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
FER自動化のための現在の最先端モデルは、訓練が難しい非常に深いニューラルネットワークに基づいている。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
私たちは、FaceChannelが、FERの現在の最先端技術と比較して、同等の、たとえそうでなくても、パフォーマンスを実現する方法を示します。
論文 参考訳(メタデータ) (2020-04-17T12:03:14Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。