論文の概要: Efficient Neural Architecture Search for Emotion Recognition
- arxiv url: http://arxiv.org/abs/2303.13653v1
- Date: Thu, 23 Mar 2023 20:21:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 16:41:19.045326
- Title: Efficient Neural Architecture Search for Emotion Recognition
- Title(参考訳): 感情認識のための効率的なニューラルアーキテクチャ探索
- Authors: Monu Verma, Murari Mandal, Satish Kumar Reddy, Yashwanth Reddy
Meedimale, Santosh Kumar Vipparthi
- Abstract要約: 本稿では,マクロおよびマイクロ圧縮認識のための高効率で堅牢なニューラルアーキテクチャを提案する。
勾配に基づくアーキテクチャ探索アルゴリズムを用いて軽量モデルを作成する。
提案したモデルは、既存の最先端手法よりも優れ、速度と空間の複雑さの点で非常によく機能する。
- 参考スコア(独自算出の注目度): 10.944807967751277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated human emotion recognition from facial expressions is a well-studied
problem and still remains a very challenging task. Some efficient or accurate
deep learning models have been presented in the literature. However, it is
quite difficult to design a model that is both efficient and accurate at the
same time. Moreover, identifying the minute feature variations in facial
regions for both macro and micro-expressions requires expertise in network
design. In this paper, we proposed to search for a highly efficient and robust
neural architecture for both macro and micro-level facial expression
recognition. To the best of our knowledge, this is the first attempt to design
a NAS-based solution for both macro and micro-expression recognition. We
produce lightweight models with a gradient-based architecture search algorithm.
To maintain consistency between macro and micro-expressions, we utilize dynamic
imaging and convert microexpression sequences into a single frame, preserving
the spatiotemporal features in the facial regions. The EmoNAS has evaluated
over 13 datasets (7 macro expression datasets: CK+, DISFA, MUG, ISED, OULU-VIS
CASIA, FER2013, RAF-DB, and 6 micro-expression datasets: CASME-I, CASME-II,
CAS(ME)2, SAMM, SMIC, MEGC2019 challenge). The proposed models outperform the
existing state-of-the-art methods and perform very well in terms of speed and
space complexity.
- Abstract(参考訳): 表情からの感情の自動認識はよく研究されている問題であり、依然として非常に難しい課題である。
いくつかの効率的で正確なディープラーニングモデルが文献に提示されている。
しかし、効率的なモデルと正確性の両方を同時に設計することは極めて困難である。
さらに、マクロおよびマイクロ表現の両方の顔領域における微小な特徴変化を特定するには、ネットワーク設計の専門知識が必要である。
本稿では,マクロおよびマイクロレベルの表情認識のための高効率でロバストなニューラルネットワークの探索を提案する。
我々の知る限りでは、これはNASベースのソリューションをマクロおよびマイクロ表現認識の両方に設計する最初の試みである。
勾配に基づくアーキテクチャ探索アルゴリズムを用いて軽量モデルを作成する。
マクロとマイクロ表現の整合性を維持するため,動的画像を利用して,顔領域の時空間的特徴を保存し,マイクロ圧縮シーケンスを単一のフレームに変換する。
EmoNASは13以上のデータセット(CK+、DisFA、MUG、ISED、OULU-VIS CASIA、FER2013、RAF-DB、および6つのマイクロ圧縮データセット(CASME-I、CASME-II、CAS(ME)2、SAMM、SMIC、MEGC2019チャレンジ)を評価した。
提案するモデルは,既存の最先端手法を上回り,速度と空間の複雑さの観点から非常によく機能する。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - From Macro to Micro: Boosting micro-expression recognition via pre-training on macro-expression videos [9.472210792839023]
マイクロ圧縮認識(MER)は、インテリジェント医療や嘘検出に応用される可能性があるため、近年注目を集めている。
我々は、textbfMAcro-expression textbfTO textbfMIcro-expression (MA2MI) と呼ばれる一般化トランスファー学習パラダイムを提案する。
我々のパラダイムでは、ネットワークは将来のフレームを再構築することで、微妙な顔の動きを表現する能力を学ぶことができる。
論文 参考訳(メタデータ) (2024-05-26T06:42:06Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Action Units That Constitute Trainable Micro-expressions (and A
Large-scale Synthetic Dataset) [20.866448615388876]
本研究では,マイクロ圧縮トレーニングデータを大規模に自動合成するプロトコルを開発することを目的とする。
具体的には、トレーニング可能なマイクロ表現を適切に構成できる3種類のアクションユニット(AU)を発見する。
これらのAUでは、様々なアイデンティティを持つ多数の顔画像と、既存の顔生成方式を用いてマイクロ圧縮合成を行う。
マイクロ圧縮認識モデルは、生成されたマイクロ圧縮データセットに基づいてトレーニングされ、実世界のテストセットで評価される。
論文 参考訳(メタデータ) (2021-12-03T06:09:06Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - ICE-GAN: Identity-aware and Capsule-Enhanced GAN with Graph-based
Reasoning for Micro-Expression Recognition and Synthesis [26.414187427071063]
グラフに基づく推論(ICE-GAN)を用いた新しいアイデンティティ認識とカプセル強化型生成共役ネットワークを提案する。
このジェネレータは、制御可能なマイクロ表現と識別認識機能を備えた合成顔を生成し、グラフ推論モジュール(GRM)を介して長距離依存関係をキャプチャする。
ICE-GAN は Micro-Expression Grand Challenge 2019 (MEGC 2019) で評価され、勝者の12.9%を上回り、他の最先端の手法を上回りました。
論文 参考訳(メタデータ) (2020-05-09T05:37:44Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。