論文の概要: Feature Decomposition and Reconstruction Learning for Effective Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2104.05160v1
- Date: Mon, 12 Apr 2021 02:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:10:56.539668
- Title: Feature Decomposition and Reconstruction Learning for Effective Facial
Expression Recognition
- Title(参考訳): 効果的な表情認識のための特徴分解と再構成学習
- Authors: Delian Ruan and YanYan and Shenqi Lai and Zhenhua Chai and Chunhua
Shen and Hanzi Wang
- Abstract要約: 本稿では,表情認識のための特徴分解再構成学習(FDRL)手法を提案する。
FDRLは、FDN(Feature Decomposition Network)とFRN(Feature Restruction Network)の2つの重要なネットワークで構成されている。
- 参考スコア(独自算出の注目度): 80.17419621762866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel Feature Decomposition and Reconstruction
Learning (FDRL) method for effective facial expression recognition. We view the
expression information as the combination of the shared information (expression
similarities) across different expressions and the unique information
(expression-specific variations) for each expression. More specifically, FDRL
mainly consists of two crucial networks: a Feature Decomposition Network (FDN)
and a Feature Reconstruction Network (FRN). In particular, FDN first decomposes
the basic features extracted from a backbone network into a set of facial
action-aware latent features to model expression similarities. Then, FRN
captures the intra-feature and inter-feature relationships for latent features
to characterize expression-specific variations, and reconstructs the expression
feature. To this end, two modules including an intra-feature relation modeling
module and an inter-feature relation modeling module are developed in FRN.
Experimental results on both the in-the-lab databases (including CK+, MMI, and
Oulu-CASIA) and the in-the-wild databases (including RAF-DB and SFEW) show that
the proposed FDRL method consistently achieves higher recognition accuracy than
several state-of-the-art methods. This clearly highlights the benefit of
feature decomposition and reconstruction for classifying expressions.
- Abstract(参考訳): 本稿では,表情認識のための特徴分解再構成学習(FDRL)手法を提案する。
表現情報は,各表現に共通する共有情報(表現類似性)と,各表現に特有な情報(表現特有なバリエーション)を組み合わせて表現する。
具体的には、FDRLは主に2つの重要なネットワーク、FDN(Feature Decomposition Network)とFRN(Feature Restruction Network)で構成されている。
特に、fdnはまずバックボーンネットワークから抽出された基本特徴を、顔動作認識潜在特徴の集合に分解し、モデル表現の類似性を示す。
次にfrnは、潜在機能に対する機能内および機能間関係をキャプチャし、表現固有のバリエーションを特徴付け、表現特徴を再構築する。
これにより、frnにおいて、機能内関係モデリングモジュールと機能間関係モデリングモジュールを含む2つのモジュールが開発される。
バンド内データベース (CK+, MMI, Oulu-CASIAを含む) とファイル内データベース (RAF-DB, SFEWを含む) による実験結果から, FDRL法は複数の最先端手法よりも高い認識精度を一貫して達成していることがわかった。
これは、表現の分類における特徴分解と再構成の利点を明確に強調する。
関連論文リスト
- Compound Expression Recognition via Multi Model Ensemble for the ABAW7 Challenge [6.26485278174662]
複合表現認識(CER)は、効果的な対人相互作用に不可欠である。
本稿では,この複雑さに対処するアンサンブル学習に基づくソリューションを提案する。
提案手法はRAF-DBデータセット上で高い精度を示し,ゼロショット学習によりC-EXPR-DBの一部の表現を認識できる。
論文 参考訳(メタデータ) (2024-07-17T01:59:34Z) - Compound Expression Recognition via Multi Model Ensemble [8.529105068848828]
複合表現認識は対人相互作用において重要な役割を果たす。
本稿では,複合表現認識のためのアンサンブル学習手法に基づく解を提案する。
提案手法はRAF-DBの精度が高く,C-EXPR-DBの一部部分でゼロショットで表現を認識できる。
論文 参考訳(メタデータ) (2024-03-19T09:30:56Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Prior Information based Decomposition and Reconstruction Learning for
Micro-Expression Recognition [45.46357824529522]
事前情報は、モデルを誘導し、差別的なME特徴を効果的に学習する。
本稿では,ME運動の特徴を学習するための分解と再構成に基づくグラフ表現学習モデルを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:34:28Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Spatio-Temporal Representation Factorization for Video-based Person
Re-Identification [55.01276167336187]
本稿では、re-IDのための時空間表現分解モジュール(STRF)を提案する。
STRFはフレキシブルな新しい計算ユニットであり、re-IDのための既存のほとんどの3D畳み込みニューラルネットワークアーキテクチャと併用することができる。
実験により、STRFは様々なベースラインアーキテクチャの性能を向上し、新しい最先端の成果を示す。
論文 参考訳(メタデータ) (2021-07-25T19:29:37Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - Relational Deep Feature Learning for Heterogeneous Face Recognition [17.494718795454055]
一般的な顔の特徴に加えて,グローバルな関係情報を抽出するグラフモジュール (Graph Module, NIR) を提案する。
提案手法は,5つの異種顔認識(HFR)データベースにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-02T07:35:23Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。