論文の概要: Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2001.06144v1
- Date: Fri, 17 Jan 2020 03:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 12:38:31.314337
- Title: Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition
- Title(参考訳): ファインショット顔表情認識のための強調表現の学習
- Authors: Wenxuan Wang, Yanwei Fu, Qiang Sun, Tao Chen, Chenjie Cao, Ziqi Zheng,
Guoqiang Xu, Han Qiu, Yu-Gang Jiang, Xiangyang Xue
- Abstract要約: 顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
- 参考スコア(独自算出の注目度): 98.83578105374535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Affective computing and cognitive theory are widely used in modern
human-computer interaction scenarios. Human faces, as the most prominent and
easily accessible features, have attracted great attention from researchers.
Since humans have rich emotions and developed musculature, there exist a lot of
fine-grained expressions in real-world applications. However, it is extremely
time-consuming to collect and annotate a large number of facial images, of
which may even require psychologists to correctly categorize them. To the best
of our knowledge, the existing expression datasets are only limited to several
basic facial expressions, which are not sufficient to support our ambitions in
developing successful human-computer interaction systems. To this end, a novel
Fine-grained Facial Expression Database - F2ED is contributed in this paper,
and it includes more than 200k images with 54 facial expressions from 119
persons. Considering the phenomenon of uneven data distribution and lack of
samples is common in real-world scenarios, we further evaluate several tasks of
few-shot expression learning by virtue of our F2ED, which are to recognize the
facial expressions given only few training instances. These tasks mimic human
performance to learn robust and general representation from few examples. To
address such few-shot tasks, we propose a unified task-driven framework -
Compositional Generative Adversarial Network (Comp-GAN) learning to synthesize
facial images and thus augmenting the instances of few-shot expression classes.
Extensive experiments are conducted on F2ED and existing facial expression
datasets, i.e., JAFFE and FER2013, to validate the efficacy of our F2ED in
pre-training facial expression recognition network and the effectiveness of our
proposed approach Comp-GAN to improve the performance of few-shot recognition
tasks.
- Abstract(参考訳): 感情コンピューティングと認知理論は現代の人間とコンピュータの相互作用シナリオで広く使われている。
人間の顔は、最も顕著でアクセスしやすい特徴であり、研究者から大きな注目を集めている。
人間は豊かな感情を持ち、筋肉が発達したので、現実世界の応用には細かい表現がたくさんある。
しかし、大量の顔画像を収集し、注釈を付けるのに非常に時間がかかるため、心理学者がそれらを正しく分類することさえ必要かもしれない。
我々の知る限り、既存の表現データセットはいくつかの基本的な表情に限られており、人間とコンピュータのインタラクションシステムを成功させるための野望を支えるには不十分です。
この目的のために, 顔表情データベースF2EDを新たに構築し, 119人の顔表情が54の200万枚以上の画像を収録した。
実世界のシナリオでは,不均一なデータ分布とサンプルの欠如という現象が一般的であると考えられるため,訓練例の少ない表情を認識するf2edを用いて,数点表情学習の課題を更に評価した。
これらのタスクは人間のパフォーマンスを模倣し、少数の例から堅牢で一般的な表現を学ぶ。
このような少数の課題に対処するために、顔画像の合成と、少数ショット式クラスの拡張を行うための統合されたタスク駆動フレームワークCompositional Generative Adversarial Network (Comp-GAN) 学習を提案する。
F2EDおよび既存の表情データセット、すなわち JAFFE と FER2013 を用いて、事前訓練された表情認識ネットワークにおけるF2EDの有効性と、提案手法であるComp-GANの有効性を検証するために、大規模な実験を行った。
関連論文リスト
- CLIPER: A Unified Vision-Language Framework for In-the-Wild Facial
Expression Recognition [1.8604727699812171]
本稿では,CLIPに基づく静的および動的表情認識のための統合フレームワークを提案する。
複数式テキスト記述子(METD)を導入し,CLIPERをより解釈しやすい表現の微粒化を学習する。
論文 参考訳(メタデータ) (2023-03-01T02:59:55Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - Towards a General Deep Feature Extractor for Facial Expression
Recognition [5.012963825796511]
本稿では,他の顔の感情認識タスクやデータセットに適用可能な,視覚的特徴抽出器を学習する,新たなディープラーニングベースのアプローチを提案する。
DeepFEVERは、AffectNetとGoogle Facial Expression Comparisonデータセットで最先端の結果を上回っている。
論文 参考訳(メタデータ) (2022-01-19T18:42:23Z) - Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition [31.40575057347465]
本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-07T10:20:05Z) - Pre-training strategies and datasets for facial representation learning [58.8289362536262]
いくつかの顔分析タスクやデータセットに適用可能な普遍的な顔表現の探索方法を示す。
顔に適応する2つの大規模表現学習を体系的に検討する。
私たちの主な2つの発見は以下の通りです: 完全にインザワイルドな未処理データに対する教師なし事前トレーニングは一貫性を提供し、場合によっては大幅な精度向上をもたらします。
論文 参考訳(メタデータ) (2021-03-30T17:57:25Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Real-time Facial Expression Recognition "In The Wild'' by Disentangling
3D Expression from Identity [6.974241731162878]
本稿では,1枚のRGB画像から人間の感情認識を行う新しい手法を提案する。
顔のダイナミックス、アイデンティティ、表情、外観、3Dポーズのバリエーションに富んだ大規模な顔ビデオデータセットを構築した。
提案するフレームワークは毎秒50フレームで動作し、3次元表現変動のパラメータを頑健に推定することができる。
論文 参考訳(メタデータ) (2020-05-12T01:32:55Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。