論文の概要: When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework
- arxiv url: http://arxiv.org/abs/2201.06781v1
- Date: Tue, 18 Jan 2022 07:24:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:13:58.901775
- Title: When Facial Expression Recognition Meets Few-Shot Learning: A Joint and
Alternate Learning Framework
- Title(参考訳): 表情認識がマイナショット学習を満たす場合--共同学習と代替学習の枠組み
- Authors: Xinyi Zou, Yan Yan, Jing-Hao Xue, Si Chen, Hanzi Wang
- Abstract要約: 実践シナリオにおける人間の感情の多様性に対応するために,感情ガイド型類似ネットワーク(EGS-Net)を提案する。
EGS-Netは2段階の学習フレームワークに基づいた感情ブランチと類似性ブランチで構成されている。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
- 参考スコア(独自算出の注目度): 60.51225419301642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human emotions involve basic and compound facial expressions. However,
current research on facial expression recognition (FER) mainly focuses on basic
expressions, and thus fails to address the diversity of human emotions in
practical scenarios. Meanwhile, existing work on compound FER relies heavily on
abundant labeled compound expression training data, which are often laboriously
collected under the professional instruction of psychology. In this paper, we
study compound FER in the cross-domain few-shot learning setting, where only a
few images of novel classes from the target domain are required as a reference.
In particular, we aim to identify unseen compound expressions with the model
trained on easily accessible basic expression datasets. To alleviate the
problem of limited base classes in our FER task, we propose a novel Emotion
Guided Similarity Network (EGS-Net), consisting of an emotion branch and a
similarity branch, based on a two-stage learning framework. Specifically, in
the first stage, the similarity branch is jointly trained with the emotion
branch in a multi-task fashion. With the regularization of the emotion branch,
we prevent the similarity branch from overfitting to sampled base classes that
are highly overlapped across different episodes. In the second stage, the
emotion branch and the similarity branch play a "two-student game" to
alternately learn from each other, thereby further improving the inference
ability of the similarity branch on unseen compound expressions. Experimental
results on both in-the-lab and in-the-wild compound expression datasets
demonstrate the superiority of our proposed method against several
state-of-the-art methods.
- Abstract(参考訳): 人間の感情には基本的な表情と複合表情が含まれる。
しかし,現在の顔表情認識(FER)の研究は主に基本的表現に焦点を当てており,現実的なシナリオにおける人間の感情の多様性に対処できない。
一方、複合ferに関する既存の研究は豊富なラベル付き複合表現訓練データに大きく依存しており、しばしば心理学の専門的な指導の下で精力的に収集される。
本稿では,対象ドメインからの新規クラスの画像のみを参照として,クロスドメイン数ショット学習環境における複合FERについて検討する。
特に,分かりやすい基本表現データセットに基づいて学習したモデルを用いて,未知の複合表現を同定することを目的とする。
FERタスクにおける制限付きベースクラスの問題を軽減するため,感情分岐と類似性分岐からなる新しい感情ガイド型類似ネットワーク(EGS-Net)を2段階学習フレームワークに基づいて提案する。
具体的には、第1段階では、類似性ブランチと感情ブランチをマルチタスク形式で共同で訓練する。
感情分岐の規則化により、類似性分岐が異なるエピソード間で重なり合うサンプルベースクラスに過度に適合することを防止する。
第2段階では、感情分枝と類似度分枝とが「二学生ゲーム」をプレイして互いに交互に学習し、見知らぬ複合表現に対する類似度分枝の推論能力をさらに向上させる。
In-the-labとin-the-wildの複合表現データセットの実験結果から,提案手法がいくつかの最先端手法に対して優れていることを示す。
関連論文リスト
- Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - A Generalized Zero-Shot Framework for Emotion Recognition from Body
Gestures [5.331671302839567]
本稿では,新しい身体ジェスチャーの感情状態を推測する汎用ゼロショット学習(GZSL)フレームワークを提案する。
このフレームワークは従来の感情分類法や最先端のゼロショット学習法よりもはるかに優れている。
論文 参考訳(メタデータ) (2020-10-13T13:16:38Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - RAF-AU Database: In-the-Wild Facial Expressions with Subjective Emotion
Judgement and Objective AU Annotations [36.93475723886278]
我々は,サインベース(AU)と判断ベース(知覚的感情)を用いたRAF-AUデータベースを開発し,野生における混合表情のアノテートを行う。
また,どのキーAUが知覚的感情に最も寄与するか,およびAUと表情の関係について予備調査を行った。
論文 参考訳(メタデータ) (2020-08-12T09:29:16Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。