論文の概要: Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2106.03487v1
- Date: Mon, 7 Jun 2021 10:20:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 08:06:15.767564
- Title: Exploiting Emotional Dependencies with Graph Convolutional Networks for
Facial Expression Recognition
- Title(参考訳): 表情認識のためのグラフ畳み込みネットワークによる感情依存の爆発
- Authors: Panagiotis Antoniadis, Panagiotis P. Filntisis, Petros Maragos
- Abstract要約: 本稿では,視覚における表情認識のためのマルチタスク学習フレームワークを提案する。
MTL設定において、離散認識と連続認識の両方のために共有特徴表現が学習される。
実験の結果,本手法は離散FER上での最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 31.40575057347465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past few years, deep learning methods have shown remarkable results
in many face-related tasks including automatic facial expression recognition
(FER) in-the-wild. Meanwhile, numerous models describing the human emotional
states have been proposed by the psychology community. However, we have no
clear evidence as to which representation is more appropriate and the majority
of FER systems use either the categorical or the dimensional model of affect.
Inspired by recent work in multi-label classification, this paper proposes a
novel multi-task learning (MTL) framework that exploits the dependencies
between these two models using a Graph Convolutional Network (GCN) to recognize
facial expressions in-the-wild. Specifically, a shared feature representation
is learned for both discrete and continuous recognition in a MTL setting.
Moreover, the facial expression classifiers and the valence-arousal regressors
are learned through a GCN that explicitly captures the dependencies between
them. To evaluate the performance of our method under real-world conditions we
train our models on AffectNet dataset. The results of our experiments show that
our method outperforms the current state-of-the-art methods on discrete FER.
- Abstract(参考訳): 近年,顔表情の自動認識(FER)など,多くの顔関連タスクにおいて,ディープラーニング手法が顕著な成果を上げている。
一方で、人間の感情状態を記述する多くのモデルが心理学コミュニティによって提案されている。
しかし、どの表現がより適切かという明確な証拠はなく、FER系の大半は、影響のカテゴリー的あるいは次元的モデルを用いている。
マルチラベル分類における最近の研究に触発されて,グラフ畳み込みネットワーク (GCN) を用いて2つのモデル間の依存関係を利用して表情を認識する,新しいマルチタスク学習(MTL)フレームワークを提案する。
特に、mtl設定における離散認識と連続認識の両方において共有特徴表現が学習される。
さらに、顔の表情分類器とvalence-arousal regressorは、それらの間の依存関係を明示的にキャプチャするgcnを通して学習される。
実環境下での手法の性能を評価するため,AffectNetデータセット上でモデルをトレーニングする。
実験の結果,本手法は離散ferの最先端手法よりも優れていることがわかった。
関連論文リスト
- Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Evaluation of Self-taught Learning-based Representations for Facial
Emotion Recognition [62.30451764345482]
この研究は、顔の感情認識のための自己学習の概念を通じて得られた教師なし表現を生成するための様々な戦略を記述する。
このアイデアは、オートエンコーダの初期化、アーキテクチャ、トレーニングデータを変化させることで、多様性を促進する補完的な表現を作ることである。
Jaffe と Cohn-Kanade のデータセットに対する残余のサブジェクトアウトプロトコルによる実験結果から,提案した多種多様な表現に基づく FER 手法が最先端のアプローチと好適に比較できることが示唆された。
論文 参考訳(メタデータ) (2022-04-26T22:48:15Z) - Privileged Attribution Constrained Deep Networks for Facial Expression
Recognition [31.98044070620145]
顔の表情認識(FER)は、機械が人間の振る舞いをよりよく理解できるようにするため、多くの研究領域において重要である。
これらの問題を緩和するために、私たちはモデルに、目、口、まぶたなどの特定の顔領域に集中するよう指導する。
PAL(Privleged Attribution Loss)は,最も健康な顔領域に向けて,モデルの注意を向ける手法である。
論文 参考訳(メタデータ) (2022-03-24T07:49:33Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Self-supervised Contrastive Learning of Multi-view Facial Expressions [9.949781365631557]
顔表情認識(FER)は,人間とコンピュータのインタラクションシステムにおいて重要な構成要素である。
本稿では,多視点表情のコントラスト学習(CL-MEx)を提案する。
論文 参考訳(メタデータ) (2021-08-15T11:23:34Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - View-Invariant Gait Recognition with Attentive Recurrent Learning of
Partial Representations [27.33579145744285]
本稿では,まず,フレームレベルの畳み込み特徴から歩行畳み込みエネルギーマップ(GCEM)を抽出するネットワークを提案する。
次に、GCEMの分割されたビンから学ぶために双方向ニューラルネットワークを採用し、学習された部分的リカレント表現の関係を利用する。
提案手法は2つの大規模CASIA-BとOU-Mの歩行データセットで広範囲に検証されている。
論文 参考訳(メタデータ) (2020-10-18T20:20:43Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。