論文の概要: FEAFA+: An Extended Well-Annotated Dataset for Facial Expression
Analysis and 3D Facial Animation
- arxiv url: http://arxiv.org/abs/2111.02751v1
- Date: Thu, 4 Nov 2021 11:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 14:44:26.558037
- Title: FEAFA+: An Extended Well-Annotated Dataset for Facial Expression
Analysis and 3D Facial Animation
- Title(参考訳): FEAFA+: 顔表情解析と3次元顔アニメーションのための拡張された注釈付きデータセット
- Authors: Wei Gan, Jian Xue, Ke Lu, Yanfu Yan, Pengcheng Gao, Jiayi Lyu
- Abstract要約: 拡張FA(FEAFA+)には、FEAFAとDisFAの150の動画シーケンスが含まれる。
局所的な表情変化を表わすために局所的な顔AUの強度値を回帰することがより効果的であることを示す。
- 参考スコア(独自算出の注目度): 9.269568652566514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nearly all existing Facial Action Coding System-based datasets that include
facial action unit (AU) intensity information annotate the intensity values
hierarchically using A--E levels. However, facial expressions change
continuously and shift smoothly from one state to another. Therefore, it is
more effective to regress the intensity value of local facial AUs to represent
whole facial expression changes, particularly in the fields of expression
transfer and facial animation. We introduce an extension of FEAFA in
combination with the relabeled DISFA database, which is available at
https://www.iiplab.net/feafa+/ now. Extended FEAFA (FEAFA+) includes 150 video
sequences from FEAFA and DISFA, with a total of 230,184 frames being manually
annotated on floating-point intensity value of 24 redefined AUs using the
Expression Quantitative Tool. We also list crude numerical results for posed
and spontaneous subsets and provide a baseline comparison for the AU intensity
regression task.
- Abstract(参考訳): 顔行動単位(AU)強度情報を含む既存の顔行動符号化システムベースのデータセットのほぼ全てが、A-Eレベルを使用して階層的に強度値に注釈を付ける。
しかし、表情は連続的に変化し、ある状態から別の状態へとスムーズに変化する。
したがって、表情伝達や表情アニメーションの分野において、表情の変化全体を表現するために、局所的な表情ausの強度値を後退させることがより効果的である。
feafaの拡張とrelabeled disfaデータベースはhttps://www.iiplab.net/feafa+/で利用可能である。
拡張FAFA (FEAFA+) には、FEAFA と DISFA から150の動画シーケンスが含まれており、合計230,184フレームが式定量ツールを用いて24個の再定義AUの浮動小数点強度値に手動で注釈付けされている。
また, 提案した部分集合と自発部分集合の粗い数値結果もリストアップし, AU強度回帰タスクのベースライン比較を行う。
関連論文リスト
- Unsupervised learning of Data-driven Facial Expression Coding System (DFECS) using keypoint tracking [3.0605062268685868]
コンピュータビジョンベースの顔キーポイントトラッキングを利用して、自動顔符号化システムの教師なし学習を提案する。
結果は、disFAデータセットから推定されるDFECS AUが、テストデータセットの平均的な分散を91.29パーセントまで説明できることを示している。
DFECS AUの87.5パーセントは解釈可能であり、顔面筋運動の方向と一致している。
論文 参考訳(メタデータ) (2024-06-08T10:45:38Z) - From Static to Dynamic: Adapting Landmark-Aware Image Models for Facial Expression Recognition in Videos [88.08209394979178]
野生における動的表情認識(DFER)は、データ制限によって依然として妨げられている。
抽出された顔のランドマーク認識機能に暗黙的に符号化された既存のSFER知識と動的情報を活用する新しい静的・動的モデル(S2D)を提案する。
論文 参考訳(メタデータ) (2023-12-09T03:16:09Z) - FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping [62.38898610210771]
そこで我々は,FaceDancerという顔のスワップとID転送のための新しい単一ステージ手法を提案する。
アダプティブ・フィーチャー・フュージョン・アテンション(AFFA)と解釈的特徴類似性規則化(IFSR)の2つの主要なコントリビューションがある。
論文 参考訳(メタデータ) (2022-10-19T11:31:38Z) - Intensity-Aware Loss for Dynamic Facial Expression Recognition in the
Wild [1.8604727699812171]
ビデオシーケンスは、特に現実世界のシナリオにおける表情のために、表現強度の異なるフレームを含むことが多い。
本稿では,機能マップのチャネルを再スケールするグローバル・コンボリューション・アテンション・ブロック(GCA)を提案する。
さらに,ネットワークが比較的低発現強度のサンプルを識別するために,トレーニングプロセスにおける強度認識損失(IAL)を導入する。
論文 参考訳(メタデータ) (2022-08-19T12:48:07Z) - Robust Facial Expression Recognition with Convolutional Visual
Transformers [23.05378099875569]
コンボリューションビジュアルトランスフォーマーは、主に2つのステップで野生の表情認識に取り組むために提案します。
まず,2分岐CNNが生成する特徴マップを活用するための注意選択融合(ASF)を提案する。
第二に,自然言語処理におけるトランスフォーマーの成功に触発されて,これらの視覚単語間の関係をグローバル自己着眼でモデル化することを提案する。
論文 参考訳(メタデータ) (2021-03-31T07:07:56Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Unsupervised Facial Action Unit Intensity Estimation via Differentiable
Optimization [45.07851622835555]
顔画像からの顔AU強度推定のための教師なしフレームワークGE-Netを提案する。
本フレームワークは,入力画像に一致するように顔パラメータを反復的に更新する,微分可能な最適化を行う。
実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-04-13T12:56:28Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。