論文の概要: A Survey on Facial Expression Recognition of Static and Dynamic Emotions
- arxiv url: http://arxiv.org/abs/2408.15777v1
- Date: Wed, 28 Aug 2024 13:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 15:50:41.196309
- Title: A Survey on Facial Expression Recognition of Static and Dynamic Emotions
- Title(参考訳): 静的・動的感情の表情認識に関する調査
- Authors: Yan Wang, Shaoqi Yan, Yang Liu, Wei Song, Jing Liu, Yang Chang, Xinji Mai, Xiping Hu, Wenqiang Zhang, Zhongxue Gan,
- Abstract要約: 表情認識(FER)は、静的画像と動的シーケンスから感情状態を分析することを目的としている。
本稿では、画像ベース静的FER(SFER)法とビデオベース動的FER(DFER)法の両方について包括的調査を行う。
- 参考スコア(独自算出の注目度): 34.33582251069003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial expression recognition (FER) aims to analyze emotional states from static images and dynamic sequences, which is pivotal in enhancing anthropomorphic communication among humans, robots, and digital avatars by leveraging AI technologies. As the FER field evolves from controlled laboratory environments to more complex in-the-wild scenarios, advanced methods have been rapidly developed and new challenges and apporaches are encounted, which are not well addressed in existing reviews of FER. This paper offers a comprehensive survey of both image-based static FER (SFER) and video-based dynamic FER (DFER) methods, analyzing from model-oriented development to challenge-focused categorization. We begin with a critical comparison of recent reviews, an introduction to common datasets and evaluation criteria, and an in-depth workflow on FER to establish a robust research foundation. We then systematically review representative approaches addressing eight main challenges in SFER (such as expression disturbance, uncertainties, compound emotions, and cross-domain inconsistency) as well as seven main challenges in DFER (such as key frame sampling, expression intensity variations, and cross-modal alignment). Additionally, we analyze recent advancements, benchmark performances, major applications, and ethical considerations. Finally, we propose five promising future directions and development trends to guide ongoing research. The project page for this paper can be found at https://github.com/wangyanckxx/SurveyFER.
- Abstract(参考訳): 顔表情認識(FER)は、人間、ロボット、デジタルアバター間の人為的コミュニケーションを強化する上で重要な、静的画像と動的シーケンスから感情状態を分析することを目的としている。
FERフィールドが制御された実験室環境から、より複雑な現場シナリオへと進化するにつれて、高度な手法が急速に開発され、FERの既存のレビューではうまく対処されていない新しい課題やアポラッチが報告されている。
本稿では,画像ベース静的FER(SFER)法とビデオベース動的FER(DFER)法の両方を包括的に調査し,モデル指向開発から課題中心の分類までの分析を行う。
我々は、最近のレビューの批判的な比較、共通のデータセットと評価基準の導入、そして、堅牢な研究基盤を確立するためのFERの詳細なワークフローから始める。
次に,SFERにおける8つの主要な課題(表現障害,不確実性,複合感情,クロスドメイン不整合など)と,DFERにおける7つの主要な課題(キーフレームサンプリング,表現強度変動,クロスモーダルアライメントなど)を体系的に検討する。
さらに、最近の進歩、ベンチマークパフォーマンス、主要な応用、倫理的考察を分析します。
最後に,現在進行中の研究の指針となる5つの今後の方向性と開発動向を提案する。
この論文のプロジェクトページはhttps://github.com/wangyanckxx/SurveyFERにある。
関連論文リスト
- FFAA: Multimodal Large Language Model based Explainable Open-World Face Forgery Analysis Assistant [59.2438504610849]
FFAA: Face Forgery Analysis Assistant(MLLM)とMIDS(Multi-Awer Intelligent Decision System)について紹介する。
提案手法は,ユーザフレンドリで説明可能な結果を提供するだけでなく,従来の手法に比べて精度と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-19T15:15:20Z) - A Survey of Deep Learning for Group-level Emotion Recognition [21.542551233204065]
グループレベルの感情認識(GER)は、人間の行動を分析する上で重要な領域である。
ディープラーニング(DL)技術の普及に伴い、ニューラルネットワークはGERへの関心が高まっている。
本稿では、GERに適用されたDL技術について概観的なレビューを行い、その分野の新しい分類法を提案する。
論文 参考訳(メタデータ) (2024-08-13T11:54:09Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Deep Emotion Recognition in Textual Conversations: A Survey [0.8602553195689513]
新しいアプリケーションと実装シナリオは、新しい課題と機会を示します。
これらは会話の文脈、話者、感情のダイナミクスのモデリングから、一般的な感覚表現の解釈まで様々である。
この調査は、アンバランスなデータに対処するテクニックを活用する利点を強調している。
論文 参考訳(メタデータ) (2022-11-16T19:42:31Z) - Computational Emotion Analysis From Images: Recent Advances and Future
Directions [79.05003998727103]
本章では,画像感情分析(IEA)を計算的観点から導入することを目的としている。
心理学の一般的な感情表現モデルから始めます。
そして、研究者たちが解決しようとしている重要な計算問題を定義します。
論文 参考訳(メタデータ) (2021-03-19T13:33:34Z) - DFEW: A Large-Scale Database for Recognizing Dynamic Facial Expressions
in the Wild [22.305429904593126]
そこで我々は,数千本の映画から16,000本以上のビデオクリップを収録した大規模動的表情データベースDFEWを提案する。
次に,表現クラスタ化時空間特徴学習フレームワークを提案する。
第3に、提案したEC-STFLと同様に、多くの深い特徴学習手法を用いて、DFEWの広範なベンチマーク実験を行う。
論文 参考訳(メタデータ) (2020-08-13T14:10:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。