論文の概要: Micro-expression spotting: A new benchmark
- arxiv url: http://arxiv.org/abs/2007.12421v2
- Date: Mon, 28 Dec 2020 14:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 06:48:08.555468
- Title: Micro-expression spotting: A new benchmark
- Title(参考訳): マイクロ表現スポッティング:新しいベンチマーク
- Authors: Thuong-Khanh Tran, Quang-Nhat Vo, Xiaopeng Hong, Xiaobai Li and
Guoying Zhao
- Abstract要約: マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
- 参考スコア(独自算出の注目度): 74.69928316848866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions (MEs) are brief and involuntary facial expressions that
occur when people are trying to hide their true feelings or conceal their
emotions. Based on psychology research, MEs play an important role in
understanding genuine emotions, which leads to many potential applications.
Therefore, ME analysis has become an attractive topic for various research
areas, such as psychology, law enforcement, and psychotherapy. In the computer
vision field, the study of MEs can be divided into two main tasks, spotting and
recognition, which are used to identify positions of MEs in videos and
determine the emotion category of the detected MEs, respectively. Recently,
although much research has been done, no fully automatic system for analyzing
MEs has yet been constructed on a practical level for two main reasons: most of
the research on MEs only focuses on the recognition part, while abandoning the
spotting task; current public datasets for ME spotting are not challenging
enough to support developing a robust spotting algorithm. The contributions of
this paper are threefold: (1) we introduce an extension of the SMIC-E database,
namely the SMIC-E-Long database, which is a new challenging benchmark for ME
spotting; (2) we suggest a new evaluation protocol that standardizes the
comparison of various ME spotting techniques; (3) extensive experiments with
handcrafted and deep learning-based approaches on the SMIC-E-Long database are
performed for baseline evaluation.
- Abstract(参考訳): マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
心理学的な研究に基づいて、MEは真の感情を理解する上で重要な役割を果たす。
そのため、ME分析は心理学、法執行、心理療法など様々な研究分野において魅力的なトピックとなっている。
コンピュータビジョン分野において、MEの研究は、ビデオ中のMEの位置を特定し、検出されたMEの感情カテゴリーを決定するために使用されるスポッティングと認識の2つの主要なタスクに分けられる。
近年、多くの研究が行われているが、mes分析のための完全に自動的なシステムは、主に2つの理由でまだ実用レベルに構築されていない: mesに関する研究のほとんどは、スポッティングタスクを放棄しながら認識部分のみに焦点を当てている。
本稿では,(1)MEスポッティングのための新しいベンチマークであるSMIC-E-Longデータベースの拡張,(2)MEスポッティング技術の比較を標準化する新しい評価プロトコルを提案する,(3)SMIC-E-Longデータベースに対する手工的・ディープラーニング的アプローチによる広範な実験を行い,ベースライン評価を行う。
関連論文リスト
- Identity-free Artificial Emotional Intelligence via Micro-Gesture Understanding [21.94739567923136]
我々は、人体言語の特殊グループ、マイクロ・ジェスチャ(MG)に焦点を当てる。
MGは、意図的な行動ではなく、内的感情によって引き起こされる意図しない行動である。
本研究は,マイクロ・ジェスチャの微妙な空間的および短時間の時間的特性を考慮し,反復性を伴う様々な拡張戦略を探求し,より適切な拡張方法を決定する。
論文 参考訳(メタデータ) (2024-05-21T21:16:55Z) - GPT as Psychologist? Preliminary Evaluations for GPT-4V on Visual Affective Computing [74.68232970965595]
MLLM(Multimodal large language model)は、テキスト、音声、画像、ビデオなどの複数のソースからの情報を処理し、統合するように設計されている。
本稿では、視覚的情緒的タスクと推論タスクにまたがる5つの重要な能力を持つMLLMの適用性を評価する。
論文 参考訳(メタデータ) (2024-03-09T13:56:25Z) - EmoBench: Evaluating the Emotional Intelligence of Large Language Models [73.60839120040887]
EmoBenchは、確立された心理学理論に基づいて、マシン感情知能(EI)の包括的な定義を提案するベンチマークである。
EmoBenchには、英語と中国語で400の手作りの質問が含まれている。
以上の結果から,既存の大規模言語モデルのEIと平均的な人間の間には,かなりのギャップがみられ,今後の研究に向けての有望な方向性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-02-19T11:48:09Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Deep Learning based Micro-expression Recognition: A Survey [34.14579226321051]
マイクロ・エクスプレッション(ME)は、高い状況下での人々の隠れた感情を明らかにする不随意の顔の動きである。
様々な分野におけるディープラーニング(DL)の成功により、ニューラルネットワークはMERへの関心が高まっている。
本調査は, DLに基づくMERのすべての側面を包含する, この分野の新しい分類法を定義する。
論文 参考訳(メタデータ) (2021-07-06T18:05:52Z) - iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis [23.261770969903065]
iMiGUE(iMiGUE)は、マイクロジェスチャ理解・感情分析のためのアイデンティティフリービデオデータセットである。
iMiGUEは、内的感情によって引き起こされる意図しない行動(micro-gesture)に焦点を当てている。
論文 参考訳(メタデータ) (2021-07-01T08:15:14Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - An Overview of Facial Micro-Expression Analysis: Data, Methodology and
Challenge [24.495792982803124]
顔のマイクロ表現は感情的なコミュニケーションの間に現れる短く、微妙な顔の動きを示します。
近年、マイクロ表現認識(MER)は、幅広いアプリケーションに恩恵をもたらす可能性があるため、多くの注目を集めています。
MERは、3つの新しい側面からアプローチする:マクロからマイクロへの適応、キー頂点フレームに基づく認識、顔アクション単位に基づく認識。
論文 参考訳(メタデータ) (2020-12-21T13:20:17Z) - Deep Learning for Person Re-identification: A Survey and Outlook [233.36948173686602]
人物再識別(Re-ID)は、複数の重複しないカメラを通して興味ある人物を検索することを目的としている。
人物のRe-IDシステム開発に関わるコンポーネントを分離することにより、それをクローズドワールドとオープンワールドのセッティングに分類する。
論文 参考訳(メタデータ) (2020-01-13T12:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。