論文の概要: DFME: A New Benchmark for Dynamic Facial Micro-expression Recognition
- arxiv url: http://arxiv.org/abs/2301.00985v2
- Date: Sat, 28 Dec 2024 01:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:02.111202
- Title: DFME: A New Benchmark for Dynamic Facial Micro-expression Recognition
- Title(参考訳): DFME:動的顔のマイクロ圧縮認識のための新しいベンチマーク
- Authors: Sirui Zhao, Huaying Tang, Xinglong Mao, Shifeng Liu, Yiming Zhang, Hao Wang, Tong Xu, Enhong Chen,
- Abstract要約: マイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする、自然に、微妙で、過渡的な表情である。
MEデータ不足は、先進的なデータ駆動型MERモデルの開発を著しく妨げている。
本稿では,動的自発的なMEデータベースを収集・注釈することで,MEデータ不足を克服する。
- 参考スコア(独自算出の注目度): 51.26943074578153
- License:
- Abstract: One of the most important subconscious reactions, micro-expression (ME), is a spontaneous, subtle, and transient facial expression that reveals human beings' genuine emotion. Therefore, automatically recognizing ME (MER) is becoming increasingly crucial in the field of affective computing, providing essential technical support for lie detection, clinical psychological diagnosis, and public safety. However, the ME data scarcity has severely hindered the development of advanced data-driven MER models. Despite the recent efforts by several spontaneous ME databases to alleviate this problem, there is still a lack of sufficient data. Hence, in this paper, we overcome the ME data scarcity problem by collecting and annotating a dynamic spontaneous ME database with the largest current ME data scale called DFME (Dynamic Facial Micro-expressions). Specifically, the DFME database contains 7,526 well-labeled ME videos spanning multiple high frame rates, elicited by 671 participants and annotated by more than 20 professional annotators over three years. Furthermore, we comprehensively verify the created DFME, including using influential spatiotemporal video feature learning models and MER models as baselines, and conduct emotion classification and ME action unit classification experiments. The experimental results demonstrate that the DFME database can facilitate research in automatic MER, and provide a new benchmark for this field. DFME will be published via https://mea-lab-421.github.io.
- Abstract(参考訳): マイクロ・エクスプレッション(ME: Micro-Expression)は、人間の真の感情を明らかにする、自然に、微妙で、過渡的な表情である。
そのため、感情コンピューティングの分野では、ME(MER)の自動認識がますます重要になってきており、嘘検出、臨床心理学的診断、公衆安全に不可欠な技術支援を提供している。
しかし、MEデータ不足は、先進的なデータ駆動型MERモデルの開発を著しく妨げている。
この問題を緩和するためのいくつかの自発的なMEデータベースによる最近の取り組みにもかかわらず、十分なデータが不足している。
そこで本稿では, DFME(Dynamic Facial Micro-Expressions)と呼ばれる, 現在最大のMEデータスケールを持つ動的自発MEデータベースを収集し, 注釈付けすることで, MEデータ不足を克服する。
具体的には、DFMEデータベースには、複数の高いフレームレートにまたがる7,526本の良好なラベル付きMEビデオが含まれており、671人の参加者が参加し、3年間に20以上のプロのアノテータが注釈を付けている。
さらに,映像特徴学習モデルとMERモデルをベースラインとし,感情分類とME行動単位分類実験を含むDFMEを包括的に検証した。
実験の結果,DFMEデータベースは自動MERの研究を容易にし,この分野の新たなベンチマークを提供することができた。
DFMEはhttps://mea-lab-421.github.ioで公開される。
関連論文リスト
- Autonomous Droplet Microfluidic Design Framework with Large Language Models [0.6827423171182153]
本研究では,処理および特徴抽出のためのフレームワークであるMicroFluidic-LLMsを提案する。
コンテンツが言語形式に変換され、事前訓練された大きな言語モデルを活用することで、処理上の課題を克服する。
当社のMicroFluidic-LLMsフレームワークは、ディープニューラルネットワークモデルに極めて効果的で簡単なものにすることができることを実証しています。
論文 参考訳(メタデータ) (2024-11-11T03:20:53Z) - Knowledge Graph Enhanced Retrieval-Augmented Generation for Failure Mode and Effects Analysis [1.8849131083278732]
フェールモードとエフェクト分析(FMEA)は、潜在的な障害を緩和するための重要なツールである。
大規模言語モデル(LLM)は、FMEAコンテキスト内での推論のためにカスタムデータセットを微調整するための新しい見通しを提供する。
Retrieval-augmented Generation (RAG) アプローチはこのギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2024-06-26T07:02:49Z) - Towards Precision Healthcare: Robust Fusion of Time Series and Image Data [8.579651833717763]
本稿では,データの種類毎に2つのエンコーダを用いて,視覚情報と時間情報の両方において複雑なパターンをモデル化する手法を提案する。
また、不均衡なデータセットに対処し、不確実性損失関数を使用し、改善した結果を得る。
本手法は,臨床応用におけるマルチモーダルディープラーニングの改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-24T11:18:13Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic
Facial Expression Recognition [47.29528724322795]
MAE-DFERは動的表情を学習するための新しい自己教師型手法である。
大量のラベルのないデータに基づいて、大規模な自己教師付き事前トレーニングを使用する。
常に最先端の教師付きメソッドより優れています。
論文 参考訳(メタデータ) (2023-07-05T12:08:56Z) - Deep Learning based Micro-expression Recognition: A Survey [34.14579226321051]
マイクロ・エクスプレッション(ME)は、高い状況下での人々の隠れた感情を明らかにする不随意の顔の動きである。
様々な分野におけるディープラーニング(DL)の成功により、ニューラルネットワークはMERへの関心が高まっている。
本調査は, DLに基づくMERのすべての側面を包含する, この分野の新しい分類法を定義する。
論文 参考訳(メタデータ) (2021-07-06T18:05:52Z) - Families In Wild Multimedia: A Multimodal Database for Recognizing
Kinship [63.27052967981546]
マルチタスク MM キンシップデータセットを初めて公開する。
FIW MMを構築するために,データを自動収集,注釈付け,作成する機構を開発した。
結果は、改善の異なる領域で将来の研究を刺激するエッジケースを強調します。
論文 参考訳(メタデータ) (2020-07-28T22:36:57Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。