論文の概要: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- arxiv url: http://arxiv.org/abs/2301.00985v1
- Date: Tue, 3 Jan 2023 07:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:42:01.567387
- Title: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- Title(参考訳): more is better: フレームレートの高い自発的マイクロ表現のためのデータベース
- Authors: Sirui Zhao, Huaying Tang, Xinglong Mao, Shifeng Liu, Hanqing Tao, Hao
Wang, Tong Xu and Enhong Chen
- Abstract要約: 顔のマイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする、自然で過渡的な表情である。
豊富なMEデータの欠如は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
DFMEと呼ばれる,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
- 参考スコア(独自算出の注目度): 44.00747026866968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the most important psychic stress reactions, micro-expressions
(MEs), are spontaneous and transient facial expressions that can reveal the
genuine emotions of human beings. Thus, recognizing MEs (MER) automatically is
becoming increasingly crucial in the field of affective computing, and provides
essential technical support in lie detection, psychological analysis and other
areas. However, the lack of abundant ME data seriously restricts the
development of cutting-edge data-driven MER models. Despite the recent efforts
of several spontaneous ME datasets to alleviate this problem, it is still a
tiny amount of work. To solve the problem of ME data hunger, we construct a
dynamic spontaneous ME dataset with the largest current ME data scale, called
DFME (Dynamic Facial Micro-expressions), which includes 7,526 well-labeled ME
videos induced by 671 participants and annotated by more than 20 annotators
throughout three years. Afterwards, we adopt four classical spatiotemporal
feature learning models on DFME to perform MER experiments to objectively
verify the validity of DFME dataset. In addition, we explore different
solutions to the class imbalance and key-frame sequence sampling problems in
dynamic MER respectively on DFME, so as to provide a valuable reference for
future research. The comprehensive experimental results show that our DFME
dataset can facilitate the research of automatic MER, and provide a new
benchmark for MER. DFME will be published via https://mea-lab-421.github.io.
- Abstract(参考訳): 最も重要なサイキックストレス反応の1つとして、マイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする自然かつ過渡的な表情である。
このように、感情コンピューティングの分野では、自動的にME(MER)を認識することがますます重要になっている。
しかし、豊富なMEデータの不足は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
この問題を緩和するためのいくつかの自発的なMEデータセットの最近の取り組みにもかかわらず、まだわずかな作業である。
DFME(Dynamic Facial Micro-Expressions)と呼ばれる,671人の参加者によって誘導され,3年間に20以上のアノテータによってアノテータによってアノテートされた7,526個の良質なMEビデオを含む,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
その後、DFMEデータセットの有効性を客観的に検証するためのMER実験を行うために、DFMEに4つの古典的時空間特徴学習モデルを適用した。
さらに,DFME上での動的MERにおけるクラス不均衡およびキーフレームシーケンスサンプリング問題に対する異なる解について検討し,今後の研究の参考となる。
総合実験の結果,dfmeデータセットは自動merの研究を容易にし,merの新しいベンチマークを提供することができた。
DFMEはhttps://mea-lab-421.github.ioで公開される。
関連論文リスト
- FoME: A Foundation Model for EEG using Adaptive Temporal-Lateral Attention Scaling [19.85701025524892]
FoME (Foundation Model for EEG) は適応的側方アテンションスケーリングを用いた新しいアプローチである。
FoMEは1.7TBの頭皮と頭蓋内脳波記録のデータセットで事前訓練されており、1,096kのステップで745Mのパラメータが訓練されている。
論文 参考訳(メタデータ) (2024-09-19T04:22:40Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic
Facial Expression Recognition [47.29528724322795]
MAE-DFERは動的表情を学習するための新しい自己教師型手法である。
大量のラベルのないデータに基づいて、大規模な自己教師付き事前トレーニングを使用する。
常に最先端の教師付きメソッドより優れています。
論文 参考訳(メタデータ) (2023-07-05T12:08:56Z) - Deeply-Learned Generalized Linear Models with Missing Data [6.302686933168439]
我々は、深く学習された一般化線形モデルの文脈において、欠測データの形式的処理を行う。
我々は、無視できないパターンと無視できないパターンの両方を柔軟に説明できる新しいアーキテクチャ、textitdlglmを提案する。
UCI Machine Learning Repositoryのバンクマーケティングデータセットのケーススタディで締めくくった。
論文 参考訳(メタデータ) (2022-07-18T20:00:13Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Deep Learning based Micro-expression Recognition: A Survey [34.14579226321051]
マイクロ・エクスプレッション(ME)は、高い状況下での人々の隠れた感情を明らかにする不随意の顔の動きである。
様々な分野におけるディープラーニング(DL)の成功により、ニューラルネットワークはMERへの関心が高まっている。
本調査は, DLに基づくMERのすべての側面を包含する, この分野の新しい分類法を定義する。
論文 参考訳(メタデータ) (2021-07-06T18:05:52Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。