論文の概要: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- arxiv url: http://arxiv.org/abs/2301.00985v1
- Date: Tue, 3 Jan 2023 07:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:42:01.567387
- Title: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- Title(参考訳): more is better: フレームレートの高い自発的マイクロ表現のためのデータベース
- Authors: Sirui Zhao, Huaying Tang, Xinglong Mao, Shifeng Liu, Hanqing Tao, Hao
Wang, Tong Xu and Enhong Chen
- Abstract要約: 顔のマイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする、自然で過渡的な表情である。
豊富なMEデータの欠如は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
DFMEと呼ばれる,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
- 参考スコア(独自算出の注目度): 44.00747026866968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the most important psychic stress reactions, micro-expressions
(MEs), are spontaneous and transient facial expressions that can reveal the
genuine emotions of human beings. Thus, recognizing MEs (MER) automatically is
becoming increasingly crucial in the field of affective computing, and provides
essential technical support in lie detection, psychological analysis and other
areas. However, the lack of abundant ME data seriously restricts the
development of cutting-edge data-driven MER models. Despite the recent efforts
of several spontaneous ME datasets to alleviate this problem, it is still a
tiny amount of work. To solve the problem of ME data hunger, we construct a
dynamic spontaneous ME dataset with the largest current ME data scale, called
DFME (Dynamic Facial Micro-expressions), which includes 7,526 well-labeled ME
videos induced by 671 participants and annotated by more than 20 annotators
throughout three years. Afterwards, we adopt four classical spatiotemporal
feature learning models on DFME to perform MER experiments to objectively
verify the validity of DFME dataset. In addition, we explore different
solutions to the class imbalance and key-frame sequence sampling problems in
dynamic MER respectively on DFME, so as to provide a valuable reference for
future research. The comprehensive experimental results show that our DFME
dataset can facilitate the research of automatic MER, and provide a new
benchmark for MER. DFME will be published via https://mea-lab-421.github.io.
- Abstract(参考訳): 最も重要なサイキックストレス反応の1つとして、マイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする自然かつ過渡的な表情である。
このように、感情コンピューティングの分野では、自動的にME(MER)を認識することがますます重要になっている。
しかし、豊富なMEデータの不足は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
この問題を緩和するためのいくつかの自発的なMEデータセットの最近の取り組みにもかかわらず、まだわずかな作業である。
DFME(Dynamic Facial Micro-Expressions)と呼ばれる,671人の参加者によって誘導され,3年間に20以上のアノテータによってアノテータによってアノテートされた7,526個の良質なMEビデオを含む,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
その後、DFMEデータセットの有効性を客観的に検証するためのMER実験を行うために、DFMEに4つの古典的時空間特徴学習モデルを適用した。
さらに,DFME上での動的MERにおけるクラス不均衡およびキーフレームシーケンスサンプリング問題に対する異なる解について検討し,今後の研究の参考となる。
総合実験の結果,dfmeデータセットは自動merの研究を容易にし,merの新しいベンチマークを提供することができた。
DFMEはhttps://mea-lab-421.github.ioで公開される。
関連論文リスト
- Autonomous Droplet Microfluidic Design Framework with Large Language Models [0.6827423171182153]
本研究では,処理および特徴抽出のためのフレームワークであるMicroFluidic-LLMsを提案する。
コンテンツが言語形式に変換され、事前訓練された大きな言語モデルを活用することで、処理上の課題を克服する。
当社のMicroFluidic-LLMsフレームワークは、ディープニューラルネットワークモデルに極めて効果的で簡単なものにすることができることを実証しています。
論文 参考訳(メタデータ) (2024-11-11T03:20:53Z) - Knowledge Graph Enhanced Retrieval-Augmented Generation for Failure Mode and Effects Analysis [1.8849131083278732]
フェールモードとエフェクト分析(FMEA)は、潜在的な障害を緩和するための重要なツールである。
大規模言語モデル(LLM)は、FMEAコンテキスト内での推論のためにカスタムデータセットを微調整するための新しい見通しを提供する。
Retrieval-augmented Generation (RAG) アプローチはこのギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2024-06-26T07:02:49Z) - Towards Precision Healthcare: Robust Fusion of Time Series and Image Data [8.579651833717763]
本稿では,データの種類毎に2つのエンコーダを用いて,視覚情報と時間情報の両方において複雑なパターンをモデル化する手法を提案する。
また、不均衡なデータセットに対処し、不確実性損失関数を使用し、改善した結果を得る。
本手法は,臨床応用におけるマルチモーダルディープラーニングの改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-24T11:18:13Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling [66.3072381478251]
Reward Hacking(報酬の過度な最適化)は依然として重要な課題だ。
本稿では,報奨モデル,すなわちInfoRMのためのフレームワークを提案する。
InfoRMの過度な最適化検出機構は、有効であるだけでなく、幅広いデータセットにわたって堅牢であることを示す。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic
Facial Expression Recognition [47.29528724322795]
MAE-DFERは動的表情を学習するための新しい自己教師型手法である。
大量のラベルのないデータに基づいて、大規模な自己教師付き事前トレーニングを使用する。
常に最先端の教師付きメソッドより優れています。
論文 参考訳(メタデータ) (2023-07-05T12:08:56Z) - Deep Learning based Micro-expression Recognition: A Survey [34.14579226321051]
マイクロ・エクスプレッション(ME)は、高い状況下での人々の隠れた感情を明らかにする不随意の顔の動きである。
様々な分野におけるディープラーニング(DL)の成功により、ニューラルネットワークはMERへの関心が高まっている。
本調査は, DLに基づくMERのすべての側面を包含する, この分野の新しい分類法を定義する。
論文 参考訳(メタデータ) (2021-07-06T18:05:52Z) - Families In Wild Multimedia: A Multimodal Database for Recognizing
Kinship [63.27052967981546]
マルチタスク MM キンシップデータセットを初めて公開する。
FIW MMを構築するために,データを自動収集,注釈付け,作成する機構を開発した。
結果は、改善の異なる領域で将来の研究を刺激するエッジケースを強調します。
論文 参考訳(メタデータ) (2020-07-28T22:36:57Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。