論文の概要: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- arxiv url: http://arxiv.org/abs/2301.00985v1
- Date: Tue, 3 Jan 2023 07:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:42:01.567387
- Title: More is Better: A Database for Spontaneous Micro-Expression with High
Frame Rates
- Title(参考訳): more is better: フレームレートの高い自発的マイクロ表現のためのデータベース
- Authors: Sirui Zhao, Huaying Tang, Xinglong Mao, Shifeng Liu, Hanqing Tao, Hao
Wang, Tong Xu and Enhong Chen
- Abstract要約: 顔のマイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする、自然で過渡的な表情である。
豊富なMEデータの欠如は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
DFMEと呼ばれる,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
- 参考スコア(独自算出の注目度): 44.00747026866968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the most important psychic stress reactions, micro-expressions
(MEs), are spontaneous and transient facial expressions that can reveal the
genuine emotions of human beings. Thus, recognizing MEs (MER) automatically is
becoming increasingly crucial in the field of affective computing, and provides
essential technical support in lie detection, psychological analysis and other
areas. However, the lack of abundant ME data seriously restricts the
development of cutting-edge data-driven MER models. Despite the recent efforts
of several spontaneous ME datasets to alleviate this problem, it is still a
tiny amount of work. To solve the problem of ME data hunger, we construct a
dynamic spontaneous ME dataset with the largest current ME data scale, called
DFME (Dynamic Facial Micro-expressions), which includes 7,526 well-labeled ME
videos induced by 671 participants and annotated by more than 20 annotators
throughout three years. Afterwards, we adopt four classical spatiotemporal
feature learning models on DFME to perform MER experiments to objectively
verify the validity of DFME dataset. In addition, we explore different
solutions to the class imbalance and key-frame sequence sampling problems in
dynamic MER respectively on DFME, so as to provide a valuable reference for
future research. The comprehensive experimental results show that our DFME
dataset can facilitate the research of automatic MER, and provide a new
benchmark for MER. DFME will be published via https://mea-lab-421.github.io.
- Abstract(参考訳): 最も重要なサイキックストレス反応の1つとして、マイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする自然かつ過渡的な表情である。
このように、感情コンピューティングの分野では、自動的にME(MER)を認識することがますます重要になっている。
しかし、豊富なMEデータの不足は、最先端のデータ駆動型MERモデルの開発を著しく制限する。
この問題を緩和するためのいくつかの自発的なMEデータセットの最近の取り組みにもかかわらず、まだわずかな作業である。
DFME(Dynamic Facial Micro-Expressions)と呼ばれる,671人の参加者によって誘導され,3年間に20以上のアノテータによってアノテータによってアノテートされた7,526個の良質なMEビデオを含む,現在最大規模のMEデータスケールを持つ動的自発MEデータセットを構築した。
その後、DFMEデータセットの有効性を客観的に検証するためのMER実験を行うために、DFMEに4つの古典的時空間特徴学習モデルを適用した。
さらに,DFME上での動的MERにおけるクラス不均衡およびキーフレームシーケンスサンプリング問題に対する異なる解について検討し,今後の研究の参考となる。
総合実験の結果,dfmeデータセットは自動merの研究を容易にし,merの新しいベンチマークを提供することができた。
DFMEはhttps://mea-lab-421.github.ioで公開される。
関連論文リスト
- Mitigating Reward Hacking via Information-Theoretic Reward Modeling [70.26019860948114]
本稿では,報酬モデリングのための汎用的で堅牢なフレームワークであるInfoRMを提案する。
我々は,潜伏空間における過最適化と外れ値の相関を同定し,報酬過最適化を検出するための有望なツールとしてInfoRMを確立した。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - IMUGPT 2.0: Language-Based Cross Modality Transfer for Sensor-Based
Human Activity Recognition [0.19791587637442667]
クロスモーダリティ転送アプローチは、既存のデータセットを、ビデオのようなソースモーダリティからターゲットモーダリティ(IMU)に変換する。
我々はIMUGPTに2つの新しい拡張を導入し、実用的なHARアプリケーションシナリオの利用を拡大した。
我々の多様性指標は、仮想IMUデータの生成に必要な労力を少なくとも50%削減できることを示した。
論文 参考訳(メタデータ) (2024-02-01T22:37:33Z) - MAE-DFER: Efficient Masked Autoencoder for Self-supervised Dynamic
Facial Expression Recognition [47.29528724322795]
MAE-DFERは動的表情を学習するための新しい自己教師型手法である。
大量のラベルのないデータに基づいて、大規模な自己教師付き事前トレーニングを使用する。
常に最先端の教師付きメソッドより優れています。
論文 参考訳(メタデータ) (2023-07-05T12:08:56Z) - AU-aware graph convolutional network for Macro- and Micro-expression
spotting [44.507747407072685]
我々はAUW-GCN(Action-Unit-aWare Graph Convolutional Network)と呼ばれるグラフ畳み込み型ネットワークを提案する。
先行情報を注入し、小さなデータセットの問題に対処するために、AU関連統計データをネットワークにエンコードする。
その結果, 2つのベンチマークデータセットにおいて, ベースライン手法を一貫して向上させ, 新たなSOTA性能を実現することができた。
論文 参考訳(メタデータ) (2023-03-16T07:00:36Z) - Transformers for prompt-level EMA non-response prediction [62.41658786277712]
エコロジー・モメンタリー・アセスメント(Ecological Momentary Assessments、EMA)は、認知状態、影響、行動、環境要因を測定するための重要な心理的データ源である。
参加者がEMAプロンプトに反応しない非応答は、内因性問題である。
非応答を正確に予測できる能力は、EMAのデリバリを改善し、コンプライアンスの介入を開発するために利用することができる。
論文 参考訳(メタデータ) (2021-11-01T18:38:47Z) - Deep Learning based Micro-expression Recognition: A Survey [34.14579226321051]
マイクロ・エクスプレッション(ME)は、高い状況下での人々の隠れた感情を明らかにする不随意の顔の動きである。
様々な分野におけるディープラーニング(DL)の成功により、ニューラルネットワークはMERへの関心が高まっている。
本調査は, DLに基づくMERのすべての側面を包含する, この分野の新しい分類法を定義する。
論文 参考訳(メタデータ) (2021-07-06T18:05:52Z) - iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis [23.261770969903065]
iMiGUE(iMiGUE)は、マイクロジェスチャ理解・感情分析のためのアイデンティティフリービデオデータセットである。
iMiGUEは、内的感情によって引き起こされる意図しない行動(micro-gesture)に焦点を当てている。
論文 参考訳(メタデータ) (2021-07-01T08:15:14Z) - Families In Wild Multimedia: A Multimodal Database for Recognizing
Kinship [63.27052967981546]
マルチタスク MM キンシップデータセットを初めて公開する。
FIW MMを構築するために,データを自動収集,注釈付け,作成する機構を開発した。
結果は、改善の異なる領域で将来の研究を刺激するエッジケースを強調します。
論文 参考訳(メタデータ) (2020-07-28T22:36:57Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。