論文の概要: Temporal and Spatial Feature Fusion Framework for Dynamic Micro Expression Recognition
- arxiv url: http://arxiv.org/abs/2505.16372v1
- Date: Thu, 22 May 2025 08:26:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.146421
- Title: Temporal and Spatial Feature Fusion Framework for Dynamic Micro Expression Recognition
- Title(参考訳): 動的マイクロ表現認識のための時間的・空間的特徴融合フレームワーク
- Authors: Feng Liu, Bingyu Nan, Xuezhong Qian, Xiaolan Fu,
- Abstract要約: 過渡的かつ高度に局所化されたマイクロ表現は、その正確な認識に重大な課題をもたらす。
マイクロ圧縮認識の精度は、プロでも50%以下である。
DMER(TSFmicro)のための新しい時間空間特徴融合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.444324424467006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When emotions are repressed, an individual's true feelings may be revealed through micro-expressions. Consequently, micro-expressions are regarded as a genuine source of insight into an individual's authentic emotions. However, the transient and highly localised nature of micro-expressions poses a significant challenge to their accurate recognition, with the accuracy rate of micro-expression recognition being as low as 50%, even for professionals. In order to address these challenges, it is necessary to explore the field of dynamic micro expression recognition (DMER) using multimodal fusion techniques, with special attention to the diverse fusion of temporal and spatial modal features. In this paper, we propose a novel Temporal and Spatial feature Fusion framework for DMER (TSFmicro). This framework integrates a Retention Network (RetNet) and a transformer-based DMER network, with the objective of efficient micro-expression recognition through the capture and fusion of temporal and spatial relations. Meanwhile, we propose a novel parallel time-space fusion method from the perspective of modal fusion, which fuses spatio-temporal information in high-dimensional feature space, resulting in complementary "where-how" relationships at the semantic level and providing richer semantic information for the model. The experimental results demonstrate the superior performance of the TSFmicro method in comparison to other contemporary state-of-the-art methods. This is evidenced by its effectiveness on three well-recognised micro-expression datasets.
- Abstract(参考訳): 感情が抑圧されると、個人の真の感情がマイクロ表現によって明らかになることがある。
結果として、マイクロ表現は個人の真の感情に対する真の洞察の源とみなされる。
しかしながら、マイクロ表現の過渡的かつ高度に局所化された性質は、その正確な認識に重大な課題をもたらし、マイクロ表現認識の精度はプロフェッショナルにとっても50%も低い。
これらの課題に対処するためには,マルチモーダル融合技術を用いて動的マイクロ表現認識(DMER)の分野を探究する必要がある。
本稿では,DMER(TSFmicro)のための時間空間特徴融合フレームワークを提案する。
このフレームワークは、Retention Network(RetNet)とTransformerベースのDMERネットワークを統合し、時間的および空間的関係の捕捉と融合による効率的なマイクロ圧縮認識を実現する。
一方,高次元特徴空間における時空間情報の融合を図った並列時間空間融合法を提案する。
実験の結果,TSFmicro法は,他の最先端手法と比較して優れた性能を示した。
これは、よく認識された3つのマイクロ圧縮データセットで有効であることが証明されている。
関連論文リスト
- Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - AIMDiT: Modality Augmentation and Interaction via Multimodal Dimension Transformation for Emotion Recognition in Conversations [57.99479708224221]
AIMDiTと呼ばれる新しいフレームワークを提案し、深い特徴のマルチモーダル融合の問題を解決する。
公開ベンチマークデータセットMELDでAIMDiTフレームワークを使用して行った実験では、Acc-7とw-F1メトリクスの2.34%と2.87%の改善が明らかにされた。
論文 参考訳(メタデータ) (2024-04-12T11:31:18Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - Feature Representation Learning with Adaptive Displacement Generation
and Transformer Fusion for Micro-Expression Recognition [18.6490971645882]
マイクロ表現は自然に、素早く、微妙な顔の動きであり、偽造も抑制もできない。
適応的変位生成と変圧器融合(FRL-DGT)を用いた特徴表現学習フレームワークを提案する。
ソリッド・エンド・ワン・オブジェクト・アウト (LOSO) 評価実験により, 提案したFRL-DGTの最先端手法に対する優位性を実証した。
論文 参考訳(メタデータ) (2023-04-10T07:03:36Z) - Micro-Expression Recognition Based on Attribute Information Embedding
and Cross-modal Contrastive Learning [22.525295392858293]
本稿では,属性情報埋め込みとクロスモーダルコントラスト学習に基づくマイクロ圧縮認識手法を提案する。
我々はCASME II と MMEW データベースで広範な実験を行い、精度はそれぞれ77.82% と 71.04% である。
論文 参考訳(メタデータ) (2022-05-29T12:28:10Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。