論文の概要: FMANet: A Novel Dual-Phase Optical Flow Approach with Fusion Motion Attention Network for Robust Micro-expression Recognition
- arxiv url: http://arxiv.org/abs/2510.07810v1
- Date: Thu, 09 Oct 2025 05:36:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.88905
- Title: FMANet: A Novel Dual-Phase Optical Flow Approach with Fusion Motion Attention Network for Robust Micro-expression Recognition
- Title(参考訳): FMANet:ロバストなマイクロ圧縮認識のための融合運動注意ネットワークを用いた新しい2相光フローアプローチ
- Authors: Luu Tu Nguyen, Vu Tram Anh Khuong, Thi Bich Phuong Man, Thi Duyen Ngo, Thanh Ha Le,
- Abstract要約: 微妙な顔の動きを捉えるのが難しいため、微小な表情認識は困難である。
本稿では,マイクロ圧縮相とマイクロ圧縮相の運動力学を統合記述子に統合した総合的な動き表現を提案する。
次に、二相解析と等級変調を学習可能なモジュールに内部化する、新しいエンドツーエンドニューラルネットワークアーキテクチャであるFMANetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial micro-expressions, characterized by their subtle and brief nature, are valuable indicators of genuine emotions. Despite their significance in psychology, security, and behavioral analysis, micro-expression recognition remains challenging due to the difficulty of capturing subtle facial movements. Optical flow has been widely employed as an input modality for this task due to its effectiveness. However, most existing methods compute optical flow only between the onset and apex frames, thereby overlooking essential motion information in the apex-to-offset phase. To address this limitation, we first introduce a comprehensive motion representation, termed Magnitude-Modulated Combined Optical Flow (MM-COF), which integrates motion dynamics from both micro-expression phases into a unified descriptor suitable for direct use in recognition networks. Building upon this principle, we then propose FMANet, a novel end-to-end neural network architecture that internalizes the dual-phase analysis and magnitude modulation into learnable modules. This allows the network to adaptively fuse motion cues and focus on salient facial regions for classification. Experimental evaluations on the MMEW, SMIC, CASME-II, and SAMM datasets, widely recognized as standard benchmarks, demonstrate that our proposed MM-COF representation and FMANet outperforms existing methods, underscoring the potential of a learnable, dual-phase framework in advancing micro-expression recognition.
- Abstract(参考訳): 微妙で簡潔な性格を特徴とする顔のマイクロ表現は、真の感情を示す貴重な指標である。
心理学、セキュリティ、行動分析において重要であるにもかかわらず、微妙な顔の動きを捉えるのが難しいため、マイクロ圧縮認識は依然として困難である。
光の流れは、その有効性のために、このタスクの入力モダリティとして広く利用されている。
しかし、既存のほとんどの方法は、オンセットフレームとアペックスフレームの間でのみ光の流れを計算し、これにより、アペックスからオフセットフェーズにおける必須の動作情報を見渡すことができる。
この制限に対処するため,我々はまずMM-COF(Magnitude-Modulated Combined Optical Flow)と呼ばれる総合的な動作表現を導入する。
この原理に基づいて、二相解析と等級変調を学習可能なモジュールに内部化する、新しいエンドツーエンドニューラルネットワークアーキテクチャであるFMANetを提案する。
これにより、ネットワークは動きの手がかりを適応的に融合させ、分類のために正常な顔領域に焦点を合わせることができる。
MMEW,SMIC,CASME-II,SAMMデータセットを標準ベンチマークとして評価し,提案したMM-COF表現とFMANetが既存の手法より優れていることを示す。
関連論文リスト
- MOL: Joint Estimation of Micro-Expression, Optical Flow, and Landmark via Transformer-Graph-Style Convolution [46.600316142855334]
顔のマイクロ圧縮認識(MER)は、過渡的かつ微妙なマイクロ圧縮(ME)作用のために難しい問題である。
本稿では、トランスフォーマー、グラフ畳み込み、バニラ畳み込みの利点を生かしたエンドツーエンドのマイクロアクション対応ディープラーニングフレームワークを提案する。
我々のフレームワークはCASME II, SAMM, SMICベンチマークにおける最先端のMER手法よりも優れています。
論文 参考訳(メタデータ) (2025-06-17T13:35:06Z) - Technical Approach for the EMI Challenge in the 8th Affective Behavior Analysis in-the-Wild Competition [10.741278852581646]
Emotional Mimicry Intensity (EMI)の推定は、人間の社会的行動を理解し、人間とコンピュータの相互作用を促進する上で重要な役割を担っている。
本稿では,既存手法の限界に対処する2段階のクロスモーダルアライメントフレームワークを提案する。
Hume-Vidmimic2データセットの実験では、6つの感情次元の平均ピアソン係数相関が0.51であるのに対し、優れた性能を示した。
論文 参考訳(メタデータ) (2025-03-13T17:46:16Z) - AHMSA-Net: Adaptive Hierarchical Multi-Scale Attention Network for Micro-Expression Recognition [15.008358563986825]
マイクロ圧縮認識のための適応階層型マルチスケールアテンションネットワーク(AHMSA-Net)を設計する。
AHMSA-Netはアダプティブ階層フレームワークとマルチスケールアテンションメカニズムの2つの部分から構成される。
AHMSA-Netは、複合データベース上で78.21%の認識精度を達成している。
論文 参考訳(メタデータ) (2025-01-05T13:40:12Z) - Three-Stream Temporal-Shift Attention Network Based on Self-Knowledge Distillation for Micro-Expression Recognition [21.675660978188617]
ミクロな表現認識は、犯罪分析や心理療法など、多くの分野で重要である。
本稿では,自己知識蒸留に基づく3ストリーム時間シフトアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-25T13:22:22Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。