論文の概要: Adaptive Fusion Network with Temporal-Ranked and Motion-Intensity Dynamic Images for Micro-expression Recognition
- arxiv url: http://arxiv.org/abs/2510.09730v1
- Date: Fri, 10 Oct 2025 11:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.595263
- Title: Adaptive Fusion Network with Temporal-Ranked and Motion-Intensity Dynamic Images for Micro-expression Recognition
- Title(参考訳): 時間駆動・運動強度動的画像を用いたマイクロ圧縮認識のための適応核融合ネットワーク
- Authors: Thi Bich Phuong Man, Luu Tu Nguyen, Vu Tram Anh Khuong, Thanh Ha Le, Thi Duyen Ngo,
- Abstract要約: マイクロ・エクスプレッション(ME)は微妙で過渡的な顔の変化であり、非常に低強度であり、肉眼ではほとんど知覚できない。
本稿では2つの主な貢献点を持つ新しいMER法を提案する。
まず,時間的進行を重視したテンポラルランク動的画像と,動きの強度を取り入れたフレームリオーダー機構による微妙な動きを強調するモーションインテンシティ動的画像の2つの相補的表現を提案する。
第2に,これら2つの表現を最適に統合することを自動的に学習し,雑音を抑えながら識別的ME特性を向上する適応融合ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions (MEs) are subtle, transient facial changes with very low intensity, almost imperceptible to the naked eye, yet they reveal a person genuine emotion. They are of great value in lie detection, behavioral analysis, and psychological assessment. This paper proposes a novel MER method with two main contributions. First, we propose two complementary representations - Temporal-ranked dynamic image, which emphasizes temporal progression, and Motion-intensity dynamic image, which highlights subtle motions through a frame reordering mechanism incorporating motion intensity. Second, we propose an Adaptive fusion network, which automatically learns to optimally integrate these two representations, thereby enhancing discriminative ME features while suppressing noise. Experiments on three benchmark datasets (CASME-II, SAMM and MMEW) demonstrate the superiority of the proposed method. Specifically, AFN achieves 93.95 Accuracy and 0.897 UF1 on CASME-II, setting a new state-of-the-art benchmark. On SAMM, the method attains 82.47 Accuracy and 0.665 UF1, demonstrating more balanced recognition across classes. On MMEW, the model achieves 76.00 Accuracy, further confirming its generalization ability. The obtained results show that both the input and the proposed architecture play important roles in improving the performance of MER. Moreover, they provide a solid foundation for further research and practical applications in the fields of affective computing, lie detection, and human-computer interaction.
- Abstract(参考訳): マイクロ・エクスプレッション(ME)は微妙で過渡的な顔の変化であり、非常に低強度であり、肉眼ではほとんど知覚できない。
それらは、嘘検出、行動分析、心理的評価において非常に貴重である。
本稿では2つの主な貢献点を持つ新しいMER法を提案する。
まず,時間的進行を重視したテンポラルランク動的画像と,動きの強度を取り入れたフレームリオーダー機構による微妙な動きを強調するモーションインテンシティ動的画像の2つの相補的表現を提案する。
第2に,これら2つの表現を最適に統合することを自動的に学習し,雑音を抑えながら識別的ME特性を向上する適応融合ネットワークを提案する。
3つのベンチマークデータセット(CASME-II, SAMM, MMEW)を用いて,提案手法の優位性を実証した。
具体的には、AFNはCASME-II上で93.95の精度と0.897のUF1を達成する。
SAMMでは82.47精度と0.665UF1に達し、クラス間でよりバランスの取れた認識を示す。
MMEWでは76.00精度を実現し、さらに一般化能力を確認している。
その結果,MERの性能向上には入力とアーキテクチャの両方が重要な役割を担っていることがわかった。
さらに、感情コンピューティング、嘘検出、人間とコンピュータの相互作用の分野におけるさらなる研究と実践の基盤を提供する。
関連論文リスト
- FMANet: A Novel Dual-Phase Optical Flow Approach with Fusion Motion Attention Network for Robust Micro-expression Recognition [0.0]
微妙な顔の動きを捉えるのが難しいため、微小な表情認識は困難である。
本稿では,マイクロ圧縮相とマイクロ圧縮相の運動力学を統合記述子に統合した総合的な動き表現を提案する。
次に、二相解析と等級変調を学習可能なモジュールに内部化する、新しいエンドツーエンドニューラルネットワークアーキテクチャであるFMANetを提案する。
論文 参考訳(メタデータ) (2025-10-09T05:36:40Z) - Micro-Expression Recognition via Fine-Grained Dynamic Perception [64.26947471761916]
顔マイクロ圧縮認識(MER)のためのFDPフレームワークを開発した。
時系列の原フレーム列のフレームレベルの特徴をランク付けし、ランク付けプロセスはMEの出現と動きの両方の動的情報をエンコードする。
提案手法は最先端のMER法よりも優れており,動的画像構築に有効である。
論文 参考訳(メタデータ) (2025-09-07T11:13:50Z) - ME-TST+: Micro-expression Analysis via Temporal State Transition with ROI Relationship Awareness [12.584801819076425]
マイクロ表現(ME)は、個人固有の感情、嗜好、傾向の重要な指標とみなされる。
従来のディープラーニングアプローチでは、スライディングウインドウ分類ネットワークが一般的であった。
本稿では,ME-TSTとME-TST+という2つの状態空間モデルに基づくアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-08-11T15:28:32Z) - Static for Dynamic: Towards a Deeper Understanding of Dynamic Facial Expressions Using Static Expression Data [83.48170683672427]
本稿では,DFERの補完リソースとしてSFERデータを統合した統合型デュアルモーダル学習フレームワークを提案する。
S4Dは、共有トランスフォーマー(ViT)エンコーダデコーダアーキテクチャを用いて、顔画像とビデオに対して、デュアルモーダルな自己教師付き事前トレーニングを採用する。
実験により、S4DはDFERをより深く理解し、新しい最先端のパフォーマンスを設定できることが示された。
論文 参考訳(メタデータ) (2024-09-10T01:57:57Z) - Three-Stream Temporal-Shift Attention Network Based on Self-Knowledge Distillation for Micro-Expression Recognition [21.675660978188617]
ミクロな表現認識は、犯罪分析や心理療法など、多くの分野で重要である。
本稿では,自己知識蒸留に基づく3ストリーム時間シフトアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-25T13:22:22Z) - From Static to Dynamic: Adapting Landmark-Aware Image Models for Facial Expression Recognition in Videos [88.08209394979178]
野生における動的表情認識(DFER)は、データ制限によって依然として妨げられている。
抽出された顔のランドマーク認識機能に暗黙的に符号化された既存のSFER知識と動的情報を活用する新しい静的・動的モデル(S2D)を提案する。
論文 参考訳(メタデータ) (2023-12-09T03:16:09Z) - RED-PSM: Regularization by Denoising of Factorized Low Rank Models for Dynamic Imaging [6.527016551650136]
ダイナミックトモグラフィーでは、1つのビュー角で1つのプロジェクションのみを同時に利用することができる。
本稿では,この課題に対処する2つの強力な手法を組み合わせたRED-PSMを提案する。
論文 参考訳(メタデータ) (2023-04-07T05:29:59Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis [84.7287684402508]
マルチモーダル融合に対する最近のディープラーニングアプローチは、ハイレベルおよびミドルレベルの潜在モダリティ表現のボトムアップ融合に依存している。
人間の知覚モデルでは、高レベルの表現が感覚入力の知覚に影響を及ぼすトップダウン融合の重要性を強調している。
本稿では,ネットワークトレーニング中のフォワードパスにおけるフィードバック機構を用いて,トップダウンのクロスモーダルインタラクションをキャプチャするニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T17:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。