論文の概要: A Novel Combined Optical Flow Approach for Comprehensive Micro-Expression Recognition
- arxiv url: http://arxiv.org/abs/2510.15471v1
- Date: Fri, 17 Oct 2025 09:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.559077
- Title: A Novel Combined Optical Flow Approach for Comprehensive Micro-Expression Recognition
- Title(参考訳): 包括的マイクロ圧縮認識のための複合型光フローアプローチ
- Authors: Vu Tram Anh Khuong, Thi Bich Phuong Man, Luu Tu Nguyen, Thanh Ha Le, Thi Duyen Ngo,
- Abstract要約: 本研究では,両位相を統合して特徴表現を強化する複合光学フロー(COF)を提案する。
CASMEIIおよびSAMMデータセットによる実験結果から,COFは単一光フローベース法より優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial micro-expressions are brief, involuntary facial movements that reveal hidden emotions. Most Micro-Expression Recognition (MER) methods that rely on optical flow typically focus on the onset-to-apex phase, neglecting the apex-to-offset phase, which holds key temporal dynamics. This study introduces a Combined Optical Flow (COF), integrating both phases to enhance feature representation. COF provides a more comprehensive motion analysis, improving MER performance. Experimental results on CASMEII and SAMM datasets show that COF outperforms single optical flow-based methods, demonstrating its effectiveness in capturing micro-expression dynamics.
- Abstract(参考訳): 顔の微小な表情は、隠れた感情を示す、短く、不随意的な顔の動きである。
光学フローに依存するほとんどのマイクロ圧縮認識(MER)法は、通常、重要な時間的ダイナミクスを保持する頂点からオフセットまでの位相を無視して、オンセットからアプレックスまでの位相にフォーカスする。
本研究では,両位相を統合して特徴表現を強化する複合光学フロー(COF)を提案する。
COFはより包括的なモーション分析を提供し、MER性能を改善している。
CASMEIIとSAMMデータセットの実験結果から、COFは単一光フローベース法より優れており、マイクロ圧縮ダイナミクスのキャプチャーの有効性が示されている。
関連論文リスト
- Improving Micro-Expression Recognition with Phase-Aware Temporal Augmentation [0.0]
マイクロ・エクスプレッション(ME)は、半秒未満の真の感情を示す、簡潔で不随意的な顔の動きである。
深層学習は、マイクロ圧縮認識(MER)に大きな進歩をもたらしたが、その効果は、注釈付きMEデータセットの不足によって制限されている。
本稿では動的画像に基づく位相認識時間拡張法を提案する。
論文 参考訳(メタデータ) (2025-10-17T09:20:51Z) - DIANet: A Phase-Aware Dual-Stream Network for Micro-Expression Recognition via Dynamic Images [0.0]
マイクロ表現は短く、不随意的な顔の動きであり、通常は半秒未満で、しばしば本物の感情を表わす。
本稿では、位相認識動的画像を利用する新しいデュアルストリームフレームワークDIANetを提案する。
3つのベンチマークMERデータセットを用いて行った実験は、提案手法が従来の単相DIベースのアプローチよりも一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-10-14T07:15:29Z) - FMANet: A Novel Dual-Phase Optical Flow Approach with Fusion Motion Attention Network for Robust Micro-expression Recognition [0.0]
微妙な顔の動きを捉えるのが難しいため、微小な表情認識は困難である。
本稿では,マイクロ圧縮相とマイクロ圧縮相の運動力学を統合記述子に統合した総合的な動き表現を提案する。
次に、二相解析と等級変調を学習可能なモジュールに内部化する、新しいエンドツーエンドニューラルネットワークアーキテクチャであるFMANetを提案する。
論文 参考訳(メタデータ) (2025-10-09T05:36:40Z) - MPT: Motion Prompt Tuning for Micro-Expression Recognition [47.62949098749473]
本稿では,MERのための事前学習モデルに適用するための新しいアプローチとして,MPT(Motion Prompt Tuning)を提案する。
特に、動きの倍率化やガウストークン化などの動きのプロンプト生成を導入し、微妙な動きをLMのプロンプトとして抽出する。
広範に使われている3つのMERデータセットに対して行われた大規模な実験により、提案したMPTが最先端のアプローチを一貫して超越していることが証明された。
論文 参考訳(メタデータ) (2025-08-13T02:57:43Z) - MOL: Joint Estimation of Micro-Expression, Optical Flow, and Landmark via Transformer-Graph-Style Convolution [46.600316142855334]
顔のマイクロ圧縮認識(MER)は、過渡的かつ微妙なマイクロ圧縮(ME)作用のために難しい問題である。
本稿では、トランスフォーマー、グラフ畳み込み、バニラ畳み込みの利点を生かしたエンドツーエンドのマイクロアクション対応ディープラーニングフレームワークを提案する。
我々のフレームワークはCASME II, SAMM, SMICベンチマークにおける最先端のMER手法よりも優れています。
論文 参考訳(メタデータ) (2025-06-17T13:35:06Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Direct phase modulation via optical injection: theoretical study [50.591267188664666]
本研究では,自然発生騒音の影響について検討し,利得非直線性の役割について検討し,温度変動の影響について考察した。
我々は,光注入型位相変調器の試作・運用において,これらの特徴を考慮に入れた実用的な手順を定式化しようと試みている。
論文 参考訳(メタデータ) (2020-11-18T13:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。