論文の概要: MPT: Motion Prompt Tuning for Micro-Expression Recognition
- arxiv url: http://arxiv.org/abs/2508.09446v1
- Date: Wed, 13 Aug 2025 02:57:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.732304
- Title: MPT: Motion Prompt Tuning for Micro-Expression Recognition
- Title(参考訳): MPT:マイクロ圧縮認識のためのモーションプロンプトチューニング
- Authors: Jiateng Liu, Hengcan Shi, Feng Chen, Zhiwen Shao, Yaonan Wang, Jianfei Cai, Wenming Zheng,
- Abstract要約: 本稿では,MERのための事前学習モデルに適用するための新しいアプローチとして,MPT(Motion Prompt Tuning)を提案する。
特に、動きの倍率化やガウストークン化などの動きのプロンプト生成を導入し、微妙な動きをLMのプロンプトとして抽出する。
広範に使われている3つのMERデータセットに対して行われた大規模な実験により、提案したMPTが最先端のアプローチを一貫して超越していることが証明された。
- 参考スコア(独自算出の注目度): 47.62949098749473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expression recognition (MER) is crucial in the affective computing field due to its wide application in medical diagnosis, lie detection, and criminal investigation. Despite its significance, obtaining micro-expression (ME) annotations is challenging due to the expertise required from psychological professionals. Consequently, ME datasets often suffer from a scarcity of training samples, severely constraining the learning of MER models. While current large pre-training models (LMs) offer general and discriminative representations, their direct application to MER is hindered by an inability to capture transitory and subtle facial movements-essential elements for effective MER. This paper introduces Motion Prompt Tuning (MPT) as a novel approach to adapting LMs for MER, representing a pioneering method for subtle motion prompt tuning. Particularly, we introduce motion prompt generation, including motion magnification and Gaussian tokenization, to extract subtle motions as prompts for LMs. Additionally, a group adapter is carefully designed and inserted into the LM to enhance it in the target MER domain, facilitating a more nuanced distinction of ME representation. Furthermore, extensive experiments conducted on three widely used MER datasets demonstrate that our proposed MPT consistently surpasses state-of-the-art approaches and verifies its effectiveness.
- Abstract(参考訳): マイクロ圧縮認識(MER)は、医学的診断、嘘検出、犯罪捜査に広く応用されているため、感情コンピューティング分野において不可欠である。
マイクロ・エクスプレッション(ME)アノテーションの取得は、その重要性にもかかわらず、心理学の専門家が必要とする専門知識のために困難である。
その結果、MEデータセットはトレーニングサンプルの不足に悩まされ、MERモデルの学習を厳しく制限する。
現在の大規模な事前訓練モデル(LM)は、汎用的かつ差別的な表現を提供するが、それらのMERへの直接的適用は、有効なMERのために、過渡的で微妙な顔の動きの要素をキャプチャできないことに妨げられている。
本稿では,MER に LM を適用するための新しいアプローチとして,動きプロンプトチューニング (MPT) を導入し,微妙な動きプロンプトチューニングの先駆的手法を示す。
特に、動き倍率やガウストークン化などの動きプロンプト生成を導入し、微妙な動きをLMのプロンプトとして抽出する。
さらに、グループアダプタを慎重に設計し、LMに挿入してターゲットのMERドメインで拡張し、ME表現のよりニュアンスな区別を容易にする。
さらに、3つの広く使われているMERデータセットに対して行われた広範な実験により、提案したMPTが常に最先端のアプローチを超越し、その有効性を検証することを示した。
関連論文リスト
- AU-LLM: Micro-Expression Action Unit Detection via Enhanced LLM-Based Feature Fusion [26.058143518505805]
本稿では,微妙な強度とデータ不足を伴うマイクロ圧縮データセットにおけるマイクロ圧縮アクションユニット(AU)の検出にLarge Language Modelsを用いた新しいフレームワークであるtextbfAU-LLMを紹介する。
EFPはMulti-Layer Perceptron(MLP)を用いて、特殊な3D-CNNバックボーンからの中間レベル(局所的なテクスチャ)と高レベル(グローバルなセマンティクス)の視覚的特徴を単一の情報密度トークンにインテリジェントに融合する。
論文 参考訳(メタデータ) (2025-07-29T13:01:59Z) - MELLM: Exploring LLM-Powered Micro-Expression Understanding Enhanced by Subtle Motion Perception [47.80768014770871]
マイクロ圧縮大言語モデル(MELLM)を提案する。
MLLMの強い推論能力を備えた微妙な顔の動き知覚戦略を取り入れている。
我々のモデルは、マイクロ圧縮理解(MEU)において優れた堅牢性と一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-11T15:08:23Z) - Sensitivity Meets Sparsity: The Impact of Extremely Sparse Parameter Patterns on Theory-of-Mind of Large Language Models [55.46269953415811]
ToM感受性パラメータを同定し、これらのパラメータの0.001%の摂動がToM性能を著しく低下させることを示す。
我々の結果は、モデルアライメントの強化、バイアス軽減、ヒューマンインタラクション用に設計されたAIシステムの改善に影響を及ぼす。
論文 参考訳(メタデータ) (2025-04-05T17:45:42Z) - AMMSM: Adaptive Motion Magnification and Sparse Mamba for Micro-Expression Recognition [7.084377962617903]
本稿では,Adaptive Motion Magnification and Sparse Mambaというマルチタスク学習フレームワークを提案する。
この枠組みは, 自己監督型微妙な動きの倍率化により, マイクロ表現の精度を高めることを目的としている。
空間選択の倍率係数と空間選択の余剰比を最適化するために進化的探索を用い、さらに性能を向上させるために微調整を行った。
論文 参考訳(メタデータ) (2025-03-31T13:17:43Z) - Three-Stream Temporal-Shift Attention Network Based on Self-Knowledge Distillation for Micro-Expression Recognition [21.675660978188617]
ミクロな表現認識は、犯罪分析や心理療法など、多くの分野で重要である。
本稿では,自己知識蒸留に基づく3ストリーム時間シフトアテンションネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-25T13:22:22Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Feature Representation Learning with Adaptive Displacement Generation
and Transformer Fusion for Micro-Expression Recognition [18.6490971645882]
マイクロ表現は自然に、素早く、微妙な顔の動きであり、偽造も抑制もできない。
適応的変位生成と変圧器融合(FRL-DGT)を用いた特徴表現学習フレームワークを提案する。
ソリッド・エンド・ワン・オブジェクト・アウト (LOSO) 評価実験により, 提案したFRL-DGTの最先端手法に対する優位性を実証した。
論文 参考訳(メタデータ) (2023-04-10T07:03:36Z) - DFME: A New Benchmark for Dynamic Facial Micro-expression Recognition [51.26943074578153]
マイクロ・エクスプレッション(ME)は、人間の真の感情を明らかにする、自然に、微妙で、過渡的な表情である。
MEデータ不足は、先進的なデータ駆動型MERモデルの開発を著しく妨げている。
本稿では,動的自発的なMEデータベースを収集・注釈することで,MEデータ不足を克服する。
論文 参考訳(メタデータ) (2023-01-03T07:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。