論文の概要: FED-PsyAU: Privacy-Preserving Micro-Expression Recognition via Psychological AU Coordination and Dynamic Facial Motion Modeling
- arxiv url: http://arxiv.org/abs/2507.20557v1
- Date: Mon, 28 Jul 2025 06:42:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.888341
- Title: FED-PsyAU: Privacy-Preserving Micro-Expression Recognition via Psychological AU Coordination and Dynamic Facial Motion Modeling
- Title(参考訳): FED-PsyAU: 心理的AUコーディネートと動的顔面運動モデリングによるプライバシー保護型マイクロ圧縮認識
- Authors: Jingting Li, Yu Qian, Lin Zhao, Su-Jing Wang,
- Abstract要約: マイクロ表現(ME)は短く、低強度で、しばしば局所的な表情である。
彼らは、犯罪の尋問や心理学的カウンセリングのような文脈で、個人が隠そうとする真の感情を明らかにするかもしれない。
ME認識(MER)は、小さなサンプルサイズや微妙な特徴など、効率的なモデリングを妨げる課題に直面している。
- 参考スコア(独自算出の注目度): 14.30453182275959
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Micro-expressions (MEs) are brief, low-intensity, often localized facial expressions. They could reveal genuine emotions individuals may attempt to conceal, valuable in contexts like criminal interrogation and psychological counseling. However, ME recognition (MER) faces challenges, such as small sample sizes and subtle features, which hinder efficient modeling. Additionally, real-world applications encounter ME data privacy issues, leaving the task of enhancing recognition across settings under privacy constraints largely unexplored. To address these issues, we propose a FED-PsyAU research framework. We begin with a psychological study on the coordination of upper and lower facial action units (AUs) to provide structured prior knowledge of facial muscle dynamics. We then develop a DPK-GAT network that combines these psychological priors with statistical AU patterns, enabling hierarchical learning of facial motion features from regional to global levels, effectively enhancing MER performance. Additionally, our federated learning framework advances MER capabilities across multiple clients without data sharing, preserving privacy and alleviating the limited-sample issue for each client. Extensive experiments on commonly-used ME databases demonstrate the effectiveness of our approach.
- Abstract(参考訳): マイクロ表現(ME)は短く、低強度で、しばしば局所的な表情である。
彼らは、犯罪の尋問や心理学的カウンセリングのような文脈で、個人が隠そうとする真の感情を明らかにするかもしれない。
しかし、ME認識(MER)は、小さなサンプルサイズや微妙な特徴など、効率的なモデリングを妨げる課題に直面している。
さらに、現実世界のアプリケーションはMEデータプライバシの問題に遭遇し、プライバシ制約下での認識の強化というタスクは、ほとんど未解決のままである。
これらの課題に対処するために、FED-PsyAU研究フレームワークを提案する。
本研究は,上下顎顔面運動単位(AU)の協調に関する心理的研究から始まり,顔面筋動態の構造化された事前知識を提供する。
次に,これらの心理的先行と統計的AUパターンを組み合わせたDPK-GATネットワークを開発し,地域レベルからグローバルレベルまでの顔の動き特徴の階層的学習を可能にし,MER性能を効果的に向上させる。
さらに、当社のフェデレーション学習フレームワークは、データ共有なしで複数のクライアントにまたがるMER機能を向上し、プライバシを保護し、各クライアントの限定サンプル問題を緩和します。
一般に使われているMEデータベースに関する大規模な実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- FSFM: A Generalizable Face Security Foundation Model via Self-Supervised Facial Representation Learning [27.34249750803211]
実顔画像の基本表現を学習するための自己教師付き事前学習フレームワークを提案する。
我々のモデルは、教師付き事前学習、視覚的および顔的自己指導型学習技術よりも優れており、タスク特化SOTA法よりも優れています。
論文 参考訳(メタデータ) (2024-12-16T17:58:45Z) - EMO-LLaMA: Enhancing Facial Emotion Understanding with Instruction Tuning [27.790079451103065]
EMO-LLaMAと呼ばれる新しいMLLMを提案する。これは、事前訓練された顔分析ネットワークからの顔の事前情報を組み込んで、人間の顔情報を強化する。
EMO-LLaMAは、静的および動的FERデータセット間でSOTA互換または競合的な結果を達成する。
論文 参考訳(メタデータ) (2024-08-21T08:28:40Z) - Facial Affective Behavior Analysis with Instruction Tuning [58.332959295770614]
顔の感情行動分析(FABA)は、画像から人間の精神状態を理解するために重要である。
従来のアプローチでは、主に個別の感情カテゴリーを識別するためのモデルをデプロイし、複雑な顔の振る舞いに対する細かい粒度と推論能力が欠如している。
本稿では,2つのFABAタスクに対する指示追従データセット,感情と行動の単位認識,および認識能力と生成能力の両方を考慮したベンチマークFABA-Benchを紹介する。
また,顔構造知識と低ランク適応モジュールを事前学習MLLMに導入した。
論文 参考訳(メタデータ) (2024-04-07T19:23:28Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Towards Privacy-Preserving Affect Recognition: A Two-Level Deep Learning
Architecture [2.9392867898439006]
本研究では,感情認識のための2段階のディープラーニングアーキテクチャを提案する。
アーキテクチャは、特徴間の時間的関係をキャプチャするリカレントニューラルネットワークで構成されている。
論文 参考訳(メタデータ) (2021-11-14T13:52:57Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。