論文の概要: Disentangled Source-Free Personalization for Facial Expression Recognition with Neutral Target Data
- arxiv url: http://arxiv.org/abs/2503.20771v1
- Date: Wed, 26 Mar 2025 17:53:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:20:08.445496
- Title: Disentangled Source-Free Personalization for Facial Expression Recognition with Neutral Target Data
- Title(参考訳): ニュートラルターゲットデータを用いた顔表情認識のためのアンタングルフリーパーソナライゼーション
- Authors: Masoumeh Sharafi, Emma Ollivier, Muhammad Osama Zeeshan, Soufiane Belharbi, Marco Pedersoli, Alessandro Lameiras Koerich, Simon Bacon, Eric~Granger,
- Abstract要約: 本稿では,DSFDA(Disentangled Source-Free Domain Adaptation)法を提案する。
提案手法は,非ニュートラルなターゲットデータを生成しながら,表現と同一性に関連する特徴を解き放つことを学習する。
- 参考スコア(独自算出の注目度): 49.25159192831934
- License:
- Abstract: Facial Expression Recognition (FER) from videos is a crucial task in various application areas, such as human-computer interaction and health monitoring (e.g., pain, depression, fatigue, and stress). Beyond the challenges of recognizing subtle emotional or health states, the effectiveness of deep FER models is often hindered by the considerable variability of expressions among subjects. Source-free domain adaptation (SFDA) methods are employed to adapt a pre-trained source model using only unlabeled target domain data, thereby avoiding data privacy and storage issues. Typically, SFDA methods adapt to a target domain dataset corresponding to an entire population and assume it includes data from all recognition classes. However, collecting such comprehensive target data can be difficult or even impossible for FER in healthcare applications. In many real-world scenarios, it may be feasible to collect a short neutral control video (displaying only neutral expressions) for target subjects before deployment. These videos can be used to adapt a model to better handle the variability of expressions among subjects. This paper introduces the Disentangled Source-Free Domain Adaptation (DSFDA) method to address the SFDA challenge posed by missing target expression data. DSFDA leverages data from a neutral target control video for end-to-end generation and adaptation of target data with missing non-neutral data. Our method learns to disentangle features related to expressions and identity while generating the missing non-neutral target data, thereby enhancing model accuracy. Additionally, our self-supervision strategy improves model adaptation by reconstructing target images that maintain the same identity and source expression.
- Abstract(参考訳): ビデオからの表情認識(FER)は、人間とコンピュータの相互作用や健康モニタリング(例えば、痛み、抑うつ、疲労、ストレス)など、様々な応用分野において重要なタスクである。
微妙な感情や健康状態を認識することの難しさ以外にも、ディープFERモデルの有効性は、被験者間の表現のかなりのばらつきによって妨げられることが多い。
未ラベルのターゲットドメインデータのみを使用して事前訓練されたソースモデルに適応するために、ソースフリードメイン適応(SFDA)メソッドが使用される。
通常、SFDAメソッドは、人口全体に対応するターゲットドメインデータセットに適応し、すべての認識クラスからのデータを含むと仮定する。
しかし、このような包括的ターゲットデータの収集は、医療アプリケーションにおけるFERが困難である、あるいは不可能である可能性がある。
多くの現実世界のシナリオでは、配備前にターゲット対象に対して短い中立性制御ビデオ(中性表現のみを表す)を収集することは可能かもしれない。
これらのビデオは、被験者間の表現の多様性をよりよく扱うために、モデルに適応するために使用することができる。
本稿では,DSFDA(Disentangled Source-Free Domain Adaptation)法を提案する。
DSFDAは、中立的なターゲット制御ビデオからのデータを活用して、非中立データでターゲットデータのエンドツーエンド生成と適応を行う。
提案手法では,非ニュートラルなターゲットデータを生成しながら,表現と同一性に関連する特徴を抽出し,モデル精度を向上させる。
さらに、同一のアイデンティティとソース表現を保持するターゲットイメージを再構成することで、モデル適応性を向上させる。
関連論文リスト
- Bridge then Begin Anew: Generating Target-relevant Intermediate Model for Source-free Visual Emotion Adaptation [22.638915084704344]
視覚的感情認識(VER)は、人間の異なる視覚刺激に対する感情反応を理解することを目的としている。
ドメイン適応は、ラベル付きソースデータでトレーニングされたモデルをラベルなしターゲットデータに適応させることによって、代替ソリューションを提供する。
プライバシー上の懸念から、ソースの感情的なデータはアクセスできない可能性がある。
本稿では、ドメインブリッジモデル生成(DMG)とターゲットモデル適応(TMA)の2つのステップからなる新しいフレームワークであるBridge then Begin Anew(BBA)を提案する。
論文 参考訳(メタデータ) (2024-12-18T07:51:35Z) - Subject-Based Domain Adaptation for Facial Expression Recognition [51.10374151948157]
ディープラーニングモデルを特定の対象個人に適用することは、難しい表情認識タスクである。
本稿では、FERにおける主観的ドメイン適応のための新しいMSDA手法を提案する。
複数の情報源からの情報を効率的に利用して、ディープFERモデルを単一のターゲット個人に適応させる。
論文 参考訳(メタデータ) (2023-12-09T18:40:37Z) - SFHarmony: Source Free Domain Adaptation for Distributed Neuroimaging
Analysis [2.371982686172067]
異なるMRIスキャナーは、異なる特徴を持つ画像を生成し、調和問題として知られる領域シフトをもたらす」。
本研究では、これらの障壁を克服するために、SFHarmony法(Unsupervised Source-Free Domain Adaptation, SFDA)を提案する。
我々の手法は、さまざまな現実的なデータシナリオにおいて、既存のSFDAアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-03-28T13:35:10Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。