論文の概要: MuSACo: Multimodal Subject-Specific Selection and Adaptation for Expression Recognition with Co-Training
- arxiv url: http://arxiv.org/abs/2508.12522v1
- Date: Sun, 17 Aug 2025 23:08:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.83929
- Title: MuSACo: Multimodal Subject-Specific Selection and Adaptation for Expression Recognition with Co-Training
- Title(参考訳): MuSACo:マルチモーダルな主題選択と共同学習による表現認識への適応
- Authors: Muhammad Osama Zeeshan, Natacha Gillet, Alessandro Lameiras Koerich, Marco Pedersoli, Francois Bremond, Eric Granger,
- Abstract要約: パーソナライズされた表現認識のためのマルチモーダルな主題固有の選択と適応法であるMuSACoを紹介する。
これにより、MuSACoは、ストレスや痛みに対する患者固有の評価など、デジタルヘルスにおける感情的コンピューティングアプリケーションに関係している。
BioVid と StressID というマルチモーダル ER データセットに対する実験結果から,MuSACo が UDA (blending) および最先端 MSDA 法より優れていることが示された。
- 参考スコア(独自算出の注目度): 52.99217736494484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized expression recognition (ER) involves adapting a machine learning model to subject-specific data for improved recognition of expressions with considerable interpersonal variability. Subject-specific ER can benefit significantly from multi-source domain adaptation (MSDA) methods, where each domain corresponds to a specific subject, to improve model accuracy and robustness. Despite promising results, state-of-the-art MSDA approaches often overlook multimodal information or blend sources into a single domain, limiting subject diversity and failing to explicitly capture unique subject-specific characteristics. To address these limitations, we introduce MuSACo, a multi-modal subject-specific selection and adaptation method for ER based on co-training. It leverages complementary information across multiple modalities and multiple source domains for subject-specific adaptation. This makes MuSACo particularly relevant for affective computing applications in digital health, such as patient-specific assessment for stress or pain, where subject-level nuances are crucial. MuSACo selects source subjects relevant to the target and generates pseudo-labels using the dominant modality for class-aware learning, in conjunction with a class-agnostic loss to learn from less confident target samples. Finally, source features from each modality are aligned, while only confident target features are combined. Our experimental results on challenging multimodal ER datasets: BioVid and StressID, show that MuSACo can outperform UDA (blending) and state-of-the-art MSDA methods.
- Abstract(参考訳): パーソナライズされた表現認識(ER)は、個人間の多様性がかなり高い表現の認識を改善するために、機械学習モデルを主観的なデータに適応させる。
対象固有のERは、モデル精度と堅牢性を改善するために、各ドメインが特定の対象に対応するマルチソースドメイン適応(MSDA)法から大きな恩恵を受けることができる。
有望な結果にもかかわらず、最先端のMSDAアプローチは、しばしばマルチモーダル情報やブレンドソースを単一のドメインに見落とし、主題の多様性を制限し、独特な主題固有の特徴を明示的に捉えることができない。
これらの制約に対処するため,共同学習に基づくERのためのマルチモーダルな主題別選択と適応手法であるMuSACoを導入する。
複数のモダリティと複数のソースドメインにまたがる相補的な情報を活用して、主題固有の適応を行う。
このことは、被写体レベルのニュアンスが不可欠である患者固有のストレスや痛みの評価など、デジタルヘルスにおける感情的コンピューティングアプリケーションに特に関係している。
MuSACoは、ターゲットに関連するソースを選定し、クラス認識学習における支配的なモダリティを用いて擬似ラベルを生成し、クラス非依存の損失と組み合わせて、信頼性の低いターゲットサンプルから学習する。
最後に、各モダリティのソース特徴が整列され、確実なターゲット特徴のみが結合される。
BioVid と StressID というマルチモーダル ER データセットに対する実験結果から,MuSACo が UDA (blending) および最先端 MSDA 法より優れていることが示された。
関連論文リスト
- Progressive Multi-Source Domain Adaptation for Personalized Facial Expression Recognition [51.61979855488214]
パーソナライズされた表情認識(FER)では、ラベル付きソースとラベルなしターゲットドメインのサンプルを使用して機械学習モデルを適用する。
本稿では,対象者との類似性に基づいて,段階的なMSDA手法を提案する。
実験の結果,痛覚データセットに対する提案手法の有効性が示された: Biovid と UNBC-McMaster。
論文 参考訳(メタデータ) (2025-04-05T19:14:51Z) - Subject-Based Domain Adaptation for Facial Expression Recognition [51.10374151948157]
ディープラーニングモデルを特定の対象個人に適用することは、難しい表情認識タスクである。
本稿では、FERにおける主観的ドメイン適応のための新しいMSDA手法を提案する。
複数の情報源からの情報を効率的に利用して、ディープFERモデルを単一のターゲット個人に適応させる。
論文 参考訳(メタデータ) (2023-12-09T18:40:37Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - MS-MDA: Multisource Marginal Distribution Adaptation for Cross-subject
and Cross-session EEG Emotion Recognition [14.065932956210336]
脳波感情認識のためのマルチソース境界分布適応法(MS-MDA)を提案する。
まず、異なるEEGデータが同じ低レベルな特徴を共有していると仮定し、1対1のドメイン適応を採用し、ドメイン固有の特徴を抽出するために独立したブランチを構築します。
実験の結果,MS-MDAはクロスセッションおよびクロスオブジェクト転送シナリオにおいて,比較手法と最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-07-16T07:19:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。