論文の概要: Decoupled Doubly Contrastive Learning for Cross Domain Facial Action Unit Detection
- arxiv url: http://arxiv.org/abs/2503.08977v1
- Date: Wed, 12 Mar 2025 00:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:25.942035
- Title: Decoupled Doubly Contrastive Learning for Cross Domain Facial Action Unit Detection
- Title(参考訳): クロスドメイン顔行動単位検出のための二重コントラスト学習
- Authors: Yong Li, Menglin Liu, Zhen Cui, Yi Ding, Yuan Zong, Wenming Zheng, Shiguang Shan, Cuntai Guan,
- Abstract要約: そこで本稿では,AU 表現を2つに分離した2つのコントラスト適応 (D$2$CA) 手法を提案する。
D$2$CAは、合成顔の質を評価することにより、AUとドメイン因子を乱すように訓練される。
最先端のクロスドメインAU検出アプローチよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 66.80386429324196
- License:
- Abstract: Despite the impressive performance of current vision-based facial action unit (AU) detection approaches, they are heavily susceptible to the variations across different domains and the cross-domain AU detection methods are under-explored. In response to this challenge, we propose a decoupled doubly contrastive adaptation (D$^2$CA) approach to learn a purified AU representation that is semantically aligned for the source and target domains. Specifically, we decompose latent representations into AU-relevant and AU-irrelevant components, with the objective of exclusively facilitating adaptation within the AU-relevant subspace. To achieve the feature decoupling, D$^2$CA is trained to disentangle AU and domain factors by assessing the quality of synthesized faces in cross-domain scenarios when either AU or domain attributes are modified. To further strengthen feature decoupling, particularly in scenarios with limited AU data diversity, D$^2$CA employs a doubly contrastive learning mechanism comprising image and feature-level contrastive learning to ensure the quality of synthesized faces and mitigate feature ambiguities. This new framework leads to an automatically learned, dedicated separation of AU-relevant and domain-relevant factors, and it enables intuitive, scale-specific control of the cross-domain facial image synthesis. Extensive experiments demonstrate the efficacy of D$^2$CA in successfully decoupling AU and domain factors, yielding visually pleasing cross-domain synthesized facial images. Meanwhile, D$^2$CA consistently outperforms state-of-the-art cross-domain AU detection approaches, achieving an average F1 score improvement of 6\%-14\% across various cross-domain scenarios.
- Abstract(参考訳): 現在の視覚ベースの顔動作ユニット(AU)検出手法の目覚ましい性能にもかかわらず、異なるドメイン間の差異に非常に敏感であり、クロスドメインのAU検出手法は未探索である。
この課題に対応するために、ソースドメインとターゲットドメインにセマンティックに整合した精製されたAU表現を学習するために、分離された二重コントラスト適応(D$^2$CA)アプローチを提案する。
具体的には、潜在表現をAU関連成分とAU関連成分に分解し、AU関連部分空間への適応を排他的に促進することを目的とする。
この特徴分離を実現するために、D$^2$CAは、AUまたはドメイン属性が修正された場合に、クロスドメインシナリオにおける合成顔の品質を評価することにより、AUとドメイン要素を分離するように訓練される。
D$2$CAは、特にAUデータの多様性に制限のあるシナリオにおいて、画像と特徴レベルのコントラスト学習を兼ね備えた二重のコントラスト学習機構を用いて、合成顔の品質を確保し、特徴のあいまいさを軽減する。
この新しいフレームワークは、AU関連因子とドメイン関連因子を自動的に分離し、ドメイン間顔画像合成の直感的でスケール特異的な制御を可能にする。
広汎な実験により、AUとドメイン因子の疎結合に成功し、クロスドメイン合成顔画像の視覚的満足度を高めるD$2$CAの有効性が示された。
一方、D$^2$CAは、最先端のクロスドメインAU検出アプローチを一貫して上回り、さまざまなクロスドメインシナリオで平均F1スコアが6\%-14\%向上する。
関連論文リスト
- Cross-Domain Few-Shot Object Detection via Enhanced Open-Set Object Detector [72.05791402494727]
本稿では,CD-FSODを用いたクロスドメイン小ショット検出法について検討する。
最小限のラベル付き例で、新しいドメインのための正確なオブジェクト検出器を開発することを目的としている。
論文 参考訳(メタデータ) (2024-02-05T15:25:32Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - AU-Guided Unsupervised Domain Adaptive Facial Expression Recognition [21.126514122636966]
本稿では、異なるFERデータセット間のアノテーションバイアスを軽減するためのAUガイド付き非監視ドメイン適応FERフレームワークを提案する。
ドメイン不変のコンパクトな機能を実現するために、AUを用いた両ドメインのアンカー正負の三つ子をランダムに収集するAUガイドトリプルトトレーニングを利用します。
論文 参考訳(メタデータ) (2020-12-18T07:17:30Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。