論文の概要: Pose-aware Adversarial Domain Adaptation for Personalized Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2007.05932v1
- Date: Sun, 12 Jul 2020 07:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:57:19.619740
- Title: Pose-aware Adversarial Domain Adaptation for Personalized Facial
Expression Recognition
- Title(参考訳): パーソナライズされた表情認識のためのポーズ認識逆ドメイン適応
- Authors: Guang Liang, Shangfei Wang, Can Wang
- Abstract要約: 本手法は,敵対的領域適応学習,反対的特徴学習,再構成学習の3つの学習戦略から構成される。
4つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 31.522078399310466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current facial expression recognition methods fail to simultaneously cope
with pose and subject variations.
In this paper, we propose a novel unsupervised adversarial domain adaptation
method which can alleviate both variations at the same time. Specially, our
method consists of three learning strategies: adversarial domain adaptation
learning, cross adversarial feature learning, and reconstruction learning. The
first aims to learn pose- and expression-related feature representations in the
source domain and adapt both feature distributions to that of the target domain
by imposing adversarial learning. By using personalized adversarial domain
adaptation, this learning strategy can alleviate subject variations and exploit
information from the source domain to help learning in the target domain.
The second serves to perform feature disentanglement between pose- and
expression-related feature representations by impulsing pose-related feature
representations expression-undistinguished and the expression-related feature
representations pose-undistinguished.
The last can further boost feature learning by applying face image
reconstructions so that the learned expression-related feature representations
are more pose- and identity-robust.
Experimental results on four benchmark datasets demonstrate the effectiveness
of the proposed method.
- Abstract(参考訳): 現在の表情認識法はポーズと被写体の変化を同時に扱うことができない。
本稿では,両変分を同時に緩和できる非教師付き対向領域適応法を提案する。
特に,本手法は,敵領域適応学習,敵横断型特徴学習,再構築学習の3つの学習戦略からなる。
1つ目は、ソース領域におけるポーズと表現に関連する特徴表現を学習し、両特徴分布を相手領域に適応させることである。
パーソナライズされた敵ドメイン適応を用いることで、この学習戦略は対象のバリエーションを緩和し、ソースドメインからの情報を活用して、対象ドメインでの学習を支援する。
第2は、ポーズ関連特徴表現と表現関連特徴表現とを強制して、ポーズ関連特徴表現と表現関連特徴表現とを両立させる。
最後に、顔画像再構成を適用して、学習した表現に関連した特徴表現がよりポーズとアイデンティティを損なうように特徴学習をさらに強化することができる。
4つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
関連論文リスト
- CILP-FGDI: Exploiting Vision-Language Model for Generalizable Person Re-Identification [42.429118831928214]
CLIP(Contrastive Language- Image Pretraining)は,大規模画像テキストペア上で事前訓練された視覚言語モデルである。
CLIPのタスクへの適応は、識別能力を高めるためによりきめ細かい機能を学ぶことと、モデルの一般化能力を改善するためによりドメイン不変の機能を学ぶ、という2つの大きな課題を示す。
論文 参考訳(メタデータ) (2025-01-27T14:08:25Z) - Equivariant Representation Learning for Augmentation-based Self-Supervised Learning via Image Reconstruction [3.7003845808210594]
本稿では,拡張型自己教師型学習アルゴリズムにおいて,画像再構成タスクを補助的コンポーネントとして統合することを提案する。
提案手法は,2つの拡張ビューから学習した特徴をブレンドし,そのうちの1つを再構築するクロスアテンション機構を実装した。
結果は、標準強化に基づく自己教師あり学習法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-12-04T13:47:37Z) - Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Improving Generalization of Image Captioning with Unsupervised Prompt
Learning [63.26197177542422]
画像キャプションの一般化(GeneIC)は、アノテーション付きデータを必要とせずに、ターゲットドメインのドメイン固有のプロンプトベクトルを学習する。
GeneICは、学習済みのContrastive Language-Image Pre-Training (CLIP)モデルと視覚的および言語的モダリティを一致させる。
論文 参考訳(メタデータ) (2023-08-05T12:27:01Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Disentanglement by Cyclic Reconstruction [0.0]
教師付き学習では、訓練に使用されるデータセットに固有の情報が、手元にあるタスクとは無関係に、抽出された表現に符号化され続けることができる。
本稿では,その情報をタスク関連表現とその補完的文脈表現に分割することを提案する。
次に、この手法を教師なし領域適応問題に適用し、ソースとターゲットドメインの両方で実行可能なモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-24T07:47:59Z) - Adversarial Graph Representation Adaptation for Cross-Domain Facial
Expression Recognition [86.25926461936412]
本稿では,グラフ表現の伝播と逆学習を両立させる新しいAdrialversa Graph Representation Adaptation (AGRA) フレームワークを提案する。
提案するAGRAフレームワークは,従来の最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-08-03T13:27:24Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。