論文の概要: Pose-aware Adversarial Domain Adaptation for Personalized Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2007.05932v1
- Date: Sun, 12 Jul 2020 07:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:57:19.619740
- Title: Pose-aware Adversarial Domain Adaptation for Personalized Facial
Expression Recognition
- Title(参考訳): パーソナライズされた表情認識のためのポーズ認識逆ドメイン適応
- Authors: Guang Liang, Shangfei Wang, Can Wang
- Abstract要約: 本手法は,敵対的領域適応学習,反対的特徴学習,再構成学習の3つの学習戦略から構成される。
4つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 31.522078399310466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current facial expression recognition methods fail to simultaneously cope
with pose and subject variations.
In this paper, we propose a novel unsupervised adversarial domain adaptation
method which can alleviate both variations at the same time. Specially, our
method consists of three learning strategies: adversarial domain adaptation
learning, cross adversarial feature learning, and reconstruction learning. The
first aims to learn pose- and expression-related feature representations in the
source domain and adapt both feature distributions to that of the target domain
by imposing adversarial learning. By using personalized adversarial domain
adaptation, this learning strategy can alleviate subject variations and exploit
information from the source domain to help learning in the target domain.
The second serves to perform feature disentanglement between pose- and
expression-related feature representations by impulsing pose-related feature
representations expression-undistinguished and the expression-related feature
representations pose-undistinguished.
The last can further boost feature learning by applying face image
reconstructions so that the learned expression-related feature representations
are more pose- and identity-robust.
Experimental results on four benchmark datasets demonstrate the effectiveness
of the proposed method.
- Abstract(参考訳): 現在の表情認識法はポーズと被写体の変化を同時に扱うことができない。
本稿では,両変分を同時に緩和できる非教師付き対向領域適応法を提案する。
特に,本手法は,敵領域適応学習,敵横断型特徴学習,再構築学習の3つの学習戦略からなる。
1つ目は、ソース領域におけるポーズと表現に関連する特徴表現を学習し、両特徴分布を相手領域に適応させることである。
パーソナライズされた敵ドメイン適応を用いることで、この学習戦略は対象のバリエーションを緩和し、ソースドメインからの情報を活用して、対象ドメインでの学習を支援する。
第2は、ポーズ関連特徴表現と表現関連特徴表現とを強制して、ポーズ関連特徴表現と表現関連特徴表現とを両立させる。
最後に、顔画像再構成を適用して、学習した表現に関連した特徴表現がよりポーズとアイデンティティを損なうように特徴学習をさらに強化することができる。
4つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
関連論文リスト
- Pixel-Level Domain Adaptation: A New Perspective for Enhancing Weakly Supervised Semantic Segmentation [13.948425538725138]
画素単位の領域不変性を学習する際のモデルとして,Pixel-Level Domain Adaptation (PLDA)法を提案する。
我々は,幅広い環境下でのアプローチの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2024-08-04T14:14:54Z) - Domain Adaptive Imitation Learning with Visual Observation [23.109405205238318]
本研究では,ドメイン適応型模擬学習を視覚的観察とともに検討し,エージェントが情報源領域における専門家のデモンストレーションを観察することでタスクを実行することを学習する。
本稿では,学習者の学習に使用できる入力観察から,ドメインに依存しない行動特徴を抽出する新しいフレームワークを提案する。
実験の結果,本手法は,領域シフトによる視覚的観察から得られた模倣学習のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T12:48:41Z) - VILLS -- Video-Image Learning to Learn Semantics for Person Re-Identification [51.89551385538251]
VILLS (Video-Image Learning to Learn Semantics) は画像やビデオから空間的特徴と時間的特徴を共同で学習する自己教師型手法である。
VILLSはまず、意味的一貫性と頑健な空間的特徴を適応的に抽出する局所意味抽出モジュールを設計する。
そして、VILLSは、一貫した特徴空間における画像とビデオのモダリティを表現するために、統合された特徴学習および適応モジュールを設計する。
論文 参考訳(メタデータ) (2023-11-27T19:30:30Z) - Improving Generalization of Image Captioning with Unsupervised Prompt
Learning [63.26197177542422]
画像キャプションの一般化(GeneIC)は、アノテーション付きデータを必要とせずに、ターゲットドメインのドメイン固有のプロンプトベクトルを学習する。
GeneICは、学習済みのContrastive Language-Image Pre-Training (CLIP)モデルと視覚的および言語的モダリティを一致させる。
論文 参考訳(メタデータ) (2023-08-05T12:27:01Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Disentanglement by Cyclic Reconstruction [0.0]
教師付き学習では、訓練に使用されるデータセットに固有の情報が、手元にあるタスクとは無関係に、抽出された表現に符号化され続けることができる。
本稿では,その情報をタスク関連表現とその補完的文脈表現に分割することを提案する。
次に、この手法を教師なし領域適応問題に適用し、ソースとターゲットドメインの両方で実行可能なモデルを訓練する。
論文 参考訳(メタデータ) (2021-12-24T07:47:59Z) - Adversarial Graph Representation Adaptation for Cross-Domain Facial
Expression Recognition [86.25926461936412]
本稿では,グラフ表現の伝播と逆学習を両立させる新しいAdrialversa Graph Representation Adaptation (AGRA) フレームワークを提案する。
提案するAGRAフレームワークは,従来の最先端手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-08-03T13:27:24Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z) - Two-Level Adversarial Visual-Semantic Coupling for Generalized Zero-shot
Learning [21.89909688056478]
トレーニング中に推論ネットワークを用いて生成ネットワークを増強する2段階のジョイントアイデアを提案する。
これにより、ビジュアルドメインとセマンティックドメイン間の効果的な知識伝達のための強力な相互モーダル相互作用が提供される。
提案手法は,4つのベンチマークデータセットに対して,いくつかの最先端手法に対して評価し,その性能を示す。
論文 参考訳(メタデータ) (2020-07-15T15:34:09Z) - Dual-Attention GAN for Large-Pose Face Frontalization [59.689836951934694]
本稿では,フォトリアリスティック顔フロンダル化のためのDA-GAN(Dual-Attention Generative Adversarial Network)を提案する。
具体的には、ローカル機能と長距離依存関係を統合するために、自己アテンションベースのジェネレータが導入された。
顔領域の局所的特徴を強調するために,新しい顔認識に基づく識別器を適用した。
論文 参考訳(メタデータ) (2020-02-17T20:00:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。