論文の概要: 2CET-GAN: Pixel-Level GAN Model for Human Facial Expression Transfer
- arxiv url: http://arxiv.org/abs/2211.11570v1
- Date: Fri, 18 Nov 2022 11:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 21:28:24.914947
- Title: 2CET-GAN: Pixel-Level GAN Model for Human Facial Expression Transfer
- Title(参考訳): 2CET-GAN:人顔表情伝達のための画素レベルGANモデル
- Authors: Xiaohang Hu, Nuha Aldausari, Gelareh Mohammadi
- Abstract要約: 本稿では,感情ラベルを使わずに連続的な表現伝達を学習できる2CET-GAN (Cycles Expression Transfer GAN) という新しいネットワークを提案する。
我々は、ピクセルレベルでのIDから表現表現をアンタングル化するための教師なしアプローチを成功させた最初の一人です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have used GAN to transfer expressions between human faces.
However, existing models have many flaws: relying on emotion labels, lacking
continuous expressions, and failing to capture the expression details. To
address these limitations, we propose a novel CycleGAN- and InfoGAN-based
network called 2 Cycles Expression Transfer GAN (2CET-GAN), which can learn
continuous expression transfer without using emotion labels. The experiment
shows our network can generate diverse and high-quality expressions and can
generalize to unknown identities. To the best of our knowledge, we are among
the first to successfully use an unsupervised approach to disentangle
expression representation from identities at the pixel level.
- Abstract(参考訳): 近年の研究では、ヒトの顔間の表情伝達にGANが用いられている。
しかしながら、既存のモデルには、感情ラベルへの依存、連続表現の欠如、表現の詳細のキャプチャーの失敗など、多くの欠陥がある。
これらの制約に対処するために,感情ラベルを使わずに連続的な表現伝達を学習できる2CET-GAN(Cycles Expression Transfer GAN)と呼ばれる新しいCycleGANおよびInfoGANベースのネットワークを提案する。
実験では,ネットワークが多様で高品質な表現を生成し,未知のアイデンティティに一般化できることを示した。
私たちの知る限りでは、ピクセルレベルでのアイデンティティから表現表現を分離するために教師なしのアプローチをうまく利用した最初の1人です。
関連論文リスト
- Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - Multi-Domain Norm-referenced Encoding Enables Data Efficient Transfer
Learning of Facial Expression Recognition [62.997667081978825]
本稿では,表情認識における伝達学習のための生物学的メカニズムを提案する。
提案アーキテクチャでは,人間の脳が,頭部形状の異なる表情を自然に認識する方法について解説する。
本モデルでは, FERGデータセットの分類精度92.15%を極端に高いデータ効率で達成する。
論文 参考訳(メタデータ) (2023-04-05T09:06:30Z) - Facial Expression Video Generation Based-On Spatio-temporal
Convolutional GAN: FEV-GAN [1.279257604152629]
6つの基本表情の映像を生成するための新しいアプローチを提案する。
提案手法は,同一ネットワークにおけるコンテンツと動作の両方をモデル化することが知られている時空間的コナールGANをベースとしている。
コードと事前訓練されたモデルは間もなく公開される予定だ。
論文 参考訳(メタデータ) (2022-10-20T11:54:32Z) - VariTex: Variational Neural Face Textures [0.0]
VariTexは、ニューラルフェイステクスチャの変動潜在特徴空間を学習する手法である。
頭部の完全な画像を生成するために,毛髪などの正確な詳細情報を生成する付加デコーダを提案する。
その結果、顔のポーズ、顔の形状、表情の微粒度を制御できる新しいアイデンティティの幾何学的に一貫性のある画像を生成することができる。
論文 参考訳(メタデータ) (2021-04-13T07:47:53Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。