論文の概要: Explore the Expression: Facial Expression Generation using Auxiliary
Classifier Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2201.09061v1
- Date: Sat, 22 Jan 2022 14:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:28:05.573573
- Title: Explore the Expression: Facial Expression Generation using Auxiliary
Classifier Generative Adversarial Network
- Title(参考訳): 表情を探索する: 補助分類器生成逆ネットワークを用いた表情生成
- Authors: J. Rafid Siddiqui
- Abstract要約: 本稿では,複数の文字識別のための表情の集合を頑健に生成する生成モデルアーキテクチャを提案する。
簡単な表現を組み合わせることで複雑な表現を生成する可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Facial expressions are a form of non-verbal communication that humans perform
seamlessly for meaningful transfer of information. Most of the literature
addresses the facial expression recognition aspect however, with the advent of
Generative Models, it has become possible to explore the affect space in
addition to mere classification of a set of expressions. In this article, we
propose a generative model architecture which robustly generates a set of
facial expressions for multiple character identities and explores the
possibilities of generating complex expressions by combining the simple ones.
- Abstract(参考訳): 表情は、人間が意味のある情報伝達のためにシームレスに行う非言語コミュニケーションの一形態である。
ほとんどの文献は表情認識の側面を扱っているが、生成モデルが出現すると、表現の集合の単なる分類に加えて、影響空間を探索することができるようになった。
本稿では,複数文字の表情の集合を頑健に生成する生成モデルアーキテクチャを提案する。
関連論文リスト
- Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - Towards a Simultaneous and Granular Identity-Expression Control in Personalized Face Generation [34.72612800373437]
人間中心のコンテンツ生成では、事前訓練されたテキスト・ツー・イメージモデルでは、ユーザーが望んだポートレート画像を生成するのに苦労する。
同一性表現の同時制御とよりきめ細かい表現合成が可能な,新しい多モード顔生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-02T13:28:39Z) - GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - Face Generation from Textual Features using Conditionally Trained Inputs
to Generative Adversarial Networks [0.0]
我々は、自然言語処理モデルにおける状態のパワーを用いて、顔の記述を学習可能な潜在ベクトルに変換する。
同じアプローチは、きめ細かいテキストの特徴に基づいて任意の画像を生成するように調整できる。
論文 参考訳(メタデータ) (2023-01-22T13:27:12Z) - Comprehensive Facial Expression Synthesis using Human-Interpretable
Language [33.11402372756348]
言語に基づく表情記述から新しい表情合成モデルを提案する。
本手法は,詳細な表情で顔画像の合成を行う。
さらに, 顔の特徴に言語特徴を効果的に埋め込むことで, 個々の単語を制御し, 顔の動きを処理できる。
論文 参考訳(メタデータ) (2020-07-16T07:28:25Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - Learning to Augment Expressions for Few-shot Fine-grained Facial
Expression Recognition [98.83578105374535]
顔表情データベースF2EDについて述べる。
顔の表情は119人から54人まで、200万枚以上の画像が含まれている。
実世界のシナリオでは,不均一なデータ分布やサンプルの欠如が一般的であるので,数発の表情学習の課題を評価する。
顔画像合成のための統合されたタスク駆動型フレームワークであるComposeal Generative Adversarial Network (Comp-GAN) 学習を提案する。
論文 参考訳(メタデータ) (2020-01-17T03:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。