論文の概要: GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images
- arxiv url: http://arxiv.org/abs/2308.03413v1
- Date: Mon, 7 Aug 2023 09:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 14:21:07.090736
- Title: GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images
- Title(参考訳): GaFET: 眼内画像からの幾何学的顔表情変換学習
- Authors: Tianxiang Ma, Bingchuan Li, Qian He, Jing Dong, Tieniu Tan
- Abstract要約: 本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
- 参考スコア(独自算出の注目度): 55.431697263581626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While current face animation methods can manipulate expressions individually,
they suffer from several limitations. The expressions manipulated by some
motion-based facial reenactment models are crude. Other ideas modeled with
facial action units cannot generalize to arbitrary expressions not covered by
annotations. In this paper, we introduce a novel Geometry-aware Facial
Expression Translation (GaFET) framework, which is based on parametric 3D
facial representations and can stably decoupled expression. Among them, a
Multi-level Feature Aligned Transformer is proposed to complement non-geometric
facial detail features while addressing the alignment challenge of spatial
features. Further, we design a De-expression model based on StyleGAN, in order
to reduce the learning difficulty of GaFET in unpaired "in-the-wild" images.
Extensive qualitative and quantitative experiments demonstrate that we achieve
higher-quality and more accurate facial expression transfer results compared to
state-of-the-art methods, and demonstrate applicability of various poses and
complex textures. Besides, videos or annotated training data are omitted,
making our method easier to use and generalize.
- Abstract(参考訳): 現在の顔アニメーション法は表現を個別に操作できるが、いくつかの制限がある。
動きに基づく顔再現モデルによって操作される表現は粗雑である。
顔のアクションユニットでモデル化された他のアイデアは、アノテーションでカバーされていない任意の表現に一般化することはできない。
本稿では, パラメトリックな3次元表情表現をベースとし, 安定的に表現を分離できる新しい形状認識型表情変換(gafet)フレームワークを提案する。
その中でも, 空間的特徴のアライメント課題に対処しつつ, 非幾何学的顔ディテールを補完する多レベル特徴アライメントトランスが提案されている。
In-the-wild 画像における GaFET の学習難度を低減するために,StyleGAN に基づくデプレッションモデルを設計する。
定性的かつ定量的な実験により、最先端の手法と比較して高品質で正確な表情伝達結果が得られ、様々なポーズや複雑なテクスチャの適用性を示す。
また,動画やアノテートされたトレーニングデータは省略され,使用や一般化が容易になる。
関連論文リスト
- Knowledge-Enhanced Facial Expression Recognition with Emotional-to-Neutral Transformation [66.53435569574135]
既存の表情認識法は、通常、個別のラベルを使って訓練済みのビジュアルエンコーダを微調整する。
視覚言語モデルによって生成されるテキスト埋め込みの豊富な知識は、識別的表情表現を学ぶための有望な代替手段である。
感情-中性変換を用いた知識強化FER法を提案する。
論文 参考訳(メタデータ) (2024-09-13T07:28:57Z) - Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - ImFace++: A Sophisticated Nonlinear 3D Morphable Face Model with Implicit Neural Representations [25.016000421755162]
本稿では,暗黙のニューラル表現を持つ高度で連続的な空間を学習するために,ImFace++という新しい3次元顔モデルを提案する。
ImFace++は、まず2つの明示的に歪んだ変形フィールドを構築し、アイデンティティと式に関連する複雑な形状をモデル化する。
さらにテンプレート空間内の精細化変位場が組み込まれ、個々の顔の詳細をきめ細かな学習が可能となる。
論文 参考訳(メタデータ) (2023-12-07T03:53:53Z) - BlendFields: Few-Shot Example-Driven Facial Modeling [35.86727715239676]
本稿では,従来のコンピュータグラフィックス技術からインスピレーションを得てギャップを埋める手法を提案する。
見えない表現は、極端なポーズのスパースセットからの外観をブレンドすることによってモデル化される。
本研究では, 顔の滑らかな体積変形の上に, きめ細かな効果を加えることによって, 表情を一般化する手法を示す。
論文 参考訳(メタデータ) (2023-05-12T14:30:07Z) - ImFace: A Nonlinear 3D Morphable Face Model with Implicit Neural
Representations [21.389170615787368]
本稿では,暗黙のニューラル表現を持つ非線形かつ連続的な空間を学習するために,新しい3次元顔モデルImFaceを提案する。
2つの明示的に非交叉な変形場を構築し、それぞれアイデンティティと表現に関連する複雑な形状をモデル化し、表現の埋め込みを拡張するための改良された学習戦略を設計する。
ImFaceに加えて、暗黙の表現における水密入力要求の問題に対処するために、効果的な前処理パイプラインが提案されている。
論文 参考訳(メタデータ) (2022-03-28T05:37:59Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。