論文の概要: Pose and Facial Expression Transfer by using StyleGAN
- arxiv url: http://arxiv.org/abs/2504.13021v1
- Date: Thu, 17 Apr 2025 15:29:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:38.638016
- Title: Pose and Facial Expression Transfer by using StyleGAN
- Title(参考訳): スタイルGANによる表情と表情の伝達
- Authors: Petr Jahoda, Jan Cech,
- Abstract要約: 顔画像間でポーズと表情を伝達する手法を提案する。
モデルは、ソース顔画像のポーズと表現がターゲットIDに転送される出力画像を生成する。
- 参考スコア(独自算出の注目度): 1.757194730633422
- License:
- Abstract: We propose a method to transfer pose and expression between face images. Given a source and target face portrait, the model produces an output image in which the pose and expression of the source face image are transferred onto the target identity. The architecture consists of two encoders and a mapping network that projects the two inputs into the latent space of StyleGAN2, which finally generates the output. The training is self-supervised from video sequences of many individuals. Manual labeling is not required. Our model enables the synthesis of random identities with controllable pose and expression. Close-to-real-time performance is achieved.
- Abstract(参考訳): 顔画像間でポーズと表情を伝達する手法を提案する。
ソース顔とターゲット顔のポートレートが与えられたモデルでは、ソース顔画像のポーズと表現がターゲットIDに転送される出力画像を生成する。
このアーキテクチャは、2つのエンコーダと2つの入力をStyleGAN2の潜在空間に投影するマッピングネットワークで構成され、最終的に出力を生成する。
トレーニングは多くの個人のビデオシーケンスから自己教師される。
手動ラベリングは不要。
提案モデルは,ポーズと表現を制御可能なランダムなアイデンティティの合成を可能にする。
クローズ・トゥ・リアルタイムのパフォーマンスが達成される。
関連論文リスト
- StyleMask: Disentangling the Style Space of StyleGAN2 for Neural Face
Reenactment [47.27033282706179]
本研究では,顔の特徴をそのポーズから切り離すフレームワークを提案する。
提案手法は, 極端なポーズ変動であっても, 高品質な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-27T13:22:35Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Two-Stream Appearance Transfer Network for Person Image Generation [16.681839931864886]
画像生成や翻訳に広く用いられているGAN(Generative Adversarial Network)は、空間的局所的および翻訳同変演算子に依存している。
本稿では,この課題に対処するために,新しい2ストリームの外観伝達ネットワーク(2s-ATN)を提案する。
ソースストリームとターゲットストリームで構成される多段階アーキテクチャである。各ステージは外観伝達モジュールと複数の2ストリーム特徴融合モジュールを備える。
論文 参考訳(メタデータ) (2020-11-09T04:21:02Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - FaR-GAN for One-Shot Face Reenactment [20.894596219099164]
本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
論文 参考訳(メタデータ) (2020-05-13T16:15:37Z) - Realistic Face Reenactment via Self-Supervised Disentangling of Identity
and Pose [23.211318473026243]
本研究では,大量の未収録映像を自然に再現する自己教師型ハイブリッドモデル(DAE-GAN)を提案する。
提案手法は,2つのデフォーミングオートエンコーダと条件生成の最新の進歩を組み合わせたものである。
実験の結果,再現された画像の良好な品質と,同一性間での顔の動きの伝達の柔軟性が示された。
論文 参考訳(メタデータ) (2020-03-29T06:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。