論文の概要: FaR-GAN for One-Shot Face Reenactment
- arxiv url: http://arxiv.org/abs/2005.06402v1
- Date: Wed, 13 May 2020 16:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 13:15:23.818210
- Title: FaR-GAN for One-Shot Face Reenactment
- Title(参考訳): ワンショット顔再現のためのFaR-GAN
- Authors: Hanxiang Hao and Sriram Baireddy and Amy R. Reibman and Edward J. Delp
- Abstract要約: 本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
- 参考スコア(独自算出の注目度): 20.894596219099164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animating a static face image with target facial expressions and movements is
important in the area of image editing and movie production. This face
reenactment process is challenging due to the complex geometry and movement of
human faces. Previous work usually requires a large set of images from the same
person to model the appearance. In this paper, we present a one-shot face
reenactment model, FaR-GAN, that takes only one face image of any given source
identity and a target expression as input, and then produces a face image of
the same source identity but with the target expression. The proposed method
makes no assumptions about the source identity, facial expression, head pose,
or even image background. We evaluate our method on the VoxCeleb1 dataset and
show that our method is able to generate a higher quality face image than the
compared methods.
- Abstract(参考訳): 画像編集や映画製作の分野では,静的な顔画像と対象の表情と動きをアニメーションすることが重要である。
この顔再現プロセスは、人間の顔の複雑な形状と動きのために困難である。
以前の作品は通常、外観をモデル化するために同じ人物からの大量の画像を必要とする。
本稿では、任意のソースidとターゲット表現の1つの顔画像のみを入力として、同一のソースidとターゲット表現の同一顔画像を生成するワンショット顔再現モデルfar-ganを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
提案手法をVoxCeleb1データセット上で評価し,比較した手法よりも高品質な顔画像を生成することができることを示す。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - DiffusionAct: Controllable Diffusion Autoencoder for One-shot Face Reenactment [34.821255203019554]
ビデオ駆動型ニューラルフェイスの再現は、元の顔のアイデンティティと外観をうまく保存する現実的な顔画像を合成することを目的としている。
拡散確率モデル(DPM)の最近の進歩は、高品質な現実画像の生成を可能にする。
本稿では,拡散モデルのフォトリアリスティック画像生成を利用して,ニューラルフェイスの再現を行う新しい手法であるDiffusionを提案する。
論文 参考訳(メタデータ) (2024-03-25T21:46:53Z) - HyperReenact: One-Shot Reenactment via Jointly Learning to Refine and
Retarget Faces [47.27033282706179]
提案手法は,音源識別のリアルな音声頭部画像を生成することを目的とした,HyperReenactと呼ばれるニューラルフェイス再現法を提案する。
提案手法は, 単発設定(すなわち, 単一音源フレーム)の下で動作し, 被検体固有の微調整を必要とせず, クロスオブジェクトの再現を可能にする。
我々は,VoxCeleb1とVoxCeleb2の標準ベンチマークにおけるいくつかの最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-20T11:59:42Z) - Face Transformer: Towards High Fidelity and Accurate Face Swapping [54.737909435708936]
Face swappingは、ソース顔の同一性とターゲット顔の属性を融合させるスワップ画像を生成することを目的としている。
本稿では,顔の同一性と対象属性を同時に正確に保存できる新しい顔交換ネットワークであるFace Transformerを提案する。
論文 参考訳(メタデータ) (2023-04-05T15:51:44Z) - Finding Directions in GAN's Latent Space for Neural Face Reenactment [45.67273942952348]
本論文は顔/頭部の再現において,対象顔の顔ポーズ(3D頭部の向きと表情)を元顔に転送することが目的である。
我々は、訓練済みの(微調整済みの)GANを使用することで、そのようなネットワークのトレーニングを回避し、異なるアプローチをとる。
GAN潜伏空間に実画像を埋め込むことで,実世界の顔の再現に有効であることを示す。
論文 参考訳(メタデータ) (2022-01-31T19:14:03Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - FACEGAN: Facial Attribute Controllable rEenactment GAN [24.547319786399743]
顔の再現は、運転画像から人物の身元と顔の動きを抽出する一般的なアニメーション手法である。
近年の研究では、顔のランドマークに基づく動き表現と、生成的対向ネットワークを組み合わせることで、高品質な結果が示されている。
本稿では,行動単位(AU)表現を介して運転顔から顔の動きを伝達するFACEGAN(Facial Attribute Controllable rEenactment GAN)を提案する。
論文 参考訳(メタデータ) (2020-11-09T14:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。