論文の概要: DCFace: Synthetic Face Generation with Dual Condition Diffusion Model
- arxiv url: http://arxiv.org/abs/2304.07060v1
- Date: Fri, 14 Apr 2023 11:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:57:31.832896
- Title: DCFace: Synthetic Face Generation with Dual Condition Diffusion Model
- Title(参考訳): dcface:デュアル条件拡散モデルを用いた合成顔生成
- Authors: Minchul Kim, Feng Liu, Anil Jain, Xiaoming Liu
- Abstract要約: 本稿では拡散モデルに基づくDCFace(Dual Condition Face Generator)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは、同じ対象の顔画像を、正確に制御された異なるスタイルで一貫して生成することができる。
- 参考スコア(独自算出の注目度): 18.662943303044315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating synthetic datasets for training face recognition models is
challenging because dataset generation entails more than creating high fidelity
images. It involves generating multiple images of same subjects under different
factors (\textit{e.g.}, variations in pose, illumination, expression, aging and
occlusion) which follows the real image conditional distribution. Previous
works have studied the generation of synthetic datasets using GAN or 3D models.
In this work, we approach the problem from the aspect of combining subject
appearance (ID) and external factor (style) conditions. These two conditions
provide a direct way to control the inter-class and intra-class variations. To
this end, we propose a Dual Condition Face Generator (DCFace) based on a
diffusion model. Our novel Patch-wise style extractor and Time-step dependent
ID loss enables DCFace to consistently produce face images of the same subject
under different styles with precise control. Face recognition models trained on
synthetic images from the proposed DCFace provide higher verification
accuracies compared to previous works by $6.11\%$ on average in $4$ out of $5$
test datasets, LFW, CFP-FP, CPLFW, AgeDB and CALFW. Code is available at
https://github.com/mk-minchul/dcface
- Abstract(参考訳): 顔認識モデルのトレーニングのための合成データセットの生成は、データセット生成には高忠実度画像の作成以上の意味があるため、難しい。
それは、異なる因子(例えば、ポーズ、照明、表現、老化、閉塞)の下で同じ被験者の複数の画像を生成することを含み、これは実際の画像条件分布に従う。
従来の研究は、GANや3Dモデルを用いて合成データセットの生成を研究してきた。
本研究では,被写体外観 (id) と外的要因 (style) を組み合わせるという側面からこの問題にアプローチする。
これら2つの条件はクラス間およびクラス内変異を制御するための直接的手段を提供する。
そこで本研究では,拡散モデルに基づくDual Condition Face Generator (DCFace)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは同じ対象の顔画像を、異なるスタイルで正確に制御できる。
提案されたDCFaceの合成画像に基づいてトレーニングされた顔認識モデルは、以前の5ドルのテストデータセット、LFW、CFP-FP、CPLFW、 AgeDB、CALFWの平均で6.11\%の検証精度を提供する。
コードはhttps://github.com/mk-minchul/dcfaceで入手できる。
関連論文リスト
- Face Swap via Diffusion Model [4.026688121914668]
本稿では2つのポートレート画像間の顔交換のための拡散モデルに基づくフレームワークを提案する。
基本的なフレームワークは、IP-Adapter、ControlNet、Stable Diffusionの3つのコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-03-02T07:02:17Z) - LatentSwap: An Efficient Latent Code Mapping Framework for Face Swapping [41.59473130977597]
我々は、与えられたジェネレータのフェイススワップ潜在コードを生成するフレームワークであるLatentSwapを提案する。
私たちのフレームワークは軽量で、トレーニング済みのモデル以外にデータセットを必要としない。
このフレームワークはStyleNeRFなどの他のジェネレータにも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-02-28T14:17:32Z) - Controllable 3D Face Generation with Conditional Style Code Diffusion [51.24656496304069]
TEx-Face(TExt & Expression-to-Face)は、タスクを3D GANインバージョン、条件付きスタイルコード拡散、3D Face Decodingという3つのコンポーネントに分割することで、課題に対処する。
FFHQ、CelebA-HQ、CelebA-Dialogで実施された実験は、我々のTEx-Faceの有望なパフォーマンスを実証している。
論文 参考訳(メタデータ) (2023-12-21T15:32:49Z) - Conditioning Diffusion Models via Attributes and Semantic Masks for Face
Generation [1.104121146441257]
深層生成モデルは、現実的な顔の画像を生成する素晴らしい結果を示している。
GANはセマンティックマスクで条件付きで高品質で高忠実な画像を生成することができたが、それでも出力を多様化する能力は欠けていた。
本稿では,属性とセマンティックマスクの両方を利用した多条件拡散モデルの提案を行い,高品質で制御可能な顔画像を生成する。
論文 参考訳(メタデータ) (2023-06-01T17:16:37Z) - CGOF++: Controllable 3D Face Synthesis with Conditional Generative
Occupancy Fields [52.14985242487535]
生成した顔画像の3次元制御性を実現する条件付き3次元顔合成フレームワークを提案する。
中心となるのは条件付き生成操作場(cGOF++)であり、それによって生成された顔の形状が与えられた3Dモルファブルモデル(3DMM)メッシュに適合するように効果的に強制される。
提案手法の有効性を検証し, 最先端の2次元顔合成法よりも高精度な3次元制御性を示す実験を行った。
論文 参考訳(メタデータ) (2022-11-23T19:02:50Z) - Generated Faces in the Wild: Quantitative Comparison of Stable
Diffusion, Midjourney and DALL-E 2 [47.64219291655723]
本研究では, 安定拡散, ミッドジャーニー, DALL-E2 の3つの人気システムを比較し, 野生で光現実的な顔を生成する能力について比較した。
FIDスコアによると、安定拡散は他のシステムよりも優れた顔を生成する。
また,GFWと呼ばれる野生の顔のデータセットも導入し,総顔数は15,076面である。
論文 参考訳(メタデータ) (2022-10-02T17:53:08Z) - Disentangled Lifespan Face Synthesis [100.29058545878341]
ライフスパン顔合成(LFS)モデルは、1つのスナップショットのみを基準として、人の人生全体の写真リアル顔画像のセットを作成することを目的としている。
対象年齢コードから生成された顔画像は, 形状やテクスチャの生鮮やかな変換によって, 年齢に敏感に反映されることが期待される。
これは、エンコーダから形状、テクスチャ、アイデンティティの特徴を別々に抽出することで達成される。
論文 参考訳(メタデータ) (2021-08-05T22:33:14Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - Learning an Animatable Detailed 3D Face Model from In-The-Wild Images [50.09971525995828]
本研究では, 実物的詳細と実物的画像から3次元顔レグレッサーを共同学習する第1の手法を提案する。
DECAモデルは、低次元の潜時表現からUV変位マップを堅牢に生成するように訓練されています。
本稿では,人固有の細部と表情依存のしわを区別する新しい細部一貫性損失を提案する。
論文 参考訳(メタデータ) (2020-12-07T19:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。