論文の概要: DCFace: Synthetic Face Generation with Dual Condition Diffusion Model
- arxiv url: http://arxiv.org/abs/2304.07060v1
- Date: Fri, 14 Apr 2023 11:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 13:57:31.832896
- Title: DCFace: Synthetic Face Generation with Dual Condition Diffusion Model
- Title(参考訳): dcface:デュアル条件拡散モデルを用いた合成顔生成
- Authors: Minchul Kim, Feng Liu, Anil Jain, Xiaoming Liu
- Abstract要約: 本稿では拡散モデルに基づくDCFace(Dual Condition Face Generator)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは、同じ対象の顔画像を、正確に制御された異なるスタイルで一貫して生成することができる。
- 参考スコア(独自算出の注目度): 18.662943303044315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating synthetic datasets for training face recognition models is
challenging because dataset generation entails more than creating high fidelity
images. It involves generating multiple images of same subjects under different
factors (\textit{e.g.}, variations in pose, illumination, expression, aging and
occlusion) which follows the real image conditional distribution. Previous
works have studied the generation of synthetic datasets using GAN or 3D models.
In this work, we approach the problem from the aspect of combining subject
appearance (ID) and external factor (style) conditions. These two conditions
provide a direct way to control the inter-class and intra-class variations. To
this end, we propose a Dual Condition Face Generator (DCFace) based on a
diffusion model. Our novel Patch-wise style extractor and Time-step dependent
ID loss enables DCFace to consistently produce face images of the same subject
under different styles with precise control. Face recognition models trained on
synthetic images from the proposed DCFace provide higher verification
accuracies compared to previous works by $6.11\%$ on average in $4$ out of $5$
test datasets, LFW, CFP-FP, CPLFW, AgeDB and CALFW. Code is available at
https://github.com/mk-minchul/dcface
- Abstract(参考訳): 顔認識モデルのトレーニングのための合成データセットの生成は、データセット生成には高忠実度画像の作成以上の意味があるため、難しい。
それは、異なる因子(例えば、ポーズ、照明、表現、老化、閉塞)の下で同じ被験者の複数の画像を生成することを含み、これは実際の画像条件分布に従う。
従来の研究は、GANや3Dモデルを用いて合成データセットの生成を研究してきた。
本研究では,被写体外観 (id) と外的要因 (style) を組み合わせるという側面からこの問題にアプローチする。
これら2つの条件はクラス間およびクラス内変異を制御するための直接的手段を提供する。
そこで本研究では,拡散モデルに基づくDual Condition Face Generator (DCFace)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは同じ対象の顔画像を、異なるスタイルで正確に制御できる。
提案されたDCFaceの合成画像に基づいてトレーニングされた顔認識モデルは、以前の5ドルのテストデータセット、LFW、CFP-FP、CPLFW、 AgeDB、CALFWの平均で6.11\%の検証精度を提供する。
コードはhttps://github.com/mk-minchul/dcfaceで入手できる。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Realistic and Efficient Face Swapping: A Unified Approach with Diffusion Models [69.50286698375386]
フェース・スワッピングのための拡散モデルを改善する新しい手法を提案する。
インペイントトレーニング中にマスクシャッフル技術を導入し、スワップのためのいわゆるユニバーサルモデルを作成することができる。
私たちのアプローチは比較的統一されたアプローチなので、他のオフザシェルフモデルのエラーに対して耐性があります。
論文 参考訳(メタデータ) (2024-09-11T13:43:53Z) - TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces [1.7535229154829601]
新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
論文 参考訳(メタデータ) (2024-09-05T14:59:41Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - Face Swap via Diffusion Model [4.026688121914668]
本稿では2つのポートレート画像間の顔交換のための拡散モデルに基づくフレームワークを提案する。
基本フレームワークは、顔の特徴符号化、多条件生成、顔の塗装の3つのコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-03-02T07:02:17Z) - Controllable 3D Face Generation with Conditional Style Code Diffusion [51.24656496304069]
TEx-Face(TExt & Expression-to-Face)は、タスクを3D GANインバージョン、条件付きスタイルコード拡散、3D Face Decodingという3つのコンポーネントに分割することで、課題に対処する。
FFHQ、CelebA-HQ、CelebA-Dialogで実施された実験は、我々のTEx-Faceの有望なパフォーマンスを実証している。
論文 参考訳(メタデータ) (2023-12-21T15:32:49Z) - Generated Faces in the Wild: Quantitative Comparison of Stable
Diffusion, Midjourney and DALL-E 2 [47.64219291655723]
本研究では, 安定拡散, ミッドジャーニー, DALL-E2 の3つの人気システムを比較し, 野生で光現実的な顔を生成する能力について比較した。
FIDスコアによると、安定拡散は他のシステムよりも優れた顔を生成する。
また,GFWと呼ばれる野生の顔のデータセットも導入し,総顔数は15,076面である。
論文 参考訳(メタデータ) (2022-10-02T17:53:08Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。