論文の概要: TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces
- arxiv url: http://arxiv.org/abs/2409.03600v1
- Date: Thu, 5 Sep 2024 14:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 20:15:17.167735
- Title: TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces
- Title(参考訳): TCDiff:合成顔のスチル化のための3次元制約付き3次元条件拡散モデル
- Authors: Bernardo Biesseck, Pedro Vidal, Luiz Coelho, Roger Granada, David Menotti|,
- Abstract要約: 新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
- 参考スコア(独自算出の注目度): 1.7535229154829601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A robust face recognition model must be trained using datasets that include a large number of subjects and numerous samples per subject under varying conditions (such as pose, expression, age, noise, and occlusion). Due to ethical and privacy concerns, large-scale real face datasets have been discontinued, such as MS1MV3, and synthetic face generators have been proposed, utilizing GANs and Diffusion Models, such as SYNFace, SFace, DigiFace-1M, IDiff-Face, DCFace, and GANDiffFace, aiming to supply this demand. Some of these methods can produce high-fidelity realistic faces, but with low intra-class variance, while others generate high-variance faces with low identity consistency. In this paper, we propose a Triple Condition Diffusion Model (TCDiff) to improve face style transfer from real to synthetic faces through 2D and 3D facial constraints, enhancing face identity consistency while keeping the necessary high intra-class variance. Face recognition experiments using 1k, 2k, and 5k classes of our new dataset for training outperform state-of-the-art synthetic datasets in real face benchmarks such as LFW, CFP-FP, AgeDB, and BUPT. Our source code is available at: https://github.com/BOVIFOCR/tcdiff.
- Abstract(参考訳): 堅牢な顔認識モデルは、さまざまな条件(ポーズ、表現、年齢、騒音、閉塞など)の下で、多数の被験者と被験者毎の多数のサンプルを含むデータセットを使用してトレーニングされなければならない。
倫理的・プライバシー上の懸念から、MS1MV3のような大規模な実顔データセットは廃止され、SynFace、SFace、DigiFace-1M、IDiff-Face、DCFace、GANDiffFaceといったGANと拡散モデルを利用した合成顔生成が提案されている。
これらの手法のいくつかは、高忠実な現実的な顔を生成することができるが、クラス内分散の低い顔を生成する一方、アイデンティティの整合性の低い顔を生成する。
本稿では,3つの条件拡散モデル(TCDiff, Triple Condition Diffusion Model, TCDiff)を提案する。
LFW,CFP-FP, AgeDB, BUPTなどの実顔ベンチマークにおいて, 最先端の合成データセットをトレーニングするための新しいデータセットの1k, 2k, 5kクラスを用いた顔認識実験を行った。
私たちのソースコードは、https://github.com/BOVIFOCR/tcdiff.comで公開されています。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - HyperFace: Generating Synthetic Face Recognition Datasets by Exploring Face Embedding Hypersphere [22.8742248559748]
顔認識データセットは、インターネットをクロールし、個人の同意なしに収集されることが多く、倫理的およびプライバシー上の懸念を提起する。
顔認識モデルをトレーニングするための合成データセットの生成は、有望な代替手段として浮上している。
我々はHyperFaceと呼ばれる新しい合成データセット生成手法を提案する。
論文 参考訳(メタデータ) (2024-11-13T09:42:12Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - Controllable 3D Face Generation with Conditional Style Code Diffusion [51.24656496304069]
TEx-Face(TExt & Expression-to-Face)は、タスクを3D GANインバージョン、条件付きスタイルコード拡散、3D Face Decodingという3つのコンポーネントに分割することで、課題に対処する。
FFHQ、CelebA-HQ、CelebA-Dialogで実施された実験は、我々のTEx-Faceの有望なパフォーマンスを実証している。
論文 参考訳(メタデータ) (2023-12-21T15:32:49Z) - FitDiff: Robust monocular 3D facial shape and reflectance estimation using Diffusion Models [79.65289816077629]
拡散型3次元顔アバター生成モデルFitDiffを提案する。
本モデルでは,「近距離」2次元顔画像から抽出したアイデンティティ埋め込みを利用して,再現性のある顔アバターを高精度に生成する。
FitDiffは、顔認識の埋め込みを前提とした最初の3D LDMであり、一般的なレンダリングエンジンで使用可能な、ライティング可能な人間のアバターを再構築する。
論文 参考訳(メタデータ) (2023-12-07T17:35:49Z) - DCFace: Synthetic Face Generation with Dual Condition Diffusion Model [18.662943303044315]
本稿では拡散モデルに基づくDCFace(Dual Condition Face Generator)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは、同じ対象の顔画像を、正確に制御された異なるスタイルで一貫して生成することができる。
論文 参考訳(メタデータ) (2023-04-14T11:31:49Z) - FaceTuneGAN: Face Autoencoder for Convolutional Expression Transfer
Using Neural Generative Adversarial Networks [0.7043489166804575]
顔の識別と表情を分離して符号化する新しい3次元顔モデル表現であるFaceTuneGANを提案する。
本稿では,2次元領域で使用されている画像と画像の変換ネットワークを3次元顔形状に適応させる手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T14:42:03Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。