論文の概要: Vec2Face: Scaling Face Dataset Generation with Loosely Constrained Vectors
- arxiv url: http://arxiv.org/abs/2409.02979v4
- Date: Thu, 06 Feb 2025 23:53:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:53:36.982344
- Title: Vec2Face: Scaling Face Dataset Generation with Loosely Constrained Vectors
- Title(参考訳): Vec2Face: 制約の少ないベクトルによる顔データセット生成のスケーリング
- Authors: Haiyu Wu, Jaskirat Singh, Sicong Tian, Liang Zheng, Kevin W. Bowyer,
- Abstract要約: Vec2Faceは、サンプルベクターのみを入力として使用する総合モデルである。
Vec2Faceは最大300KのIDを生成する。
Vec2Faceは5つの実世界のテストセットにおいて、最先端の精度を92%から93.52%に向上させる。
- 参考スコア(独自算出の注目度): 19.02273216268032
- License:
- Abstract: This paper studies how to synthesize face images of non-existent persons, to create a dataset that allows effective training of face recognition (FR) models. Besides generating realistic face images, two other important goals are: 1) the ability to generate a large number of distinct identities (inter-class separation), and 2) a proper variation in appearance of the images for each identity (intra-class variation). However, existing works 1) are typically limited in how many well-separated identities can be generated and 2) either neglect or use an external model for attribute augmentation. We propose Vec2Face, a holistic model that uses only a sampled vector as input and can flexibly generate and control the identity of face images and their attributes. Composed of a feature masked autoencoder and an image decoder, Vec2Face is supervised by face image reconstruction and can be conveniently used in inference. Using vectors with low similarity among themselves as inputs, Vec2Face generates well-separated identities. Randomly perturbing an input identity vector within a small range allows Vec2Face to generate faces of the same identity with proper variation in face attributes. It is also possible to generate images with designated attributes by adjusting vector values with a gradient descent method. Vec2Face has efficiently synthesized as many as 300K identities, whereas 60K is the largest number of identities created in the previous works. As for performance, FR models trained with the generated HSFace datasets, from 10k to 300k identities, achieve state-of-the-art accuracy, from 92% to 93.52%, on five real-world test sets (\emph{i.e.}, LFW, CFP-FP, AgeDB-30, CALFW, and CPLFW). For the first time, the FR model trained using our synthetic training set achieves higher accuracy than that trained using a same-scale training set of real face images on the CALFW, IJBB, and IJBC test sets.
- Abstract(参考訳): 本稿では,既存の人物の顔画像を合成し,顔認識モデル(FR)を効果的に訓練するデータセットを作成する方法について検討する。
現実的な顔画像の生成に加えて、次の2つの重要な目標がある。
1)多数の異なるアイデンティティ(クラス間分離)を生成でき、かつ
2) 同一性(クラス内変動)ごとに画像の外観が適切に変化すること。
しかし、現存する作品
1)は通常、よく区切られたアイデンティティをいくつ生成できるかに制限される。
2) 属性拡張のために外部モデルを無視したり使用したりする。
本稿では,サンプルベクトルのみを入力とし,顔画像とその属性の同一性を柔軟に生成・制御できる総合モデルであるVec2Faceを提案する。
特徴マスキングオートエンコーダと画像デコーダから構成されるVec2Faceは、顔画像再構成によって監視され、推論に便利に使用できる。
Vec2Faceは、それらの間の類似性が低いベクトルを入力として使用し、よく分離されたIDを生成する。
入力IDベクトルを小さな範囲内でランダムに摂動することで、Vec2Faceは顔属性の適切な変化で同一のIDの顔を生成することができる。
また、勾配降下法を用いてベクトル値を調整することにより、指定された属性を持つ画像を生成することもできる。
Vec2Faceは300KのIDを効率的に合成しているが、60Kは以前の作品で作成された最大のIDである。
パフォーマンスに関しては、10kから300kまでのHSFaceデータセットでトレーニングされたFRモデルは、実世界の5つのテストセット(\emph{i.e.}, LFW, CFP-FP, AgeDB-30, CALFW, CPLFW)で、92%から93.52%の最先端の精度を実現している。
合成トレーニングセットを用いてトレーニングしたFRモデルは、CALFW, IJBB, IJBCテストセット上の実顔画像の同規模のトレーニングセットを用いてトレーニングしたFRモデルよりも高い精度を達成する。
関連論文リスト
- Turn That Frown Upside Down: FaceID Customization via Cross-Training Data [49.51940625552275]
CrossFaceIDは、FaceIDカスタマイズモデルの顔修正機能を改善するために設計された、最初の大規模で高品質で公開可能なデータセットである。
約2000人から4万対のテキスト画像で構成され、それぞれが顔の特徴を示す約20の画像で表現されている。
トレーニング段階では、人物の特定の顔が入力として使用され、FaceIDカスタマイズモデルは、同一人物の別の画像を生成することを余儀なくされるが、顔の特徴が変化している。
実験により、CrossFaceIDデータセットに微調整されたモデルが、FaceIDの忠実性を保ちながら、その性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-01-26T05:27:38Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces [1.7535229154829601]
新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
論文 参考訳(メタデータ) (2024-09-05T14:59:41Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - MFIM: Megapixel Facial Identity Manipulation [0.6091702876917281]
我々はMegapixel Facial Identity Manipulation (MFIM)と呼ばれる新しい顔スワッピングフレームワークを提案する。
提案モデルは,GAN変換方式で事前学習したStyleGANを利用して,メガピクセル画像の効率よく生成する。
実験により,本モデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-08-03T04:36:48Z) - DCFace: Synthetic Face Generation with Dual Condition Diffusion Model [18.662943303044315]
本稿では拡散モデルに基づくDCFace(Dual Condition Face Generator)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは、同じ対象の顔画像を、正確に制御された異なるスタイルで一貫して生成することができる。
論文 参考訳(メタデータ) (2023-04-14T11:31:49Z) - Generating 2D and 3D Master Faces for Dictionary Attacks with a
Network-Assisted Latent Space Evolution [68.8204255655161]
マスターフェイス(英: master face)とは、人口の比率の高い顔認証をパスする顔画像である。
2次元および3次元の顔認証モデルに対して,これらの顔の最適化を行う。
3Dでは,2次元スタイルGAN2ジェネレータを用いて顔を生成し,深部3次元顔再構成ネットワークを用いて3次元構造を予測する。
論文 参考訳(メタデータ) (2022-11-25T09:15:38Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。