論文の概要: Vec2Face+ for Face Dataset Generation
- arxiv url: http://arxiv.org/abs/2507.17192v1
- Date: Wed, 23 Jul 2025 04:34:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.857073
- Title: Vec2Face+ for Face Dataset Generation
- Title(参考訳): 顔データセット生成のためのVec2Face+
- Authors: Haiyu Wu, Jaskirat Singh, Sicong Tian, Liang Zheng, Kevin W. Bowyer,
- Abstract要約: Vec2Face+は画像特徴から直接画像を生成する生成モデルである。
Vec2Face+は、適切なクラス間分離性、クラス内変異、アイデンティティ一貫性を備えたデータセットを生成する。
- 参考スコア(独自算出の注目度): 19.02273216268032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When synthesizing identities as face recognition training data, it is generally believed that large inter-class separability and intra-class attribute variation are essential for synthesizing a quality dataset. % This belief is generally correct, and this is what we aim for. However, when increasing intra-class variation, existing methods overlook the necessity of maintaining intra-class identity consistency. % To address this and generate high-quality face training data, we propose Vec2Face+, a generative model that creates images directly from image features and allows for continuous and easy control of face identities and attributes. Using Vec2Face+, we obtain datasets with proper inter-class separability and intra-class variation and identity consistency using three strategies: 1) we sample vectors sufficiently different from others to generate well-separated identities; 2) we propose an AttrOP algorithm for increasing general attribute variations; 3) we propose LoRA-based pose control for generating images with profile head poses, which is more efficient and identity-preserving than AttrOP. % Our system generates VFace10K, a synthetic face dataset with 10K identities, which allows an FR model to achieve state-of-the-art accuracy on seven real-world test sets. Scaling the size to 4M and 12M images, the corresponding VFace100K and VFace300K datasets yield higher accuracy than the real-world training dataset, CASIA-WebFace, on five real-world test sets. This is the first time a synthetic dataset beats the CASIA-WebFace in average accuracy. In addition, we find that only 1 out of 11 synthetic datasets outperforms random guessing (\emph{i.e., 50\%}) in twin verification and that models trained with synthetic identities are more biased than those trained with real identities. Both are important aspects for future investigation.
- Abstract(参考訳): 顔認識トレーニングデータとしてアイデンティティを合成する場合、品質データセットの合成には、クラス間の大きな分離性とクラス内属性のばらつきが不可欠であると一般的に信じられている。
% この信念は一般的に正しい。
しかし、クラス内での変化が増えると、既存のメソッドはクラス内でのアイデンティティ一貫性を維持する必要性を無視する。
% この問題に対処し,高品質な顔訓練データを生成するために,画像特徴から直接画像を生成する生成モデルであるVec2Face+を提案する。
Vec2Face+を用いて、適切なクラス間分離性とクラス内変動とアイデンティティ一貫性を持つデータセットを3つの戦略で取得する。
1) 互いに十分に異なるベクトルをサンプリングして, 十分に分離された同一性を生成する。
2) 一般的な属性変動を増大させるAttrOPアルゴリズムを提案する。
3) プロファイルを付加した画像を生成するためにLoRAベースのポーズ制御を提案する。
% 当システムでは,10Kの同一性を持つ合成顔データセットであるVFace10Kを生成し,FRモデルを用いて実世界の7つのテストセットにおける最先端の精度を実現する。
サイズを4Mと1200Mに拡大し、対応するVFace100KとVFace300Kデータセットは、5つの実世界のテストセット上で、実世界のトレーニングデータセットであるCASIA-WebFaceよりも高い精度が得られる。
合成データセットがCASIA-WebFaceを平均精度で破るのはこれが初めてだ。
さらに、11の合成データセットのうち1つだけが、双子の検証においてランダムな推測(\emph{i.e., 50\%})よりも優れており、合成IDで訓練されたモデルは、実際のアイデンティティで訓練されたモデルよりもバイアスが大きいことが判明した。
どちらも今後の調査における重要な側面である。
関連論文リスト
- VariFace: Fair and Diverse Synthetic Dataset Generation for Face Recognition [4.409387706050884]
VariFaceは2段階の拡散に基づくパイプラインで、公正で多様な合成顔データセットを作成し、顔認識モデルをトレーニングする。
同じデータセットサイズに制約された場合、VariFaceは、以前の合成データセットよりも大幅にパフォーマンスが向上する。
VariFaceは6つの評価データセットで実際のデータセット(CASIA-WebFace)を上回った。
論文 参考訳(メタデータ) (2024-12-09T06:21:11Z) - OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces [1.7535229154829601]
新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
論文 参考訳(メタデータ) (2024-09-05T14:59:41Z) - Vec2Face: Scaling Face Dataset Generation with Loosely Constrained Vectors [19.02273216268032]
Vec2Faceは、サンプルベクターのみを入力として使用する総合モデルである。
Vec2Faceは最大300KのIDを生成する。
Vec2Faceは5つの実世界のテストセットにおいて、最先端の精度を92%から93.52%に向上させる。
論文 参考訳(メタデータ) (2024-09-04T17:59:51Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - How to Boost Face Recognition with StyleGAN? [13.067766076889995]
最先端の顔認識システムは大量のラベル付きトレーニングデータを必要とする。
業界における自己監督的革命は、関連する技術が顔認識に適応する研究を動機付けている。
StyleGANのための微調整pSpエンコーダに基づく簡単なアプローチにより、最先端の顔認識を改善することができることを示す。
論文 参考訳(メタデータ) (2022-10-18T18:41:56Z) - SFace: Privacy-friendly and Accurate Face Recognition using Synthetic
Data [9.249824128880707]
本稿では,プライバシフレンドリーな合成顔データセットを用いて顔認識モデルを訓練し,その実現可能性について検討する。
このようなデータを用いて顔認識モデルを訓練する際のプライバシー面に対処するため、合成データセットと生成モデルを訓練するために使用される元の認証データセットとの同一性に関する広範な評価実験を行った。
また,プライバシフレンドリーなデータセットであるSFace上で,3つの異なる学習戦略,多クラス分類,ラベルフリーな知識伝達,多クラス分類と知識伝達の複合学習を用いて,顔認識を訓練することを提案する。
論文 参考訳(メタデータ) (2022-06-21T16:42:04Z) - Learning Disentangled Representation for One-shot Progressive Face Swapping [92.09538942684539]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
本手法は,トレーニングサンプルの少ないベンチマークデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。