論文の概要: On the Biometric Capacity of Generative Face Models
- arxiv url: http://arxiv.org/abs/2308.02065v1
- Date: Thu, 3 Aug 2023 22:21:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 14:22:29.302699
- Title: On the Biometric Capacity of Generative Face Models
- Title(参考訳): 生成顔モデルの生体計測能力について
- Authors: Vishnu Naresh Boddeti and Gautam Sreekumar and Arun Ross
- Abstract要約: 本稿では,生成した顔画像の生体容量を統計的に推定する手法を提案する。
われわれは、StyleGAN、Latent Diffusion Model、Generated Photosなど、複数の生成モデルにアプローチを取り入れている。
キャパシティ推定では、(a)ArcFace表現のFARは0.1%、StyleGAN3は1.43times106$、DCFaceは1.190times104$である。
- 参考スコア(独自算出の注目度): 23.66662504163745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been tremendous progress in generating realistic faces with high
fidelity over the past few years. Despite this progress, a crucial question
remains unanswered: "Given a generative face model, how many unique identities
can it generate?" In other words, what is the biometric capacity of the
generative face model? A scientific basis for answering this question will
benefit evaluating and comparing different generative face models and establish
an upper bound on their scalability. This paper proposes a statistical approach
to estimate the biometric capacity of generated face images in a hyperspherical
feature space. We employ our approach on multiple generative models, including
unconditional generators like StyleGAN, Latent Diffusion Model, and "Generated
Photos," as well as DCFace, a class-conditional generator. We also estimate
capacity w.r.t. demographic attributes such as gender and age. Our capacity
estimates indicate that (a) under ArcFace representation at a false acceptance
rate (FAR) of 0.1%, StyleGAN3 and DCFace have a capacity upper bound of
$1.43\times10^6$ and $1.190\times10^4$, respectively; (b) the capacity reduces
drastically as we lower the desired FAR with an estimate of $1.796\times10^4$
and $562$ at FAR of 1% and 10%, respectively, for StyleGAN3; (c) there is no
discernible disparity in the capacity w.r.t gender; and (d) for some generative
models, there is an appreciable disparity in the capacity w.r.t age. Code is
available at https://github.com/human-analysis/capacity-generative-face-models.
- Abstract(参考訳): 過去数年間で、忠実度の高い現実的な顔を生成するという大きな進歩があった。
この進歩にもかかわらず、重要な疑問は答えられていない:「生成的な顔モデルがあれば、それが生成できるユニークなアイデンティティはいくつあるのか?
言い換えれば、生成的顔モデルの生体計測能力とは何か?
この質問に答える科学的根拠は、異なる生成的顔モデルを評価し比較し、スケーラビリティの上限を確立するのに役立つだろう。
本稿では,超球面特徴空間における顔画像の生体特性を推定するための統計的アプローチを提案する。
提案手法は,スタイルガンや潜在拡散モデル,「生成写真」などの非条件生成モデルや,クラス条件生成モデルであるdcfaceなど,複数の生成モデルに対して適用する。
また、性別や年齢などのw.r.t.人口属性も推定する。
我々の能力推定は
(a) 偽受入率0.1%のArcFace表現の下では、StyleGAN3とDCFaceはそれぞれ1.43\times10^6$と1.190\times10^4$の容量上限を持つ。
(b)stylegan3について、1.796\times10^4$ と5.62$ をそれぞれ1% と10% と見積もることにより、容量が大幅に減少する。
(c)性別w.r.tの能力に明確な相違がないこと、及び
(d)一部の生成モデルでは、w.r.t年齢に許容できる差がある。
コードはhttps://github.com/ Human-analysis/capacity-generative-face-modelsで入手できる。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - TCDiff: Triple Condition Diffusion Model with 3D Constraints for Stylizing Synthetic Faces [1.7535229154829601]
新しいデータセットの1k、2k、5kクラスを用いた顔認識実験は、実顔ベンチマークで最先端の合成データセットをトレーニングする。
論文 参考訳(メタデータ) (2024-09-05T14:59:41Z) - CapHuman: Capture Your Moments in Parallel Universes [60.06408546134581]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - SwinFace: A Multi-task Transformer for Face Recognition, Expression
Recognition, Age Estimation and Attribute Estimation [60.94239810407917]
本論文では,単一スウィントランスを用いた顔認識,表情認識,年齢推定,顔属性推定のための多目的アルゴリズムを提案する。
複数のタスク間の競合に対処するため、マルチレベルチャネル注意(MLCA)モジュールをタスク固有の分析に統合する。
実験の結果,提案したモデルでは顔の理解が良く,全てのタスクにおいて優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-08-22T15:38:39Z) - DCFace: Synthetic Face Generation with Dual Condition Diffusion Model [18.662943303044315]
本稿では拡散モデルに基づくDCFace(Dual Condition Face Generator)を提案する。
われわれの新しいPatch-wiseスタイル抽出器と時間ステップ依存ID損失により、DCFaceは、同じ対象の顔画像を、正確に制御された異なるスタイルで一貫して生成することができる。
論文 参考訳(メタデータ) (2023-04-14T11:31:49Z) - One-Shot Face Video Re-enactment using Hybrid Latent Spaces of StyleGAN2 [0.7614628596146599]
本稿では、顔の編集、顔の動きと変形を同時にサポートするエンドツーエンドフレームワークと、映像生成のための顔認証制御を提案する。
高精細な顔映像を10242ドルで再現するために、StyleGAN2ジェネレータを使用します。
論文 参考訳(メタデータ) (2023-02-15T18:34:15Z) - Generated Faces in the Wild: Quantitative Comparison of Stable
Diffusion, Midjourney and DALL-E 2 [47.64219291655723]
本研究では, 安定拡散, ミッドジャーニー, DALL-E2 の3つの人気システムを比較し, 野生で光現実的な顔を生成する能力について比較した。
FIDスコアによると、安定拡散は他のシステムよりも優れた顔を生成する。
また,GFWと呼ばれる野生の顔のデータセットも導入し,総顔数は15,076面である。
論文 参考訳(メタデータ) (2022-10-02T17:53:08Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Cluster-guided Image Synthesis with Unconditional Models [41.89334167530054]
本研究は、教師なし方式でよく訓練されたGANを活用することにより、制御可能な画像生成に焦点を当てる。
クラスタ割り当てを条件付けすることで、提案手法は生成された画像の意味クラスを制御することができる。
顔(CelebA-HQとFFHQ)、動物(Imagenet)、オブジェクト(LSUN)に対するアプローチの有効性を,異なる事前学習生成モデルを用いて示す。
論文 参考訳(メタデータ) (2021-12-24T02:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。