論文の概要: Synthetic Forehead-creases Biometric Generation for Reliable User Verification
- arxiv url: http://arxiv.org/abs/2408.15693v1
- Date: Wed, 28 Aug 2024 10:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 16:10:57.799802
- Title: Synthetic Forehead-creases Biometric Generation for Reliable User Verification
- Title(参考訳): 信頼性のあるユーザ認証のための合成額上げバイオメトリック生成
- Authors: Abhishek Tandon, Geetanjali Sharma, Gaurav Jaswal, Aditya Nigam, Raghavendra Ramachandra,
- Abstract要約: 本稿では,前頭葉画像データを一意性やリアリズムといった重要な特徴を維持しつつ合成する新しい枠組みを提案する。
Fr'echet Inception Distance (FID) と構造類似度指数測定 (SSIM) を用いて、生成された額部画像の多様性と現実性を評価する。
- 参考スコア(独自算出の注目度): 6.639785884921617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have emphasized the potential of forehead-crease patterns as an alternative for face, iris, and periocular recognition, presenting contactless and convenient solutions, particularly in situations where faces are covered by surgical masks. However, collecting forehead data presents challenges, including cost and time constraints, as developing and optimizing forehead verification methods requires a substantial number of high-quality images. To tackle these challenges, the generation of synthetic biometric data has gained traction due to its ability to protect privacy while enabling effective training of deep learning-based biometric verification methods. In this paper, we present a new framework to synthesize forehead-crease image data while maintaining important features, such as uniqueness and realism. The proposed framework consists of two main modules: a Subject-Specific Generation Module (SSGM), based on an image-to-image Brownian Bridge Diffusion Model (BBDM), which learns a one-to-many mapping between image pairs to generate identity-aware synthetic forehead creases corresponding to real subjects, and a Subject-Agnostic Generation Module (SAGM), which samples new synthetic identities with assistance from the SSGM. We evaluate the diversity and realism of the generated forehead-crease images primarily using the Fr\'echet Inception Distance (FID) and the Structural Similarity Index Measure (SSIM). In addition, we assess the utility of synthetically generated forehead-crease images using a forehead-crease verification system (FHCVS). The results indicate an improvement in the verification accuracy of the FHCVS by utilizing synthetic data.
- Abstract(参考訳): 近年の研究では、顔、虹彩、および眼周囲の認識に代えて、顔が手術用マスクで覆われている状況において、接触のない便利な解決策が提示されている。
しかしながら、フォアヘッドデータの収集は、コストや時間的制約を含む課題を示し、フォアヘッドの検証手法の開発と最適化には、かなりの量の高品質な画像が必要である。
これらの課題に対処するために、ディープラーニングベースのバイオメトリック検証手法の効果的なトレーニングを可能にしながら、プライバシーを保護する能力によって、合成バイオメトリックデータの生成が牽引されている。
本稿では,前頭部画像データを一意性やリアリズムといった重要な特徴を維持しつつ合成する新しい枠組みを提案する。
提案するフレームワークは,画像から画像へのブラウン橋拡散モデル (BBDM) に基づく2つの主要モジュールから構成される。画像ペア間の一対一のマッピングを学習し,実写体に対応する自己認識型合成フォアヘッド・クリーゼを生成するための一対一のマッピングと,SSGMの助けを借りて新しい合成IDをサンプリングするサブジェクト・アグノスティック・ジェネレーション・モジュール (SAGM) である。
本研究では,Fr'echet Inception Distance(FID)とStructure similarity Index Measure(SSIM)を用いて,生成された額画像の多様性と現実性を評価する。
さらに,FHCVS (Fearhead-crease confirmed system) を用いた合成前頭部画像の有用性について検討した。
その結果,合成データを用いたFHCVSの検証精度の向上が示唆された。
関連論文リスト
- ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - DiffFinger: Advancing Synthetic Fingerprint Generation through Denoising Diffusion Probabilistic Models [0.0]
本研究では,Denoising Diffusion Probabilistic Models (DDPMs) を用いた合成指紋画像の生成について検討する。
以上の結果から,DiffFingerは高品質なトレーニングデータセットと競合するだけでなく,よりリッチなバイオメトリックデータも提供し,真から生への多様性を反映していることがわかった。
論文 参考訳(メタデータ) (2024-03-15T14:34:29Z) - Embedding Non-Distortive Cancelable Face Template Generation [22.80706131626207]
我々は、目では認識できないが、任意のカスタム埋め込みニューラルネットワークモデルで識別可能な顔画像を実現する革新的な画像歪み技術を導入する。
生体認証ネットワークの信頼性を,予測された同一性を変化させない最大画像歪みを判定することによって検証する。
論文 参考訳(メタデータ) (2024-02-04T15:39:18Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Generation of Non-Deterministic Synthetic Face Datasets Guided by
Identity Priors [19.095368725147367]
本稿では、StyleGANの構造化された潜在空間を利用して、マット付き顔画像を生成する非決定論的手法を提案する。
25,919個の合成IDを含む77,034個のサンプルからなる合成顔画像(SymFace)のデータセットを作成する。
論文 参考訳(メタデータ) (2021-12-07T11:08:47Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。