論文の概要: Privacy-Safe Iris Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2408.02750v1
- Date: Mon, 5 Aug 2024 18:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:58:20.613273
- Title: Privacy-Safe Iris Presentation Attack Detection
- Title(参考訳): プライバシセーフアイリス提示攻撃検出
- Authors: Mahsa Mitcheff, Patrick Tinsley, Adam Czajka,
- Abstract要約: 本稿では,プライバシセーフなアイリス提示攻撃検出(PAD)手法の枠組みを提案する。
合成生成したアイデンティティフリーの虹彩画像でのみ設計されている。
この手法は、最先端のアイリスPADベンチマークを用いて古典的な手法で評価される。
- 参考スコア(独自算出の注目度): 4.215251065887862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a framework for a privacy-safe iris presentation attack detection (PAD) method, designed solely with synthetically-generated, identity-leakage-free iris images. Once trained, the method is evaluated in a classical way using state-of-the-art iris PAD benchmarks. We designed two generative models for the synthesis of ISO/IEC 19794-6-compliant iris images. The first model synthesizes bona fide-looking samples. To avoid ``identity leakage,'' the generated samples that accidentally matched those used in the model's training were excluded. The second model synthesizes images of irises with textured contact lenses and is conditioned by a given contact lens brand to have better control over textured contact lens appearance when forming the training set. Our experiments demonstrate that models trained solely on synthetic data achieve a lower but still reasonable performance when compared to solutions trained with iris images collected from human subjects. This is the first-of-its-kind attempt to use solely synthetic data to train a fully-functional iris PAD solution, and despite the performance gap between regular and the proposed methods, this study demonstrates that with the increasing fidelity of generative models, creating such privacy-safe iris PAD methods may be possible. The source codes and generative models trained for this work are offered along with the paper.
- Abstract(参考訳): 本稿では,プライバシセーフなアイリス提示攻撃検出(PAD)手法を提案する。
トレーニングが完了すると、この手法は最先端のアイリスPADベンチマークを用いて古典的な方法で評価される。
我々はISO/IEC 19794-6準拠アイリス画像の合成のための2つの生成モデルを設計した。
最初のモデルは、ボナフィドのようなサンプルを合成する。
「同一性漏洩」を避けるため、モデルトレーニングで誤って使用されたものと一致した生成されたサンプルは除外された。
第2モデルは、アイライズ像をテクスチャ化されたコンタクトレンズで合成し、所定のコンタクトレンズブランドによって条件付けされ、トレーニングセットを形成する際のテクスチャ化されたコンタクトレンズ外観をよりよく制御できる。
実験の結果, 合成データのみを学習したモデルは, 人体から収集した虹彩画像を用いて学習した手法と比較して, 低いが妥当な性能が得られることがわかった。
本研究は, 完全機能アイリスPADソリューションのトレーニングに人工データのみを用いた最初の試みであり, 正規性と提案手法のパフォーマンス差にもかかわらず, 生成モデルの忠実度が増大するにつれて, このようなプライバシセーフなアイリスPAD手法が実現可能であることを実証する。
この作業のために訓練されたソースコードと生成モデルは、論文とともに提供されている。
関連論文リスト
- DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
そして、学習したアーティファクト検出器を第2段階に巻き込み、各画像に画素ごとの信頼マップを割り当てて拡散モデルをチューニングする。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Synthetic Forehead-creases Biometric Generation for Reliable User Verification [6.639785884921617]
本稿では,前頭葉画像データを一意性やリアリズムといった重要な特徴を維持しつつ合成する新しい枠組みを提案する。
Fr'echet Inception Distance (FID) と構造類似度指数測定 (SSIM) を用いて、生成された額部画像の多様性と現実性を評価する。
論文 参考訳(メタデータ) (2024-08-28T10:33:00Z) - Guided Score identity Distillation for Data-Free One-Step Text-to-Image Generation [62.30570286073223]
拡散に基づくテキスト・画像生成モデルは、テキスト記述と整合した画像を生成する能力を実証している。
本研究では, 実データにアクセスすることなく, 事前学習した拡散モデルの効率的な蒸留を可能にする, データフリーガイド蒸留法を提案する。
データフリー蒸留法は, 1ステップ生成装置で生成した合成画像のみをトレーニングすることにより, FIDとCLIPのスコアを急速に向上させ, 競争力のあるCLIPスコアを維持しつつ, 最先端のFID性能を実現する。
論文 参考訳(メタデータ) (2024-06-03T17:44:11Z) - BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution [22.81354665006496]
合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-19T09:17:43Z) - Synthesizing Iris Images using Generative Adversarial Networks: Survey and Comparative Analysis [11.5164036021499]
本稿では,GANを用いた合成虹彩画像生成技術について概説する。
まず,合成虹彩生成に使用されてきた各種手法について検討し,StyleGAN,RaSGAN,CIT-GAN,iWarpGAN,StarGANなどに基づく発電機について検討した。
論文 参考訳(メタデータ) (2024-04-26T01:45:58Z) - Evaluating Text-to-Image Generative Models: An Empirical Study on Human Image Synthesis [21.619269792415903]
本稿では,テキスト・ツー・イメージ(T2I)生成モデルのためのニュアンス評価フレームワークを提案する。
まず,美学やリアリズムといったイメージの質に着目し,第2に,概念的カバレッジと公平性を通じてテキスト条件を検証した。
論文 参考訳(メタデータ) (2024-03-08T07:41:47Z) - Haven't I Seen You Before? Assessing Identity Leakage in Synthetic
Irises [4.142375560633827]
本稿では, GANトレーニングプロセスの様々な点における3つのアイリスマッチングの解析を行い, 実際のトレーニングサンプルが生成過程を通じて漏洩する危険のある場所と時期を診断する。
以上の結果から,ほとんどの合成サンプルは同一性漏洩の兆候を示していないが,生成したサンプルのごく一部は,ほぼ完璧に一致していることがわかった。
論文 参考訳(メタデータ) (2022-11-03T00:34:47Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves [62.997667081978825]
我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
論文 参考訳(メタデータ) (2021-11-05T10:53:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。