論文の概要: Privacy-Safe Iris Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2408.02750v1
- Date: Mon, 5 Aug 2024 18:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:58:20.613273
- Title: Privacy-Safe Iris Presentation Attack Detection
- Title(参考訳): プライバシセーフアイリス提示攻撃検出
- Authors: Mahsa Mitcheff, Patrick Tinsley, Adam Czajka,
- Abstract要約: 本稿では,プライバシセーフなアイリス提示攻撃検出(PAD)手法の枠組みを提案する。
合成生成したアイデンティティフリーの虹彩画像でのみ設計されている。
この手法は、最先端のアイリスPADベンチマークを用いて古典的な手法で評価される。
- 参考スコア(独自算出の注目度): 4.215251065887862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a framework for a privacy-safe iris presentation attack detection (PAD) method, designed solely with synthetically-generated, identity-leakage-free iris images. Once trained, the method is evaluated in a classical way using state-of-the-art iris PAD benchmarks. We designed two generative models for the synthesis of ISO/IEC 19794-6-compliant iris images. The first model synthesizes bona fide-looking samples. To avoid ``identity leakage,'' the generated samples that accidentally matched those used in the model's training were excluded. The second model synthesizes images of irises with textured contact lenses and is conditioned by a given contact lens brand to have better control over textured contact lens appearance when forming the training set. Our experiments demonstrate that models trained solely on synthetic data achieve a lower but still reasonable performance when compared to solutions trained with iris images collected from human subjects. This is the first-of-its-kind attempt to use solely synthetic data to train a fully-functional iris PAD solution, and despite the performance gap between regular and the proposed methods, this study demonstrates that with the increasing fidelity of generative models, creating such privacy-safe iris PAD methods may be possible. The source codes and generative models trained for this work are offered along with the paper.
- Abstract(参考訳): 本稿では,プライバシセーフなアイリス提示攻撃検出(PAD)手法を提案する。
トレーニングが完了すると、この手法は最先端のアイリスPADベンチマークを用いて古典的な方法で評価される。
我々はISO/IEC 19794-6準拠アイリス画像の合成のための2つの生成モデルを設計した。
最初のモデルは、ボナフィドのようなサンプルを合成する。
「同一性漏洩」を避けるため、モデルトレーニングで誤って使用されたものと一致した生成されたサンプルは除外された。
第2モデルは、アイライズ像をテクスチャ化されたコンタクトレンズで合成し、所定のコンタクトレンズブランドによって条件付けされ、トレーニングセットを形成する際のテクスチャ化されたコンタクトレンズ外観をよりよく制御できる。
実験の結果, 合成データのみを学習したモデルは, 人体から収集した虹彩画像を用いて学習した手法と比較して, 低いが妥当な性能が得られることがわかった。
本研究は, 完全機能アイリスPADソリューションのトレーニングに人工データのみを用いた最初の試みであり, 正規性と提案手法のパフォーマンス差にもかかわらず, 生成モデルの忠実度が増大するにつれて, このようなプライバシセーフなアイリスPAD手法が実現可能であることを実証する。
この作業のために訓練されたソースコードと生成モデルは、論文とともに提供されている。
関連論文リスト
- Synthetic Forehead-creases Biometric Generation for Reliable User Verification [6.639785884921617]
本稿では,前頭葉画像データを一意性やリアリズムといった重要な特徴を維持しつつ合成する新しい枠組みを提案する。
Fr'echet Inception Distance (FID) と構造類似度指数測定 (SSIM) を用いて、生成された額部画像の多様性と現実性を評価する。
論文 参考訳(メタデータ) (2024-08-28T10:33:00Z) - BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution [22.81354665006496]
合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-19T09:17:43Z) - Synthesizing Iris Images using Generative Adversarial Networks: Survey and Comparative Analysis [11.5164036021499]
本稿では,GANを用いた合成虹彩画像生成技術について概説する。
まず,合成虹彩生成に使用されてきた各種手法について検討し,StyleGAN,RaSGAN,CIT-GAN,iWarpGAN,StarGANなどに基づく発電機について検討した。
論文 参考訳(メタデータ) (2024-04-26T01:45:58Z) - Evaluating Text-to-Image Generative Models: An Empirical Study on Human Image Synthesis [21.619269792415903]
本稿では,テキスト・ツー・イメージ(T2I)生成モデルのためのニュアンス評価フレームワークを提案する。
まず,美学やリアリズムといったイメージの質に着目し,第2に,概念的カバレッジと公平性を通じてテキスト条件を検証した。
論文 参考訳(メタデータ) (2024-03-08T07:41:47Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Haven't I Seen You Before? Assessing Identity Leakage in Synthetic
Irises [4.142375560633827]
本稿では, GANトレーニングプロセスの様々な点における3つのアイリスマッチングの解析を行い, 実際のトレーニングサンプルが生成過程を通じて漏洩する危険のある場所と時期を診断する。
以上の結果から,ほとんどの合成サンプルは同一性漏洩の兆候を示していないが,生成したサンプルのごく一部は,ほぼ完璧に一致していることがわかった。
論文 参考訳(メタデータ) (2022-11-03T00:34:47Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves [62.997667081978825]
我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
論文 参考訳(メタデータ) (2021-11-05T10:53:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。