論文の概要: A Multi-domain Image Translative Diffusion StyleGAN for Iris Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2510.14314v1
- Date: Thu, 16 Oct 2025 05:21:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.732443
- Title: A Multi-domain Image Translative Diffusion StyleGAN for Iris Presentation Attack Detection
- Title(参考訳): アイリス提示検出のための多領域画像変換拡散型GAN
- Authors: Shivangi Yadav, Arun Ross,
- Abstract要約: アイリス生体認証システムは、人工眼、プリントアイイメージ、化粧コンタクトレンズなどの人工物がシステムに提示されるプレゼンテーションアタック(PA)によって妥協することができる。
MID-StyleGANは、複数の領域におけるPAおよびボナファイド特性をキャプチャする合成眼像を生成するための新しいフレームワークである。
実験により、MID-StyleGANは高品質な合成眼画像を生成する既存の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 6.369212768424994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An iris biometric system can be compromised by presentation attacks (PAs) where artifacts such as artificial eyes, printed eye images, or cosmetic contact lenses are presented to the system. To counteract this, several presentation attack detection (PAD) methods have been developed. However, there is a scarcity of datasets for training and evaluating iris PAD techniques due to the implicit difficulties in constructing and imaging PAs. To address this, we introduce the Multi-domain Image Translative Diffusion StyleGAN (MID-StyleGAN), a new framework for generating synthetic ocular images that captures the PA and bonafide characteristics in multiple domains such as bonafide, printed eyes and cosmetic contact lens. MID-StyleGAN combines the strengths of diffusion models and generative adversarial networks (GANs) to produce realistic and diverse synthetic data. Our approach utilizes a multi-domain architecture that enables the translation between bonafide ocular images and different PA domains. The model employs an adaptive loss function tailored for ocular data to maintain domain consistency. Extensive experiments demonstrate that MID-StyleGAN outperforms existing methods in generating high-quality synthetic ocular images. The generated data was used to significantly enhance the performance of PAD systems, providing a scalable solution to the data scarcity problem in iris and ocular biometrics. For example, on the LivDet2020 dataset, the true detect rate at 1% false detect rate improved from 93.41% to 98.72%, showcasing the impact of the proposed method.
- Abstract(参考訳): アイリス生体認証システムは、人工眼、プリントアイイメージ、化粧コンタクトレンズなどの人工物がシステムに提示されるプレゼンテーションアタック(PA)によって妥協することができる。
これに対抗するために、プレゼンテーションアタック検出法(PAD)が開発されている。
しかし,PAの構築と画像化において暗黙的な困難が伴うため,Iris PAD手法のトレーニングと評価のためのデータセットが不足している。
そこで本研究では, 合成眼画像を生成するMID-StyleGAN(Multi-domain Image Translative Diffusion StyleGAN)を紹介した。
MID-StyleGANは拡散モデルと生成敵ネットワーク(GAN)の強みを組み合わせて、現実的で多様な合成データを生成する。
本手法では,ボナフィドの眼像と異なるPAドメインとの変換が可能なマルチドメインアーキテクチャを用いる。
このモデルは、領域整合性を維持するために眼データに適した適応損失関数を用いる。
大規模な実験により、MID-StyleGANは高品質な合成眼画像を生成する既存の方法よりも優れていることが示された。
生成したデータはPADシステムの性能を著しく向上するために使用され、虹彩および眼生体計測におけるデータ不足問題に対するスケーラブルな解決策を提供する。
例えば、LivDet2020データセットでは、偽検出率1%の真の検出率は93.41%から98.72%に改善され、提案手法の影響を示している。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Dual-Domain CLIP-Assisted Residual Optimization Perception Model for Metal Artifact Reduction [9.028901322902913]
CT(Computed tomography)画像における金属遺物は,正確な臨床診断に重要な課題である。
深層学習に基づくアプローチ、特に生成モデルは、金属人工物還元(MAR)のために提案されている。
論文 参考訳(メタデータ) (2024-08-14T02:37:26Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Bi-LORA: A Vision-Language Approach for Synthetic Image Detection [14.448350657613364]
生成逆数ネットワーク(GAN)や拡散モデル(DM)のような深層画像合成技術は、非常に現実的な画像を生成する時代に定着してきた。
本稿では、視覚言語モデル(VLM)のゼロショット特性と相まって、視覚と言語の間の強力な収束能力から着想を得る。
我々は,VLMと低ランク適応(LORA)チューニング技術を組み合わせたBi-LORAと呼ばれる革新的な手法を導入し,未知のモデル生成画像に対する合成画像検出の精度を向上させる。
論文 参考訳(メタデータ) (2024-04-02T13:54:22Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - DiffBoost: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model [3.890243179348094]
医療応用のための堅牢で成功したディープラーニングモデルを開発するためには、大規模で大きな変動のある高品質なデータが不可欠である。
本稿では,DiffBoostと呼ばれる医用画像合成のための制御可能な拡散モデルを提案する。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - ViT-DAE: Transformer-driven Diffusion Autoencoder for Histopathology
Image Analysis [4.724009208755395]
高品質な病理画像合成のための視覚変換器(ViT)と拡散オートエンコーダを統合したViT-DAEを提案する。
提案手法は, 実写画像生成におけるGAN法とバニラDAE法より優れている。
論文 参考訳(メタデータ) (2023-04-03T15:00:06Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。