論文の概要: Mitigating Presentation Attack using DCGAN and Deep CNN
- arxiv url: http://arxiv.org/abs/2207.00161v1
- Date: Wed, 22 Jun 2022 19:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 15:25:56.732429
- Title: Mitigating Presentation Attack using DCGAN and Deep CNN
- Title(参考訳): DCGANとDeep CNNによるプレゼンテーションアタックの緩和
- Authors: Nyle Siddiqui, Rushit Dave
- Abstract要約: 本研究の目的は,プレゼンテーションアタックを防止できる領域を特定することである。
我々の研究は、実際の画像集合から光リアルな合成画像を生成することに焦点を当てている。
3種類の生体画像データセットにディープニューラルネット技術を適用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric based authentication is currently playing an essential role over
conventional authentication system; however, the risk of presentation attacks
subsequently rising. Our research aims at identifying the areas where
presentation attack can be prevented even though adequate biometric image
samples of users are limited. Our work focusses on generating photorealistic
synthetic images from the real image sets by implementing Deep Convolution
Generative Adversarial Net (DCGAN). We have implemented the temporal and
spatial augmentation during the fake image generation. Our work detects the
presentation attacks on facial and iris images using our deep CNN, inspired by
VGGNet [1]. We applied the deep neural net techniques on three different
biometric image datasets, namely MICHE I [2], VISOB [3], and UBIPr [4]. The
datasets, used in this research, contain images that are captured both in
controlled and uncontrolled environment along with different resolutions and
sizes. We obtained the best test accuracy of 97% on UBI-Pr [4] Iris datasets.
For MICHE-I [2] and VISOB [3] datasets, we achieved the test accuracies of 95%
and 96% respectively.
- Abstract(参考訳): バイオメトリックベースの認証は、従来の認証システムよりも重要な役割を担っているが、その後のプレゼンテーション攻撃のリスクは増大している。
本研究は,ユーザのバイオメトリック画像サンプルが限られていても,プレゼンテーション攻撃を防止できる領域を特定することを目的とする。
本研究は,Deep Convolution Generative Adversarial Net (DCGAN)を実装することで,実画像集合からフォトリアリスティックな合成画像を生成することに焦点を当てる。
我々は、フェイク画像生成中に時間的・空間的拡張を実装した。
本研究は,VGGNet [1] に触発された深部CNNを用いて,顔および虹彩画像の提示攻撃を検出する。
深層ニューラルネットワークの手法を,miche i [2],visob [3],ubipr [4]の3種類のバイオメトリック画像データセットに適用した。
この研究で使用されるデータセットには、さまざまな解像度とサイズとともに、制御された環境と制御されていない環境の両方でキャプチャされるイメージが含まれている。
ubi-pr [4] irisデータセットにおけるテスト精度は97%であった。
MICHE-I [2] と VISOB [3] データセットでは, それぞれ95%, 96%の精度で実験を行った。
関連論文リスト
- Embedding Non-Distortive Cancelable Face Template Generation [22.80706131626207]
我々は、目では認識できないが、任意のカスタム埋め込みニューラルネットワークモデルで識別可能な顔画像を実現する革新的な画像歪み技術を導入する。
生体認証ネットワークの信頼性を,予測された同一性を変化させない最大画像歪みを判定することによって検証する。
論文 参考訳(メタデータ) (2024-02-04T15:39:18Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Presentation Attack Detection using Convolutional Neural Networks and
Local Binary Patterns [7.946115381584211]
プレゼンテーション攻撃は、実行にかなりの時間、費用、スキルを必要としないため、深刻な脅威である。
本研究は,画像における顔および虹彩提示攻撃検出のための3つの異なるソフトウェアベース手法を比較した。
論文 参考訳(メタデータ) (2023-11-23T20:57:07Z) - Presentation Attack detection using Wavelet Transform and Deep Residual
Neural Net [5.425986555749844]
生体計測物質は、いくつかの方法でインポスタによって騙されることがある。
バイオメトリック画像、特に虹彩と顔は、異なる提示攻撃に対して脆弱である。
本研究では,生体情報アクセス制御システムにおけるプレゼンテーションアタックの軽減にディープラーニングアプローチを適用した。
論文 参考訳(メタデータ) (2023-11-23T20:21:49Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - An Efficient Ensemble Explainable AI (XAI) Approach for Morphed Face
Detection [1.2599533416395763]
深層学習予測モデル(EfficientNet-Grad1)のより包括的な視覚的説明を提供するために,Ensemble XAIという新しい視覚的説明手法を提案する。
実験は、Face Research Lab London Set、Wide Multi-Channel Presentation Attack (WMCA)、Makeup induced Face Spoofing (MIFS)の3つの公開データセットで実施された。
論文 参考訳(メタデータ) (2023-04-23T13:43:06Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Generalized Iris Presentation Attack Detection Algorithm under
Cross-Database Settings [63.90855798947425]
プレゼンテーションアタックは、バイオメトリックなモダリティの大部分に大きな課題をもたらす。
本稿では,汎用的な深層学習に基づくプレゼンテーション攻撃検出ネットワークであるMVANetを提案する。
これはハイブリッドアルゴリズムの単純さと成功、あるいは複数の検出ネットワークの融合にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-25T22:42:27Z) - Deep convolutional neural networks for face and iris presentation attack
detection: Survey and case study [0.5801044612920815]
顔PADのクロスデータセット評価は,術式よりも一般化が良好であった。
顔と虹彩の両方の攻撃を検出するために訓練された1つのディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-25T02:06:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。