論文の概要: Presentation Attack Detection using Convolutional Neural Networks and
Local Binary Patterns
- arxiv url: http://arxiv.org/abs/2312.00041v1
- Date: Thu, 23 Nov 2023 20:57:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:58:41.710787
- Title: Presentation Attack Detection using Convolutional Neural Networks and
Local Binary Patterns
- Title(参考訳): 畳み込みニューラルネットワークと局所バイナリパターンを用いたプレゼンテーションアタック検出
- Authors: Justin Spencer, Deborah Lawrence, Prosenjit Chatterjee, Kaushik Roy,
Albert Esterline, and Jung-Hee Kim
- Abstract要約: プレゼンテーション攻撃は、実行にかなりの時間、費用、スキルを必要としないため、深刻な脅威である。
本研究は,画像における顔および虹彩提示攻撃検出のための3つの異なるソフトウェアベース手法を比較した。
- 参考スコア(独自算出の注目度): 7.946115381584211
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The use of biometrics to authenticate users and control access to secure
areas has become extremely popular in recent years, and biometric access
control systems are frequently used by both governments and private
corporations. However, these systems may represent risks to security when
deployed without considering the possibility of biometric presentation attacks
(also known as spoofing). Presentation attacks are a serious threat because
they do not require significant time, expense, or skill to carry out while
remaining effective against many biometric systems in use today. This research
compares three different software-based methods for facial and iris
presentation attack detection in images. The first method uses Inception-v3, a
pre-trained deep Convolutional Neural Network (CNN) made by Google for the
ImageNet challenge, which is retrained for this problem. The second uses a
shallow CNN based on a modified Spoofnet architecture, which is trained
normally. The third is a texture-based method using Local Binary Patterns
(LBP). The datasets used are the ATVS-FIr dataset, which contains real and fake
iris images, and the CASIA Face Anti-Spoofing Dataset, which contains real
images as well as warped photos, cut photos, and video replay presentation
attacks. We also present a third set of results, based on cropped versions of
the CASIA images.
- Abstract(参考訳): 近年,ユーザ認証や安全な地域へのアクセス制御にバイオメトリックスを用いることが盛んになり,政府や民間企業でもバイオメトリック・アクセス制御システムが頻繁に利用されている。
しかし、これらのシステムは生体情報提示攻撃(spoofing)の可能性を考慮せずに、配備時にセキュリティのリスクを表わす可能性がある。
プレゼンテーション攻撃は、現在使用されている多くの生体認証システムに対して有効でありながら実行に要する時間、費用、技術を必要としないため、深刻な脅威である。
本研究は,画像における顔および虹彩提示攻撃検出のための3つの異なるソフトウェアベース手法を比較した。
最初の方法は、GoogleがImageNetチャレンジのために開発した、事前トレーニング済みの深層畳み込みニューラルネットワーク(CNN)であるInception-v3を使用する。
2つ目は、修正されたSpofnetアーキテクチャに基づいた浅いCNNを使用する。
第3は,ローカルバイナリパターン(lbp)を用いたテクスチャベースの手法である。
使用されるデータセットは、実画像と偽画像を含むatvs-firデータセットと、実際の画像だけでなく、歪んだ写真、カットされた写真、ビデオリプレイのプレゼンテーション攻撃を含むcasia face anti-spoofingデータセットである。
また,casia画像の切り抜きバージョンに基づいて,第3の結果を提示する。
関連論文リスト
- Liveness Detection in Computer Vision: Transformer-based Self-Supervised Learning for Face Anti-Spoofing [0.0]
顔認識システムは、攻撃者が写真、ビデオ、マスクを使って正当なユーザーを偽装する攻撃に対して脆弱である。
この研究は、DINOフレームワークで微調整されたVision Transformer (ViT)アーキテクチャを探索することで、これらの脆弱性に対処する。
論文 参考訳(メタデータ) (2024-06-19T21:44:43Z) - Presentation Attack detection using Wavelet Transform and Deep Residual
Neural Net [5.425986555749844]
生体計測物質は、いくつかの方法でインポスタによって騙されることがある。
バイオメトリック画像、特に虹彩と顔は、異なる提示攻撃に対して脆弱である。
本研究では,生体情報アクセス制御システムにおけるプレゼンテーションアタックの軽減にディープラーニングアプローチを適用した。
論文 参考訳(メタデータ) (2023-11-23T20:21:49Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - An Efficient Ensemble Explainable AI (XAI) Approach for Morphed Face
Detection [1.2599533416395763]
深層学習予測モデル(EfficientNet-Grad1)のより包括的な視覚的説明を提供するために,Ensemble XAIという新しい視覚的説明手法を提案する。
実験は、Face Research Lab London Set、Wide Multi-Channel Presentation Attack (WMCA)、Makeup induced Face Spoofing (MIFS)の3つの公開データセットで実施された。
論文 参考訳(メタデータ) (2023-04-23T13:43:06Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Synthetic ID Card Image Generation for Improving Presentation Attack
Detection [12.232059909207578]
本研究は,不正検出ネットワークを訓練しながら,データ量を増やすために,IDカード画像を合成的に生成する3つの手法について検討する。
以上の結果から, PAIS (Print/Scan Presentation Attack Instrument Species) の性能低下や, PAIS (Sing/Scan Presentation Instrument Species) の性能低下を伴わずに, 合成画像でデータベースを補足できることが示唆された。
論文 参考訳(メタデータ) (2022-10-31T19:07:30Z) - Mitigating Presentation Attack using DCGAN and Deep CNN [0.0]
本研究の目的は,プレゼンテーションアタックを防止できる領域を特定することである。
我々の研究は、実際の画像集合から光リアルな合成画像を生成することに焦点を当てている。
3種類の生体画像データセットにディープニューラルネット技術を適用した。
論文 参考訳(メタデータ) (2022-06-22T19:40:08Z) - Facial Masks and Soft-Biometrics: Leveraging Face Recognition CNNs for
Age and Gender Prediction on Mobile Ocular Images [53.913598771836924]
スマートフォンで撮影した自撮り眼画像を使って年齢や性別を推定します。
ImageNet Challengeの文脈で提案された2つの既存の軽量CNNを適応させる。
一部のネットワークは顔認識のためにさらにトレーニングされており、非常に大規模なトレーニングデータベースが利用可能です。
論文 参考訳(メタデータ) (2021-03-31T01:48:29Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。