論文の概要: ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection
- arxiv url: http://arxiv.org/abs/2305.07602v1
- Date: Fri, 12 May 2023 16:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:11:42.904381
- Title: ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection
- Title(参考訳): ViT Unified:ジョイントフィンガープリント認識とプレゼンテーションアタック検出
- Authors: Steven A. Grosz, Kanishka P. Wijewardena, and Anil K. Jain
- Abstract要約: 我々は、視覚変換器のアーキテクチャを、関節スプーフ検出とマッチングに活用する。
我々は、シーケンシャルシステムと統一アーキテクチャの両方に対して、最先端のSOTA(State-of-the-art)モデルによる競合結果を報告する。
We demonstrate the capabilities of our unified model to achieve a average integrated matching (IM) accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensor。
- 参考スコア(独自算出の注目度): 36.05807963935458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A secure fingerprint recognition system must contain both a presentation
attack (i.e., spoof) detection and recognition module in order to protect users
against unwanted access by malicious users. Traditionally, these tasks would be
carried out by two independent systems; however, recent studies have
demonstrated the potential to have one unified system architecture in order to
reduce the computational burdens on the system, while maintaining high
accuracy. In this work, we leverage a vision transformer architecture for joint
spoof detection and matching and report competitive results with
state-of-the-art (SOTA) models for both a sequential system (two ViT models
operating independently) and a unified architecture (a single ViT model for
both tasks). ViT models are particularly well suited for this task as the ViT's
global embedding encodes features useful for recognition, whereas the
individual, local embeddings are useful for spoof detection. We demonstrate the
capability of our unified model to achieve an average integrated matching (IM)
accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensors. This is
comparable to IM accuracy of 98.95% of our sequential dual-ViT system, but with
~50% of the parameters and ~58% of the latency.
- Abstract(参考訳): セキュアな指紋認証システムは、悪意のあるユーザによる望ましくないアクセスからユーザを保護するために、プレゼンテーションアタック(spoof)検出と認識モジュールの両方を含む必要がある。
伝統的に、これらのタスクは2つの独立したシステムによって実行されるが、最近の研究では、高い精度を維持しつつ、システムの計算負荷を軽減するために、1つの統合システムアーキテクチャを持つ可能性を実証している。
本研究では,協調スプーフ検出およびマッチングのための視覚トランスフォーマーアーキテクチャを活用し,逐次システム(2つのVTモデルが独立に動作)と統合アーキテクチャ(両方のタスクに対して単一のVTモデル)の最先端(SOTA)モデルと競合する結果を報告する。
ViTモデルはこのタスクに特に適しており、ViTのグローバルな埋め込みエンコーディングは認識に有用な機能であるが、個々のローカル埋め込みはスプーフ検出に有用である。
我々は、livdet 2013 と 2015 年のクロスマッチセンサにおいて、平均統合マッチング(im)精度98.87%を達成するための統一モデルの能力を示す。
これは、シーケンシャルなデュアルViTシステムの98.95%のIM精度に匹敵するが、パラメータの約50%とレイテンシの約58%を持つ。
関連論文リスト
- ViT-Lens-2: Gateway to Omni-modal Intelligence [67.09687451702597]
ViT-Lens-2は、モダリティ増加の表現学習のためのフレームワークである。
ViT-Lens-2は3Dポイントクラウド,奥行き,オーディオ,触覚,脳波の表現を学習できることを示す。
ViT-Lens-2をシームレスにMultimodal Foundation Modelsに統合することにより、テキストと画像生成へのAny-modalityを可能にする。
論文 参考訳(メタデータ) (2023-11-27T18:52:09Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Untargeted Near-collision Attacks on Biometrics: Real-world Bounds and
Theoretical Limits [0.0]
オンラインとオフラインの両方、そして識別モードと検証モードの両方で実行できる未ターゲティングな攻撃に焦点を当てます。
我々は、これらのシステムのセキュリティに対処するために、False Match Rate(FMR)とFalse Positive Identification Rate(FPIR)を用いる。
この距離空間とシステムパラメータの研究は、標的外攻撃の複雑さと近接衝突の確率を与える。
論文 参考訳(メタデータ) (2023-04-04T07:17:31Z) - MoSFPAD: An end-to-end Ensemble of MobileNet and Support Vector
Classifier for Fingerprint Presentation Attack Detection [2.733700237741334]
本稿では,指紋攻撃を検知する新しいエンドツーエンドモデルを提案する。
提案モデルでは,MobileNetを特徴抽出器として,Support Vectorを分類器として組み込んだ。
提案モデルの性能を最先端の手法と比較する。
論文 参考訳(メタデータ) (2023-03-02T18:27:48Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - Analysis of Master Vein Attacks on Finger Vein Recognition Systems [42.63580709376905]
フィンガー静脈認識(FVR)システムは、特にATMで顧客の認証に使われている。
特に手作りのFVRシステムを使用する場合, 様々な攻撃方法に対するロバスト性を計測することが不可欠である。
私たちは、可能な限り多くの身元に一致するように静脈のように見える画像を作成するマスター静脈発作を導入した最初の文献である。
論文 参考訳(メタデータ) (2022-10-18T06:36:59Z) - Training-free Transformer Architecture Search [89.88412583106741]
Vision Transformer (ViT) はいくつかのコンピュータビジョンタスクで顕著な成功を収めた。
現在のTransformer Architecture Search (TAS) の手法は時間がかかり、既存のCNNのゼロコストプロキシはViT検索空間にうまく一般化していない。
本稿では,TASをトレーニング不要な方法で実施する方法を初めて検討し,効果的なトレーニング不要なTASスキームを考案する。
論文 参考訳(メタデータ) (2022-03-23T06:06:54Z) - Fingerprint recognition with embedded presentation attacks detection:
are we ready? [6.0168714922994075]
セキュリティアプリケーションのための指紋認証システムの拡散は,ソフトウェアベースのプレゼンテーション攻撃アルゴリズム(PAD)をそのようなシステムに組み込むことを急ぐ。
現在の研究では、指紋認証システムに組み込む際の有効性についてはあまり言及されていない。
本稿では,PADと検証段階を逐次実施する場合の2つの個別システムの受信者動作特性(ROC)の関係を確率論的にモデル化した性能シミュレータを提案する。
論文 参考訳(メタデータ) (2021-10-20T13:53:16Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - A Unified Model for Fingerprint Authentication and Presentation Attack
Detection [1.9703625025720706]
一般的な指紋認識システムの動作を再構築する。
両タスクを同時に実行するためのspoof検出とマッチングのための統合モデルを提案する。
これにより、指紋認識システムの時間とメモリの要件をそれぞれ50%と40%削減できます。
論文 参考訳(メタデータ) (2021-04-07T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。