論文の概要: ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection
- arxiv url: http://arxiv.org/abs/2305.07602v1
- Date: Fri, 12 May 2023 16:51:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:11:42.904381
- Title: ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection
- Title(参考訳): ViT Unified:ジョイントフィンガープリント認識とプレゼンテーションアタック検出
- Authors: Steven A. Grosz, Kanishka P. Wijewardena, and Anil K. Jain
- Abstract要約: 我々は、視覚変換器のアーキテクチャを、関節スプーフ検出とマッチングに活用する。
我々は、シーケンシャルシステムと統一アーキテクチャの両方に対して、最先端のSOTA(State-of-the-art)モデルによる競合結果を報告する。
We demonstrate the capabilities of our unified model to achieve a average integrated matching (IM) accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensor。
- 参考スコア(独自算出の注目度): 36.05807963935458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A secure fingerprint recognition system must contain both a presentation
attack (i.e., spoof) detection and recognition module in order to protect users
against unwanted access by malicious users. Traditionally, these tasks would be
carried out by two independent systems; however, recent studies have
demonstrated the potential to have one unified system architecture in order to
reduce the computational burdens on the system, while maintaining high
accuracy. In this work, we leverage a vision transformer architecture for joint
spoof detection and matching and report competitive results with
state-of-the-art (SOTA) models for both a sequential system (two ViT models
operating independently) and a unified architecture (a single ViT model for
both tasks). ViT models are particularly well suited for this task as the ViT's
global embedding encodes features useful for recognition, whereas the
individual, local embeddings are useful for spoof detection. We demonstrate the
capability of our unified model to achieve an average integrated matching (IM)
accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensors. This is
comparable to IM accuracy of 98.95% of our sequential dual-ViT system, but with
~50% of the parameters and ~58% of the latency.
- Abstract(参考訳): セキュアな指紋認証システムは、悪意のあるユーザによる望ましくないアクセスからユーザを保護するために、プレゼンテーションアタック(spoof)検出と認識モジュールの両方を含む必要がある。
伝統的に、これらのタスクは2つの独立したシステムによって実行されるが、最近の研究では、高い精度を維持しつつ、システムの計算負荷を軽減するために、1つの統合システムアーキテクチャを持つ可能性を実証している。
本研究では,協調スプーフ検出およびマッチングのための視覚トランスフォーマーアーキテクチャを活用し,逐次システム(2つのVTモデルが独立に動作)と統合アーキテクチャ(両方のタスクに対して単一のVTモデル)の最先端(SOTA)モデルと競合する結果を報告する。
ViTモデルはこのタスクに特に適しており、ViTのグローバルな埋め込みエンコーディングは認識に有用な機能であるが、個々のローカル埋め込みはスプーフ検出に有用である。
我々は、livdet 2013 と 2015 年のクロスマッチセンサにおいて、平均統合マッチング(im)精度98.87%を達成するための統一モデルの能力を示す。
これは、シーケンシャルなデュアルViTシステムの98.95%のIM精度に匹敵するが、パラメータの約50%とレイテンシの約58%を持つ。
関連論文リスト
- Visual Agents as Fast and Slow Thinkers [88.6691504568041]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Towards Robust Vision Transformer via Masked Adaptive Ensemble [23.986968861837813]
対戦訓練(AT)は、敵攻撃に対するビジョントランスフォーマー(ViT)の堅牢性を向上させるのに役立つ。
本稿では,新たに開発した適応アンサンブルでブリッジされた検出器と分類器を含む新しいViTアーキテクチャを提案する。
CIFAR-10における我々のViTアーキテクチャは, それぞれ90.3%, 49.8%の正正正正正正正正正正正正正正正正正正正正正正正正正正正則を達成している。
論文 参考訳(メタデータ) (2024-07-22T05:28:29Z) - Joint Identity Verification and Pose Alignment for Partial Fingerprints [33.05877729161858]
本稿では,部分指紋ペアの協調識別とポーズアライメントのための新しいフレームワークを提案する。
本手法は,部分的指紋認証と相対的ポーズ推定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-07T02:45:50Z) - Evaluating the Efficacy of Prompt-Engineered Large Multimodal Models Versus Fine-Tuned Vision Transformers in Image-Based Security Applications [2.8161155726745237]
大規模マルチモーダルモデル(LMM)は、テキストや画像などの複数のモダリティを統合することで、複雑なデータを解釈し分析するように設計されている。
本稿では,視覚変換器(ViT)モデルと比較して,画像とテキストの両方を処理するプロンプトエンジニアリングLMMの適用性と有効性について検討する。
視覚的に明らかでないタスクでは、ViTモデルは25のマルウェアクラスの予測では97.11%、5つのマルウェアファミリーの予測では97.61%のF1スコアを達成した。
論文 参考訳(メタデータ) (2024-03-26T15:20:49Z) - Generalized Face Forgery Detection via Adaptive Learning for Pre-trained Vision Transformer [54.32283739486781]
適応学習パラダイムの下で,textbfForgery-aware textbfAdaptive textbfVision textbfTransformer(FA-ViT)を提案する。
FA-ViTは、クロスデータセット評価において、Celeb-DFおよびDFDCデータセット上で93.83%と78.32%のAUCスコアを達成する。
論文 参考訳(メタデータ) (2023-09-20T06:51:11Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - Fingerprint recognition with embedded presentation attacks detection:
are we ready? [6.0168714922994075]
セキュリティアプリケーションのための指紋認証システムの拡散は,ソフトウェアベースのプレゼンテーション攻撃アルゴリズム(PAD)をそのようなシステムに組み込むことを急ぐ。
現在の研究では、指紋認証システムに組み込む際の有効性についてはあまり言及されていない。
本稿では,PADと検証段階を逐次実施する場合の2つの個別システムの受信者動作特性(ROC)の関係を確率論的にモデル化した性能シミュレータを提案する。
論文 参考訳(メタデータ) (2021-10-20T13:53:16Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - A Unified Model for Fingerprint Authentication and Presentation Attack
Detection [1.9703625025720706]
一般的な指紋認識システムの動作を再構築する。
両タスクを同時に実行するためのspoof検出とマッチングのための統合モデルを提案する。
これにより、指紋認識システムの時間とメモリの要件をそれぞれ50%と40%削減できます。
論文 参考訳(メタデータ) (2021-04-07T16:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。