論文の概要: RidgeBase: A Cross-Sensor Multi-Finger Contactless Fingerprint Dataset
- arxiv url: http://arxiv.org/abs/2307.05563v1
- Date: Sun, 9 Jul 2023 22:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 16:16:48.109264
- Title: RidgeBase: A Cross-Sensor Multi-Finger Contactless Fingerprint Dataset
- Title(参考訳): ridgebase: クロスセンサー多指非接触指紋データセット
- Authors: Bhavin Jawade, Deen Dayal Mohan, Srirangaraj Setlur, Nalini Ratha and
Venu Govindaraju
- Abstract要約: RidgeBaseは、88人の個人から取得された15,000以上の接触のない指紋と接触ベースの指紋画像のペアで構成されている。
既存のデータセットとは異なり、RageBaseは異なるマッチングシナリオ下での研究を促進するように設計されている。
本稿では,顔認識データセットの進歩に触発されたセットベースマッチングプロトコルを提案する。
- 参考スコア(独自算出の注目度): 10.219621548854343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contactless fingerprint matching using smartphone cameras can alleviate major
challenges of traditional fingerprint systems including hygienic acquisition,
portability and presentation attacks. However, development of practical and
robust contactless fingerprint matching techniques is constrained by the
limited availability of large scale real-world datasets. To motivate further
advances in contactless fingerprint matching across sensors, we introduce the
RidgeBase benchmark dataset. RidgeBase consists of more than 15,000 contactless
and contact-based fingerprint image pairs acquired from 88 individuals under
different background and lighting conditions using two smartphone cameras and
one flatbed contact sensor. Unlike existing datasets, RidgeBase is designed to
promote research under different matching scenarios that include Single Finger
Matching and Multi-Finger Matching for both contactless- to-contactless (CL2CL)
and contact-to-contactless (C2CL) verification and identification. Furthermore,
due to the high intra-sample variance in contactless fingerprints belonging to
the same finger, we propose a set-based matching protocol inspired by the
advances in facial recognition datasets. This protocol is specifically designed
for pragmatic contactless fingerprint matching that can account for variances
in focus, polarity and finger-angles. We report qualitative and quantitative
baseline results for different protocols using a COTS fingerprint matcher
(Verifinger) and a Deep CNN based approach on the RidgeBase dataset. The
dataset can be downloaded here:
https://www.buffalo.edu/cubs/research/datasets/ridgebase-benchmark-dataset.html
- Abstract(参考訳): スマートフォンカメラを用いた非接触指紋マッチングは、衛生的取得、ポータビリティ、プレゼンテーションアタックを含む従来の指紋システムの大きな課題を軽減することができる。
しかし、実用的で堅牢な非接触指紋マッチング技術の開発は、大規模な実世界のデータセットの可用性に制限されている。
センサ間の非接触指紋マッチングのさらなる進歩を動機付けるために, ridgebaseベンチマークデータセットを紹介する。
RidgeBaseは、異なる背景と照明条件下で88人の個人から2台のスマートフォンカメラと1台のフラットベッドコンタクトセンサーで取得された15,000以上のコンタクトレスとコンタクトベースの指紋画像からなる。
既存のデータセットとは異なり、RageBaseは、コンタクトレス・トゥ・コンタクトレス(CL2CL)とコンタクト・トゥ・コンタクトレス(C2CL)の検証と識別のためのシングルフィンガーマッチングとマルチフィンガーマッチングを含む、異なるマッチングシナリオ下での研究を促進するように設計されている。
さらに,同一指に属する非接触指紋のサンプル内ばらつきが高いため,顔認識データセットの進歩に触発されたセットベースマッチングプロトコルを提案する。
このプロトコルは、焦点、極性、指角のばらつきを考慮できる実用的な非接触指紋マッチングのために特別に設計されている。
我々は,COTS指紋マーカ(Verifinger)とDep CNNに基づくRageBaseデータセットに基づくアプローチを用いて,異なるプロトコルに対する質的,定量的なベースライン結果について報告する。
データセットは以下にダウンロードできる。 https://www.buffalo.edu/cubs/research/datasets/ridgebase-benchmark-dataset。
関連論文リスト
- EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - Joint Identity Verification and Pose Alignment for Partial Fingerprints [33.05877729161858]
本稿では,部分指紋ペアの協調識別とポーズアライメントのための新しいフレームワークを提案する。
本手法は,部分的指紋認証と相対的ポーズ推定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-07T02:45:50Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - A Universal Latent Fingerprint Enhancer Using Transformers [47.87570819350573]
本研究の目的は,ULPrintと呼ばれる高速なフィンガープリント方式を開発し,様々な潜伏指紋のタイプを増強することである。
クローズドセットの識別精度実験では、MSU-AFISの性能は61.56%から75.19%に向上した。
論文 参考訳(メタデータ) (2023-05-31T23:01:11Z) - Presentation Attack Detection with Advanced CNN Models for
Noncontact-based Fingerprint Systems [5.022332693793425]
我々は,7500枚以上の4指画像の提示攻撃検出(PAD)データセットを開発した。
攻撃提示分類誤り率(APCER)0.14%とボナフィド提示分類誤り率(BPCER)0.18%のPAD精度について検討した。
論文 参考訳(メタデータ) (2023-03-09T18:01:10Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - FIGO: Enhanced Fingerprint Identification Approach Using GAN and One
Shot Learning Techniques [0.0]
本稿では,生成逆数ネットワークとワンショット学習技術に基づく指紋識別手法を提案する。
まず,低画質の指紋画像を,指紋強調層に直接画素を向けて高レベルの指紋画像に変換するPix2Pixモデルを提案する。
第2に,指紋識別プロセスにおいて,各指紋を他の指紋と区別するために,ワンショット学習アプローチを用いた完全自動指紋特徴抽出モデルを構築した。
論文 参考訳(メタデータ) (2022-08-11T02:45:42Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - A Contactless Fingerprint Recognition System [5.565364597145569]
距離から指紋をキャプチャする非接触指紋認識システムを開発するためのアプローチを提案する。
キャプチャされたフィンガー写真はさらに処理され、グローバルおよびローカルな機能(ミニチュアベース)が取得される。
提案システムはNvidia Jetson Nano開発キットを用いて開発され,非接触指紋認識をリアルタイムで行うことができる。
論文 参考訳(メタデータ) (2021-08-20T08:21:55Z) - C2CL: Contact to Contactless Fingerprint Matching [38.95044919159418]
本稿では,モバイルフィンガー写真キャプチャアプリ,プリプロセッシング,マッチングアルゴリズムを組み合わせた,C2CLと呼ばれるエンドツーエンド自動システムを提案する。
公開されている3つのデータセットに関する実験結果は、既存のコンタクト指紋マッチングシステムと同等の非接触指紋マッチング精度を初めて実証する。
論文 参考訳(メタデータ) (2021-04-06T21:52:46Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。