論文の概要: Mobile Contactless Palmprint Recognition: Use of Multiscale, Multimodel
Embeddings
- arxiv url: http://arxiv.org/abs/2401.08111v1
- Date: Tue, 16 Jan 2024 04:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:00:02.822501
- Title: Mobile Contactless Palmprint Recognition: Use of Multiscale, Multimodel
Embeddings
- Title(参考訳): 移動型非接触型パームプリント認識:マルチスケールマルチモデル埋め込みの利用
- Authors: Steven A. Grosz, Akash Godbole and Anil K. Jain
- Abstract要約: 本研究では、視覚変換器(ViT)と畳み込みニューラルネットワーク(CNN)を統合し、補完的な局所的特徴とグローバル的特徴を抽出する。
次に、Palm-IDと呼ばれる、モバイルベースのエンドツーエンドのパームプリント認識システムを開発する。
Palm-IDは精度とレイテンシのトレードオフをバランスさせ、サイズ516バイトのテンプレートを抽出するのに18msしか必要としない。
- 参考スコア(独自算出の注目度): 26.774583290826193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contactless palmprints are comprised of both global and local discriminative
features. Most prior work focuses on extracting global features or local
features alone for palmprint matching, whereas this research introduces a novel
framework that combines global and local features for enhanced palmprint
matching accuracy. Leveraging recent advancements in deep learning, this study
integrates a vision transformer (ViT) and a convolutional neural network (CNN)
to extract complementary local and global features. Next, a mobile-based,
end-to-end palmprint recognition system is developed, referred to as Palm-ID.
On top of the ViT and CNN features, Palm-ID incorporates a palmprint
enhancement module and efficient dimensionality reduction (for faster
matching). Palm-ID balances the trade-off between accuracy and latency,
requiring just 18ms to extract a template of size 516 bytes, which can be
efficiently searched against a 10,000 palmprint gallery in 0.33ms on an AMD
EPYC 7543 32-Core CPU utilizing 128-threads. Cross-database matching protocols
and evaluations on large-scale operational datasets demonstrate the robustness
of the proposed method, achieving a TAR of 98.06% at FAR=0.01% on a newly
collected, time-separated dataset. To show a practical deployment of the
end-to-end system, the entire recognition pipeline is embedded within a mobile
device for enhanced user privacy and security.
- Abstract(参考訳): 接触のないヤシプリントは、グローバルとローカルの両方の差別的特徴から成り立っている。
本研究は, パームプリントマッチングのためのグローバルな特徴や局所的な特徴の抽出に焦点をあてる一方で, パームプリントマッチングの精度を高めるために, グローバルな特徴と局所的な特徴を組み合わせた新しい枠組みを導入する。
近年のディープラーニングの進歩を活かし,視覚トランスフォーマ(vit)と畳み込みニューラルネットワーク(cnn)を統合し,局所的およびグローバル的な特徴を補完的に抽出した。
次に、Palm-IDと呼ばれる、モバイルベースのエンドツーエンドのパームプリント認識システムを開発する。
ViTとCNNの機能に加えて、Palm-IDはパームプリント拡張モジュールと効率的な次元削減(高速マッチング)を備えている。
Palm-IDは精度とレイテンシのトレードオフをバランスさせ、サイズ516バイトのテンプレートを抽出するのに18msしか必要とせず、128スレッドを使用したAMD EPYC 7543 32-Core CPU上の0.33msのパームプリントギャラリーに対して効率よく検索できる。
大規模運用データセットのクロスデータベースマッチングプロトコルと評価は、提案手法の堅牢性を示し、新たに収集された時間分離データセット上で、FAR=0.01%で98.06%のTARを達成する。
エンド・ツー・エンドシステムの実用的展開を示すため、認識パイプライン全体がモバイルデバイスに埋め込まれ、ユーザのプライバシとセキュリティが向上する。
関連論文リスト
- Cross-Chirality Palmprint Verification: Left is Right for the Right Palmprint [11.388567430575783]
本稿では,従来のパームプリント検証システムにおける従来の知恵に挑戦する,新しいCCPVフレームワークを提案する。
通常、左右両方のヤシプリントを保存する必要がある既存の方法とは異なり、本手法では、ヤシプリントテンプレートを1つだけ保存しながら、ヤシプリントを使用することが可能である。
論文 参考訳(メタデータ) (2024-09-19T19:10:21Z) - Physics-Driven Spectrum-Consistent Federated Learning for Palmprint
Verification [47.35171881187345]
PSFed-Palmと呼ばれるパームプリント検証のための物理駆動型スペクトル一貫性フェデレート学習法を提案する。
提案手法は、まず、局所スペクトル画像の波長範囲に応じて、クライアントを短スペクトル群と長スペクトル群に分割する。
我々は,グローバルモデルとの整合性を確保するため,局所モデルに制約を課し,モデルドリフトを効果的に防止する。
論文 参考訳(メタデータ) (2023-08-01T11:01:17Z) - RPG-Palm: Realistic Pseudo-data Generation for Palmprint Recognition [26.82617300073746]
そこで本研究では,ヤシの指紋を大量に合成する現実的な擬似パルムプリント生成モデルを提案する。
我々のモデルは、TAR@FAR=1e-6の1:1$と1:3$のオープンセットプロトコルで、最先端のB'ezierPalmを5%以上、そして14%以上改善します。
この手法はArcFaceを100%の訓練データで上回り、実データフリーのパームプリント認識に近づきつつあることを示す。
論文 参考訳(メタデータ) (2023-07-26T07:57:56Z) - Accelerated Fingerprint Enhancement: A GPU-Optimized Mixed Architecture
Approach [47.87570819350573]
本論文は,Unet混在アーキテクチャを中心に設計された潜伏指紋強調への予備的アプローチを示す。
Resnet-101ネットワークとUnetエンコーダの能力を組み合わせることで、潜在的に強力なコンポジットを作ることを目指している。
このアプローチの革新的な要素の1つは、GPU計算用に特別に設計された新しいFingerprint Enhancement Gabor層である。
論文 参考訳(メタデータ) (2023-06-01T01:19:32Z) - AFR-Net: Attention-Driven Fingerprint Recognition Network [47.87570819350573]
指紋認識を含む生体認証における視覚変換器(ViT)の使用に関する初期研究を改善する。
ネットワーク内の中間特徴マップから抽出した局所的な埋め込みを用いて,グローバルな埋め込みを低確かさで洗練する手法を提案する。
この戦略は、既存のディープラーニングネットワーク(アテンションベース、CNNベース、あるいはその両方を含む)のラッパーとして適用することで、パフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2022-11-25T05:10:39Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Touchless Palmprint Recognition based on 3D Gabor Template and Block
Feature Refinement [28.991303988737503]
1167名から2334個のパームを含む大規模なタッチレスパームプリントデータセットを構築します。
われわれの知る限り、これは史上最大の接触なしヤシプリント画像ベンチマークである。
タッチレスパームプリント認識のための新しい深層学習フレームワーク3DCPNを提案する。
論文 参考訳(メタデータ) (2021-03-03T04:22:24Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - Towards Efficient Unconstrained Palmprint Recognition via Deep
Distillation Hashing [28.36096948563473]
効率的なパームプリント認識のためのベンチマークとして、ディープ蒸留ハッシュ (DDH) が提案されている。
パームプリント識別の精度は最大11.37%向上し、パームプリント検証のEER(Equal Error Rate)は最大3.11%削減できる。
論文 参考訳(メタデータ) (2020-04-07T12:15:04Z) - Towards Palmprint Verification On Smartphones [62.279124220123286]
過去20年間の研究によると、ヤシの印刷物は独特性と永続性に優れた効果がある。
我々はスマートフォン用のDeepMPV+というDCNNベースのパームプリント検証システムを構築した。
DeepMPV+の効率と有効性は広範な実験によって裏付けられている。
論文 参考訳(メタデータ) (2020-03-30T08:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。