論文の概要: IFViT: Interpretable Fixed-Length Representation for Fingerprint Matching via Vision Transformer
- arxiv url: http://arxiv.org/abs/2404.08237v1
- Date: Fri, 12 Apr 2024 04:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 15:55:31.075544
- Title: IFViT: Interpretable Fixed-Length Representation for Fingerprint Matching via Vision Transformer
- Title(参考訳): IFViT:視覚変換器による指紋照合のための解釈可能な固定長表現
- Authors: Yuhang Qiu, Honghui Chen, Xingbo Dong, Zheng Lin, Iman Yi Liao, Massimo Tistarelli, Zhe Jin,
- Abstract要約: Vision Transformer (IFViT) を用いた指紋照合のための多段階対応指紋マッチングネットワークを提案する。
解釈可能な高密度登録モジュールである最初のモジュールは、ViT(Vision Transformer)ベースのSiamese Networkを確立し、指紋ペア内の長距離依存関係とグローバルコンテキストをキャプチャする。
第2のモジュールは、整列されたフィンガーペアの局所的および大域的表現を考慮に入れ、解釈可能な固定長表現抽出とマッチングを実現する。
- 参考スコア(独自算出の注目度): 18.481207354858533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Determining dense feature points on fingerprints used in constructing deep fixed-length representations for accurate matching, particularly at the pixel level, is of significant interest. To explore the interpretability of fingerprint matching, we propose a multi-stage interpretable fingerprint matching network, namely Interpretable Fixed-length Representation for Fingerprint Matching via Vision Transformer (IFViT), which consists of two primary modules. The first module, an interpretable dense registration module, establishes a Vision Transformer (ViT)-based Siamese Network to capture long-range dependencies and the global context in fingerprint pairs. It provides interpretable dense pixel-wise correspondences of feature points for fingerprint alignment and enhances the interpretability in the subsequent matching stage. The second module takes into account both local and global representations of the aligned fingerprint pair to achieve an interpretable fixed-length representation extraction and matching. It employs the ViTs trained in the first module with the additional fully connected layer and retrains them to simultaneously produce the discriminative fixed-length representation and interpretable dense pixel-wise correspondences of feature points. Extensive experimental results on diverse publicly available fingerprint databases demonstrate that the proposed framework not only exhibits superior performance on dense registration and matching but also significantly promotes the interpretability in deep fixed-length representations-based fingerprint matching.
- Abstract(参考訳): 指紋の高密度特徴点の決定は、特に画素レベルでの正確なマッチングのために、深い固定長の表現を構築するために用いられる。
指紋マッチングの解釈可能性を探るため,2つの主要モジュールからなるIFViTによる指紋マッチングのための多段階対応型指紋マッチングネットワークを提案する。
解釈可能な高密度登録モジュールである最初のモジュールは、ViT(Vision Transformer)ベースのSiamese Networkを確立し、指紋ペア内の長距離依存関係とグローバルコンテキストをキャプチャする。
指紋アライメントのための特徴点の解釈可能な高密度画素対応を提供し、その後のマッチング段階における解釈可能性を高める。
第2のモジュールは、整列されたフィンガーペアの局所的および大域的表現を考慮に入れ、解釈可能な固定長表現抽出とマッチングを実現する。
第1のモジュールでトレーニングされたViTに、追加の完全連結層を追加し、それらを再訓練して、識別的固定長表現と、特徴点の高密度ピクセルワイド対応を同時に生成する。
各種公開指紋データベースの広範な実験結果から,提案手法は密度登録とマッチングにおいて優れた性能を示すだけでなく,深部固定長表現に基づく指紋マッチングの解釈可能性も著しく向上することが示された。
関連論文リスト
- Decomposing and Interpreting Image Representations via Text in ViTs Beyond CLIP [53.18562650350898]
私たちは、CLIP以外のViTにおける様々なコンポーネントの役割を識別できる一般的なフレームワークを紹介します。
また,特定の特徴について重要な要素をランク付けするための新しいスコアリング機能も導入する。
フレームワークをさまざまなViT変種に適用することで、特定の画像機能に関するさまざまなコンポーネントの役割について、洞察を得ることができます。
論文 参考訳(メタデータ) (2024-06-03T17:58:43Z) - Joint Identity Verification and Pose Alignment for Partial Fingerprints [33.05877729161858]
本稿では,部分指紋ペアの協調識別とポーズアライメントのための新しいフレームワークを提案する。
本手法は,部分的指紋認証と相対的ポーズ推定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-07T02:45:50Z) - Fixed-length Dense Descriptor for Efficient Fingerprint Matching [33.808749518785]
指紋照合のためのFDD(Fixed-length Dense Descriptor)と呼ばれる3次元表現を提案する。
FDDは優れた空間特性を備えており、元の指紋の空間的関係を捉えることができる。
各種指紋データを用いた実験により,FDDが他の固定長ディスクリプタよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-30T14:15:39Z) - Benchmarking fixed-length Fingerprint Representations across different
Embedding Sizes and Sensor Types [13.715060479044167]
指紋から固定長埋め込みを抽出するディープニューラルネットワークが提案されている。
本研究では,2種類のセンサに対する指紋テクスチャ情報の認識性能に与える影響について検討した。
論文 参考訳(メタデータ) (2023-07-17T16:30:44Z) - Revisiting Multimodal Representation in Contrastive Learning: From Patch
and Token Embeddings to Finite Discrete Tokens [76.40196364163663]
本稿では,CLIPのような学習型視覚言語事前学習手法を提案する。
提案手法は,より包括的な表現を学習し,意味のある相互対応を捉えることができることを示す。
論文 参考訳(メタデータ) (2023-03-27T00:58:39Z) - Self-Sufficient Framework for Continuous Sign Language Recognition [75.60327502570242]
この作業の目標は、継続的手話認識のための自己充足型のフレームワークを開発することです。
これには、理解のための手、顔、口などの複雑なマルチスケール機能、フレームレベルのアノテーションの欠如が含まれる。
ネットワークやアノテーションを必要とせずに手動と非手動の両方の機能を抽出するDivide and Focus Convolution (DFConv)を提案する。
DPLRは、基底真理グロスシーケンスラベルと予測シーケンスを組み合わせることにより、非スパイクフレームレベルの擬似ラベルを伝搬する。
論文 参考訳(メタデータ) (2023-03-21T11:42:57Z) - Self-supervised Character-to-Character Distillation for Text Recognition [54.12490492265583]
そこで本研究では,テキスト表現学習を容易にする汎用的な拡張を可能にする,自己教師型文字-文字-文字間蒸留法CCDを提案する。
CCDは、テキスト認識の1.38%、テキストセグメンテーションの1.7%、PSNRの0.24dB、超解像の0.0321(SSIM)で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-01T05:48:18Z) - Learning an Ensemble of Deep Fingerprint Representations [40.90173373640335]
ディープニューラルネットワーク(DNN)は、指紋から一定の長さの表現を学習する上で、驚くべき可能性を示しています。
指紋に含まれるすべての識別情報を包括的にカプセル化する普遍的な表現は存在しない。
入力画像の異なる変換に基づいてDeepPrintの複数のインスタンスをトレーニングし、指紋埋め込みのアンサンブルを生成する。
また,これらの複数の表現を単一の埋め込みに蒸留する特徴融合手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T15:08:33Z) - Pair-Relationship Modeling for Latent Fingerprint Recognition [25.435974669629374]
本稿では,2つの指紋のペア関係を認識の類似性として直接モデル化する手法を提案する。
2つのデータベースに対する実験結果から,提案手法が技術状況より優れていることが示された。
論文 参考訳(メタデータ) (2022-07-02T11:31:31Z) - Intriguing Properties of Vision Transformers [114.28522466830374]
視覚変換器(ViT)は、様々なマシンビジョン問題にまたがって印象的な性能を誇示している。
我々は、この問題を広範囲の実験を通して体系的に研究し、高性能畳み込みニューラルネットワーク(CNN)との比較を行った。
ViTsの効果的な特徴は、自己認識機構によって可能なフレキシブルな受容と動的場によるものであることを示す。
論文 参考訳(メタデータ) (2021-05-21T17:59:18Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。