論文の概要: Fusion2Print: Deep Flash-Non-Flash Fusion for Contactless Fingerprint Matching
- arxiv url: http://arxiv.org/abs/2601.02318v1
- Date: Mon, 05 Jan 2026 18:09:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.349221
- Title: Fusion2Print: Deep Flash-Non-Flash Fusion for Contactless Fingerprint Matching
- Title(参考訳): Fusion2Print: コンタクトレス指紋照合のためのディープフラッシュノンフラッシュフュージョン
- Authors: Roja Sahoo, Anoop Namboodiri,
- Abstract要約: フラッシュは尾根の細部を保存するがノイズを発生させるが、非フラッシュはノイズを減少させるが尾根のコントラストを低下させる。
We propose Fusion2Print, the first framework for systemally capture and fuseed paired flash-non-flash contactless fingerprints。
軽量な注意に基づく融合ネットワークは、両方のモダリティを統合し、情報チャネルを強調し、ノイズを抑制する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contactless fingerprint recognition offers a hygienic and convenient alternative to contact-based systems, enabling rapid acquisition without latent prints, pressure artifacts, or hygiene risks. However, contactless images often show degraded ridge clarity due to illumination variation, subcutaneous skin discoloration, and specular reflections. Flash captures preserve ridge detail but introduce noise, whereas non-flash captures reduce noise but lower ridge contrast. We propose Fusion2Print (F2P), the first framework to systematically capture and fuse paired flash-non-flash contactless fingerprints. We construct a custom paired dataset, FNF Database, and perform manual flash-non-flash subtraction to isolate ridge-preserving signals. A lightweight attention-based fusion network also integrates both modalities, emphasizing informative channels and suppressing noise, and then a U-Net enhancement module produces an optimally weighted grayscale image. Finally, a deep embedding model with cross-domain compatibility, generates discriminative and robust representations in a unified embedding space compatible with both contactless and contact-based fingerprints for verification. F2P enhances ridge clarity and achieves superior recognition performance (AUC=0.999, EER=1.12%) over single-capture baselines (Verifinger, DeepPrint).
- Abstract(参考訳): コンタクトレス指紋認識は、コンタクトベースのシステムに代わる衛生的で便利な代替手段であり、潜伏印刷、圧力アーティファクト、衛生リスクを伴わない迅速な取得を可能にする。
しかし, 接触のない画像では, 照明変化, 皮下皮膚の変色, 特異な反射により, 隆起の明瞭度が低下することが多かった。
フラッシュは尾根の細部を保存するがノイズを発生させるが、非フラッシュはノイズを減少させるが尾根のコントラストを低下させる。
We propose Fusion2Print (F2P), which is first framework for systemally capture and fuseed paired flash-non-flash contactless fingerprints。
我々は、FNFデータベースというカスタムペアデータセットを構築し、リッジ保存信号の分離のために手動フラッシュ非フラッシュサブトラクションを実行する。
軽量な注意に基づく融合ネットワークは、情報チャネルを強調し、ノイズを抑制するため、両方のモダリティを統合し、U-Net拡張モジュールは最適に重み付けされたグレースケール画像を生成する。
最後に、ドメイン間の互換性を持つ深層埋め込みモデルにより、接触のない指紋と接触ベースの指紋の両方と互換性のある統合埋め込み空間において、識別的かつ堅牢な表現を生成する。
F2Pはリッジの明度を高め、シングルキャプチャベースライン(Verifinger, DeepPrint)よりも優れた認識性能(AUC=0.999, EER=1.12%)を達成する。
関連論文リスト
- Light of Normals: Unified Feature Representation for Universal Photometric Stereo [69.95514862547174]
現在のエンコーダは、照明と通常の情報が切り離されていることを保証できない。
i) 点、方向、環境光を集約する光アライメント監督機能を備えた光レジスタトークン。
また,PS-Verseも導入した。PS-Verseは,幾何学的複雑性と照明の多様性を指標とした大規模合成データセットである。
論文 参考訳(メタデータ) (2025-06-23T17:53:11Z) - Bidirectional Image-Event Guided Fusion Framework for Low-Light Image Enhancement [24.5584423318892]
極端に低照度な条件下では、フレームベースのカメラは、ダイナミックレンジの制限により、細部が著しく失われる。
近年の研究では、イベント誘導型低照度画像強調のためのイベントカメラが導入されている。
低光画像強調のための双方向画像イベント誘導融合フレームワークBiLIEを提案する。
論文 参考訳(メタデータ) (2025-06-06T14:28:17Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Flash-Split: 2D Reflection Removal with Flash Cues and Latent Diffusion Separation [15.530943752811929]
Flash-Splitは、送信された光と反射した光を分離するためのフレームワークである。
Flash-Splitを実世界の挑戦的なシーンで検証することにより、最先端のリフレクション分離性能を示す。
論文 参考訳(メタデータ) (2024-12-31T20:27:23Z) - Seeing Far in the Dark with Patterned Flash [5.540878289831889]
遠距離でのフラッシュイメージングのための新しいフラッシュ技術「パターンフラッシュ」を提案する。
パターンフラッシュは光電力をドットアレイに集中させる。
畳み込みニューラルネットワークを用いた画像再構成と深度推定アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-25T23:16:50Z) - FDeblur-GAN: Fingerprint Deblurring using Generative Adversarial Network [22.146795282680667]
本稿では,cGAN(Productrative Adversarial Networks)とスタックGANのマルチステージフレームワークに基づく指紋除去モデルFDe-GANを提案する。
2つの補助的なサブネットワークをデブロアリングタスクのモデルに統合する。
我々は, 指紋データベースの95.18%の精度を, 汚れた指紋と地面の真実の指紋とをマッチングするために達成した。
論文 参考訳(メタデータ) (2021-06-21T18:37:20Z) - Deep Denoising of Flash and No-Flash Pairs for Photography in Low-Light
Environments [51.74566709730618]
低照度環境下でのフラッシュの有無にかかわらず、高速連続で撮影された画像のペアをデノイズするニューラルネットワークベースの方法を紹介します。
私たちの目標は、ノイズの多いノーフラッシュ画像の周囲照明から色と気分を維持するシーンの高品質のレンダリングを作成することです。
論文 参考訳(メタデータ) (2020-12-09T15:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。