論文の概要: Beyond First-Order: A Multi-Scale Approach to Finger Knuckle Print Biometrics
- arxiv url: http://arxiv.org/abs/2406.19672v1
- Date: Fri, 28 Jun 2024 06:06:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 17:39:39.591367
- Title: Beyond First-Order: A Multi-Scale Approach to Finger Knuckle Print Biometrics
- Title(参考訳): 一階を超えて - フィンガークナックルプリントバイオメトリックスへのマルチスケールアプローチ
- Authors: Chengrui Gao, Ziyuan Yang, Andrew Beng Jin Teoh, Min Zhu,
- Abstract要約: フィンガーナックルプリント(FKP)は、リッチなテクスチャパターンによって注目され、アイデンティティ認識のための有望なバイオメトリックとして位置づけられている。
以前のFKP認識手法は、複雑なテクスチャの詳細をキャプチャするが構造情報を考慮できない一階特徴記述子を主に利用していた。
本稿では,FKP画像のテクスチャ情報を包括的にキャプチャするための新しいFKP認識手法であるDual-Order Texture Competition Network (DOTCNet)を提案する。
- 参考スコア(独自算出の注目度): 12.218178491042176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, finger knuckle prints (FKPs) have gained attention due to their rich textural patterns, positioning them as a promising biometric for identity recognition. Prior FKP recognition methods predominantly leverage first-order feature descriptors, which capture intricate texture details but fail to account for structural information. Emerging research, however, indicates that second-order textures, which describe the curves and arcs of the textures, encompass this overlooked structural information. This paper introduces a novel FKP recognition approach, the Dual-Order Texture Competition Network (DOTCNet), designed to capture texture information in FKP images comprehensively. DOTCNet incorporates three dual-order texture competitive modules (DTCMs), each targeting textures at different scales. Each DTCM employs a learnable texture descriptor, specifically a learnable Gabor filter (LGF), to extract texture features. By leveraging LGFs, the network extracts first and second order textures to describe fine textures and structural features thoroughly. Furthermore, an attention mechanism enhances relevant features in the first-order features, thereby highlighting significant texture details. For second-order features, a competitive mechanism emphasizes structural information while reducing noise from higher-order features. Extensive experimental results reveal that DOTCNet significantly outperforms several standard algorithms on the publicly available PolyU-FKP dataset.
- Abstract(参考訳): 近年,フィンガーナックルプリント (FKPs) が注目されている。
以前のFKP認識手法は、複雑なテクスチャの詳細をキャプチャするが構造情報を考慮できない一階特徴記述子を主に利用していた。
しかし、新しい研究は、テクスチャの曲線と弧を記述する2階テクスチャが、見過ごされた構造情報を含んでいることを示唆している。
本稿では,FKP画像のテクスチャ情報を包括的にキャプチャするための新しいFKP認識手法であるDual-Order Texture Competition Network (DOTCNet)を提案する。
DOTCNetには3つの二階テクスチャ競合モジュール(DTCM)があり、それぞれ異なるスケールでテクスチャをターゲットにしている。
各DTCMは学習可能なテクスチャ記述子、特に学習可能なGaborフィルタ(LGF)を用いてテクスチャの特徴を抽出する。
LGFを利用することで、ネットワークは第1および第2のテクスチャを抽出し、きめ細かいテクスチャと構造的特徴を網羅的に記述する。
さらに、注意機構は、第1次特徴の関連性を高め、重要なテクスチャの詳細を強調させる。
2次の特徴に対して、競合メカニズムは、高次の特徴からノイズを低減しながら構造情報を強調する。
大規模な実験結果から、DOTCNetは一般に公開されているPolyU-FKPデータセット上で、いくつかの標準アルゴリズムを著しく上回っていることが明らかとなった。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Lightweight texture transfer based on texture feature preset [1.1863107884314108]
テクスチャ特徴プリセットに基づく軽量なテクスチャ転送を提案する。
結果は視覚的に優れた結果を示すが、モデルのサイズを3.2~3538倍に減らし、プロセスを1.8~5.6倍に高速化する。
論文 参考訳(メタデータ) (2023-06-29T10:37:29Z) - Keys to Better Image Inpainting: Structure and Texture Go Hand in Hand [28.32208483559088]
インペイントアルゴリズムの性能は、生成された構造やテクスチャによってよりよく判断できると主張している。
本稿では,2つの設計の利点を組み合わせた新しい塗装ネットワークを提案する。
本モデルは,構造生成と繰り返しテクスチャ合成の両面において,最先端の性能に匹敵する視覚的品質を実現する。
論文 参考訳(メタデータ) (2022-08-05T20:42:13Z) - Multi-feature Co-learning for Image Inpainting [2.4571440831539824]
本稿では,画像インペイントのための深層多機能コラーニングネットワークを設計する。
具体的には、まず2つの枝を使って、構造的特徴とテクスチャ的特徴を別々に学習する。
SDFFモジュールはテクスチャ特徴に構造特徴を統合するとともに,テクスチャ特徴を構造特徴の生成補助として利用する。
論文 参考訳(メタデータ) (2022-05-21T12:15:26Z) - Image Inpainting via Conditional Texture and Structure Dual Generation [26.97159780261334]
本稿では, 構造制約によるテクスチャ合成とテクスチャ誘導による構造再構築をモデル化した, 画像インペイントのための新しい2ストリームネットワークを提案する。
グローバルな一貫性を高めるため、双方向Gated Feature Fusion (Bi-GFF)モジュールは構造情報とテクスチャ情報を交換・結合するように設計されている。
CelebA、Paris StreetView、Places2データセットの実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2021-08-22T15:44:37Z) - Generating Diverse Structure for Image Inpainting With Hierarchical
VQ-VAE [74.29384873537587]
本稿では,異なる構造を持つ複数の粗い結果を第1段階で生成し,第2段階ではテクスチャを増補して各粗い結果を別々に洗練する,多彩な塗布用2段階モデルを提案する。
CelebA-HQ, Places2, ImageNetデータセットによる実験結果から,本手法は塗布ソリューションの多様性を向上するだけでなく,生成した複数の画像の視覚的品質も向上することが示された。
論文 参考訳(メタデータ) (2021-03-18T05:10:49Z) - Learning Statistical Texture for Semantic Segmentation [53.7443670431132]
セマンティックセグメンテーションのための新しい統計テクスチャ学習ネットワーク(STLNet)を提案する。
STLNetは、初めて低レベルの情報の分布を分析し、それらをタスクに効率的に活用する。
1)テクスチャ関連情報を捕捉し,テクスチャの詳細を強化するためのテクスチャエンハンスモジュール(TEM),(2)ピラミッドテクスチャ特徴抽出モジュール(PTFEM)の2つのモジュールを導入し,複数のスケールから統計的テクスチャ特徴を効果的に抽出する。
論文 参考訳(メタデータ) (2021-03-06T15:05:35Z) - Retinal Image Segmentation with a Structure-Texture Demixing Network [62.69128827622726]
複雑な構造とテクスチャ情報は網膜画像に混在し、その情報の識別が困難である。
既存の手法はテクスチャと構造を共同で扱うため、偏りのあるモデルをテクスチャ認識に導くことができ、結果としてセグメンテーション性能は低下する。
本稿では,構造成分とテクスチャ成分を分離し,性能を大幅に向上させるセグメンテーション戦略を提案する。
論文 参考訳(メタデータ) (2020-07-15T12:19:03Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Towards Analysis-friendly Face Representation with Scalable Feature and
Texture Compression [113.30411004622508]
普遍的で協調的な視覚情報表現は階層的な方法で実現できることを示す。
ディープニューラルネットワークの強力な生成能力に基づいて、基本特徴層と強化層の間のギャップは、特徴レベルのテクスチャ再構築によってさらに埋められる。
提案するフレームワークの効率を改善するために,ベース層ニューラルネットワークをマルチタスクでトレーニングする。
論文 参考訳(メタデータ) (2020-04-21T14:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。