論文の概要: Motion Transfer-Driven intra-class data augmentation for Finger Vein Recognition
- arxiv url: http://arxiv.org/abs/2412.20327v1
- Date: Sun, 29 Dec 2024 02:51:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:06:27.101493
- Title: Motion Transfer-Driven intra-class data augmentation for Finger Vein Recognition
- Title(参考訳): 指静脈認識のための移動移動駆動型クラス内データ拡張
- Authors: Xiu-Feng Huang, Lai-Man Po, Wei-Feng Ou,
- Abstract要約: フィンガー静脈認識 (FVR) は, 血管内生情報の機密性から, 安全な生体計測技術として出現している。
そこで本研究では,指の姿勢と回転運動をモデル化し,指静脈画像データ拡張のための新しい動き伝達モデルを提案する。
3つのパブリックフィンガー静脈データベースで行った実験により,提案した動き伝達モデルが認識精度を効果的に向上できることが示された。
- 参考スコア(独自算出の注目度): 14.95018662462898
- License:
- Abstract: Finger vein recognition (FVR) has emerged as a secure biometric technique because of the confidentiality of vascular bio-information. Recently, deep learning-based FVR has gained increased popularity and achieved promising performance. However, the limited size of public vein datasets has caused overfitting issues and greatly limits the recognition performance. Although traditional data augmentation can partially alleviate this data shortage issue, it cannot capture the real finger posture variations due to the rigid label-preserving image transformations, bringing limited performance improvement. To address this issue, we propose a novel motion transfer (MT) model for finger vein image data augmentation via modeling the actual finger posture and rotational movements. The proposed model first utilizes a key point detector to extract the key point and pose map of the source and drive finger vein images. We then utilize a dense motion module to estimate the motion optical flow, which is fed to an image generation module for generating the image with the target pose. Experiments conducted on three public finger vein databases demonstrate that the proposed motion transfer model can effectively improve recognition accuracy. Code is available at: https://github.com/kevinhuangxf/FingerVeinRecognition.
- Abstract(参考訳): フィンガー静脈認識 (FVR) は, 血管内生情報の機密性から, 安全な生体計測技術として確立されている。
近年,ディープラーニングベースのFVRが普及し,有望なパフォーマンスを実現している。
しかし、パブリックな静脈データセットのサイズが制限されているため、過度に適合する問題が発生し、認識性能が大幅に制限されている。
従来のデータ拡張は、このデータ不足を部分的に軽減できるが、剛性ラベル保存画像変換による実際の指の姿勢変化を捉えることができず、性能が制限される。
そこで本研究では,実際の指の姿勢と回転運動をモデル化し,指静脈画像データ拡張のための新しい動き伝達(MT)モデルを提案する。
提案モデルでは,まずキーポイント検出器を用いて,音源のキーポイントとポーズマップを抽出し,指静脈像を駆動する。
次に、高密度な動きモジュールを用いて、ターゲットのポーズで画像を生成するために画像生成モジュールに供給される動き光の流れを推定する。
3つのパブリックフィンガー静脈データベースで行った実験により,提案した動き伝達モデルが認識精度を効果的に向上できることが示された。
コードは、https://github.com/kevinhuangxf/FingerVeinRecognitionで入手できる。
関連論文リスト
- Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Exploring Vision Transformers for 3D Human Motion-Language Models with Motion Patches [12.221087476416056]
動き系列の新しい表現である「動きパッチ」を導入し、移動学習を通して視覚変換器(ViT)をモーションエンコーダとして用いることを提案する。
これらの動きパッチは、運動配列に基づく骨格関節の分割と分類によって作成され、様々な骨格構造に対して堅牢である。
2次元画像データを用いたトレーニングにより得られたViTの事前学習による伝達学習により,動作解析の性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-05-08T02:42:27Z) - Joint Identity Verification and Pose Alignment for Partial Fingerprints [33.05877729161858]
本稿では,部分指紋ペアの協調識別とポーズアライメントのための新しいフレームワークを提案する。
本手法は,部分的指紋認証と相対的ポーズ推定の両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-07T02:45:50Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Finger-UNet: A U-Net based Multi-Task Architecture for Deep Fingerprint
Enhancement [0.0]
指紋認識/検証パイプラインの初期段階において、指紋強調は重要な役割を果たす。
低品質指紋を効果的に改善するために,U-Netの直感的な修正を提案する。
モデルのメモリフットプリントを大幅に削減するため,通常の畳み込みを奥行き分離可能な畳み込みに置き換える。
論文 参考訳(メタデータ) (2023-10-01T09:49:10Z) - Motion Matters: Neural Motion Transfer for Better Camera Physiological
Measurement [25.27559386977351]
身体の動きは、ビデオから微妙な心臓の脈を回復しようとするとき、最も重要なノイズ源の1つである。
我々は,遠隔光合成のタスクのために,ニューラルビデオ合成アプローチをビデオの拡張に適用する。
各種の最先端手法を用いて,既存のデータセット間結果よりも47%向上したことを示す。
論文 参考訳(メタデータ) (2023-03-21T17:51:23Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - TransCamP: Graph Transformer for 6-DoF Camera Pose Estimation [77.09542018140823]
本稿では、カメラ再配置問題に対処するため、グラフトランスフォーマーバックボーン、すなわちTransCamPを用いたニューラルネットワークアプローチを提案する。
TransCamPは、画像の特徴、カメラポーズ情報、フレーム間の相対的なカメラモーションを、エンコードされたグラフ属性に効果的に融合する。
論文 参考訳(メタデータ) (2021-05-28T19:08:43Z) - From Hand-Perspective Visual Information to Grasp Type Probabilities:
Deep Learning via Ranking Labels [6.772076545800592]
Plackett-Luceモデルに基づいた新しい確率分類器を構築し、把握上の確率分布を予測する。
提案モデルは,最もポピュラーで生産性の高い畳み込みニューラルネットワークフレームワークに適用可能であることを示す。
論文 参考訳(メタデータ) (2021-03-08T16:12:38Z) - HM4: Hidden Markov Model with Memory Management for Visual Place
Recognition [54.051025148533554]
自律運転における視覚的位置認識のための隠れマルコフモデルを提案する。
我々のアルゴリズムはHM$4$と呼ばれ、時間的ルックアヘッドを利用して、有望な候補画像をパッシブストレージとアクティブメモリ間で転送する。
固定被覆領域に対して一定の時間と空間推定が可能であることを示す。
論文 参考訳(メタデータ) (2020-11-01T08:49:24Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。