論文の概要: Leveraging Large-Scale Face Datasets for Deep Periocular Recognition via Ocular Cropping
- arxiv url: http://arxiv.org/abs/2510.26294v1
- Date: Thu, 30 Oct 2025 09:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.736632
- Title: Leveraging Large-Scale Face Datasets for Deep Periocular Recognition via Ocular Cropping
- Title(参考訳): 眼球移植による眼深部認識のための大規模顔データセットの活用
- Authors: Fernando Alonso-Fernandez, Kevin Hernandez-Diaz, Jose Maria Buades Rubio, Josef Bigun,
- Abstract要約: 我々は、眼の生体計測、特に眼周囲領域(眼周囲領域)に焦点を当てている。
我々は3つの畳み込みニューラルネットワークアーキテクチャを評価し、眼周囲認識の有効性を評価する。
ネットワークは、大規模なVGGFace2データベースから抽出された1,907,572個の眼作物で訓練されている。
- 参考スコア(独自算出の注目度): 38.965762616818445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on ocular biometrics, specifically the periocular region (the area around the eye), which offers high discrimination and minimal acquisition constraints. We evaluate three Convolutional Neural Network architectures of varying depth and complexity to assess their effectiveness for periocular recognition. The networks are trained on 1,907,572 ocular crops extracted from the large-scale VGGFace2 database. This significantly contrasts with existing works, which typically rely on small-scale periocular datasets for training having only a few thousand images. Experiments are conducted with ocular images from VGGFace2-Pose, a subset of VGGFace2 containing in-the-wild face images, and the UFPR-Periocular database, which consists of selfies captured via mobile devices with user guidance on the screen. Due to the uncontrolled conditions of VGGFace2, the Equal Error Rates (EERs) obtained with ocular crops range from 9-15%, noticeably higher than the 3-6% EERs achieved using full-face images. In contrast, UFPR-Periocular yields significantly better performance (EERs of 1-2%), thanks to higher image quality and more consistent acquisition protocols. To the best of our knowledge, these are the lowest reported EERs on the UFPR dataset to date.
- Abstract(参考訳): 眼のバイオメトリックス、特に眼周囲領域(眼周囲領域)に焦点をあて、高い差別と最小限の獲得制約を提供する。
我々は,3つの畳み込みニューラルネットワークアーキテクチャの深度と複雑さを評価し,その有効性を評価する。
ネットワークは、大規模なVGGFace2データベースから抽出された1,907,572個の眼作物で訓練されている。
これは、数千枚の画像しか持たない訓練のために、通常、小さな眼球周囲のデータセットに頼っている既存の作品とは大きく異なる。
眼内画像を含むVGGFace2のサブセットであるVGGFace2-Poseと、ユーザガイドを画面上に表示したモバイルデバイス経由でセルフィーをキャプチャしたUFPR-Periocular Databaseを用いて実験を行った。
VGGFace2の制御不能な条件のため、眼科作物のEER(Equal Error Rates)は9~15%であり、フルフェイス画像を用いた3~6%のEERよりも顕著に高い値を示した。
対照的に、UFPR-Periocularは画像品質とより一貫性のある取得プロトコルのおかげで、かなり優れた性能(EERは1-2%)を得る。
私たちの知る限りでは、これらはUFPRデータセット上で現在報告されている最も低いEERである。
関連論文リスト
- Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - DeepMetricEye: Metric Depth Estimation in Periocular VR Imagery [4.940128337433944]
本稿では,U-Net 3+のディープラーニングバックボーンをベースとした軽量なフレームワークを提案する。
本手法は,3次元眼球周囲領域を再構成し,関連する光刺激計算プロトコルと医療ガイドラインの計量基準を提供する。
被験者36名を対象に, 眼球全球精度評価実験, 瞳孔径測定において有意な有効性を示した。
論文 参考訳(メタデータ) (2023-11-13T10:55:05Z) - Towards Top-Down Stereo Image Quality Assessment via Stereo Attention [3.113304966059062]
ステレオ画像品質評価(SIQA)は、3Dコンテンツの視覚的体験を評価し改善する上で重要な役割を担っている。
本稿では,品質評価プロセスの指針として,トップダウンの視点を用いた新しいStereo AttenTion Network(SATNet)を提案する。
実験結果から,SIQA分野における最先端技術推進におけるトップダウン手法の優位性を強調した。
論文 参考訳(メタデータ) (2023-08-08T09:37:18Z) - Near-infrared and visible-light periocular recognition with Gabor
features using frequency-adaptive automatic eye detection [69.35569554213679]
近視認識は、制御の少ないシナリオにおいて、顔や虹彩の堅牢性の増大が要求されるため、近年注目を集めている。
本稿では,複雑な対称性フィルタに基づく眼球検出システムを提案する。
このシステムはレチノトピックサンプリンググリッドとガボルスペクトル分解に基づく近視アルゴリズムの入力として用いられる。
論文 参考訳(メタデータ) (2022-11-10T13:04:03Z) - Periocular Embedding Learning with Consistent Knowledge Distillation
from Face [19.938772729998142]
眼球周囲の周辺部である眼球周囲の生体計測は、顔に対する協調的な代替物である。
本稿では,顔と眼のネットワーク間の整合性を予測層と特徴層に分散させる知識蒸留(CKD)を提案する。
CKDは、標準的な眼周囲認識ベンチマークデータセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-12-12T07:12:21Z) - UFPR-Periocular: A Periocular Dataset Collected by Mobile Devices in
Unconstrained Scenarios [4.229481360022994]
1,122名の被験者のサンプルを含む新しい眼球周囲データセットを,196個の異なるモバイルデバイスで3セッションで取得した。
画像は、参加者にたった1つの指示で、制約のない環境下で撮影された。
論文 参考訳(メタデータ) (2020-11-24T22:20:37Z) - Cross-Spectral Periocular Recognition with Conditional Adversarial
Networks [59.17685450892182]
本研究では,近赤外・近赤外スペクトル間の近赤外画像の変換を訓練した条件付き生成逆相関ネットワークを提案する。
EER=1%, GAR>99% @ FAR=1%, ポリUデータベースの最先端技術に匹敵するスペクトル近視性能を得た。
論文 参考訳(メタデータ) (2020-08-26T15:02:04Z) - D3VO: Deep Depth, Deep Pose and Deep Uncertainty for Monocular Visual
Odometry [57.5549733585324]
D3VOは、深度、ポーズ、不確実性推定という3つのレベルでディープネットワークを利用する、単眼の視覚計測のための新しいフレームワークである。
まず,ステレオビデオを用いた自己監督型単眼深度推定ネットワークを提案する。
入力画像上の画素の光度不確かさをモデル化し、深度推定精度を向上させる。
論文 参考訳(メタデータ) (2020-03-02T17:47:13Z) - Spectrum Translation for Cross-Spectral Ocular Matching [59.17685450892182]
バイオメトリックスでは、特に眼領域において、クロススペクトル検証が大きな問題となっている。
近赤外画像と視覚光画像のスペクトル変換におけるコンディショナル・ディバイサル・ネットワークの利用について検討した。
論文 参考訳(メタデータ) (2020-02-14T19:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。