論文の概要: Smartphone-based iris recognition through high-quality visible-spectrum iris image capture.V2
- arxiv url: http://arxiv.org/abs/2510.06170v1
- Date: Tue, 07 Oct 2025 17:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.387078
- Title: Smartphone-based iris recognition through high-quality visible-spectrum iris image capture.V2
- Title(参考訳): 高品質可視光アイリス画像キャプチャによるスマートフォンによる虹彩認識V2
- Authors: Naveenkumar G Venkataswamy, Yu Liu, Soumyabrata Dey, Stephanie Schuckers, Masudul H Imtiaz,
- Abstract要約: 本研究は,ISO/IEC 29794-6の取得時に品質コンプライアンスを強制する,コンパクトなエンドツーエンドパイプラインを提案する。
カスタムAndroidアプリケーションを用いて,47名の被験者の752枚の画像のCUVIRISデータセットを紹介する。
軽量なMobileNetV3ベースのマルチタスクセグメンテーションネットワーク(LightIrisNet)を開発した。
- 参考スコア(独自算出の注目度): 3.713852186536256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smartphone-based iris recognition in the visible spectrum (VIS) remains difficult due to illumination variability, pigmentation differences, and the absence of standardized capture controls. This work presents a compact end-to-end pipeline that enforces ISO/IEC 29794-6 quality compliance at acquisition and demonstrates that accurate VIS iris recognition is feasible on commodity devices. Using a custom Android application performing real-time framing, sharpness evaluation, and feedback, we introduce the CUVIRIS dataset of 752 compliant images from 47 subjects. A lightweight MobileNetV3-based multi-task segmentation network (LightIrisNet) is developed for efficient on-device processing, and a transformer matcher (IrisFormer) is adapted to the VIS domain. Under a standardized protocol and comparative benchmarking against prior CNN baselines, OSIRIS attains a TAR of 97.9% at FAR=0.01 (EER=0.76%), while IrisFormer, trained only on UBIRIS.v2, achieves an EER of 0.057% on CUVIRIS. The acquisition app, trained models, and a public subset of the dataset are released to support reproducibility. These results confirm that standardized capture and VIS-adapted lightweight models enable accurate and practical iris recognition on smartphones.
- Abstract(参考訳): 可視光スペクトル (VIS) におけるスマートフォンによる虹彩認識は, 照度変動, 色素差, 標準捕捉制御の欠如により, 依然として困難である。
本研究は、ISO/IEC 29794-6の品質コンプライアンスを取得時に実施する、コンパクトなエンドツーエンドパイプラインを示し、VISアイリスの正確な認識がコモディティデバイス上で実現可能であることを示す。
リアルタイムフレーミング,シャープネス評価,フィードバックを行うカスタムAndroidアプリケーションを用いて,47被験者752枚のCUVIRISデータセットを紹介した。
デバイス上での効率的な処理のために軽量なMobileNetV3ベースのマルチタスクセグメンテーションネットワーク(LightIrisNet)を開発し、VISドメインにトランスフォーマー(IrisFormer)を適応させる。
標準化されたプロトコルと以前のCNNベースラインとの比較ベンチマークにより、OSIRISはFAR=0.01(EER=0.76%)で97.9%のTARを獲得し、IrisFormerはUBIRIS.v2でのみ訓練され、CUVIRISで0.057%のEERを達成する。
取得アプリ、トレーニングされたモデル、データセットのパブリックサブセットがリリースされ、再現性をサポートする。
これらの結果は、標準キャプチャとVIS対応軽量モデルにより、スマートフォン上で正確な、実用的な虹彩認識が可能になることを確認している。
関連論文リスト
- Cross-Spectral Body Recognition with Side Information Embedding: Benchmarks on LLCM and Analyzing Range-Induced Occlusions on IJB-MDF [51.36007967653781]
ViT(Vision Transformers)は、顔や身体の認識を含む幅広い生体計測タスクにおいて、印象的なパフォーマンスを誇示している。
本研究では、視認性(VIS)画像に事前訓練されたVTモデルを、クロススペクトル体認識の難しい問題に適用する。
このアイデアに基づいて、我々はSide Information Embedding (SIE)を統合し、ドメインとカメラ情報のエンコーディングの影響を調べ、スペクトル間マッチングを強化する。
驚くべきことに、我々の結果は、ドメイン情報を明示的に組み込むことなく、カメラ情報のみを符号化することで、LLCMデータセット上で最先端のパフォーマンスが得られることを示している。
論文 参考訳(メタデータ) (2025-06-10T16:20:52Z) - BRIGHT-VO: Brightness-Guided Hybrid Transformer for Visual Odometry with Multi-modality Refinement Module [11.898515581215708]
視覚計測(VO)は、自律運転、ロボットナビゲーション、その他の関連するタスクにおいて重要な役割を果たす。
本稿では,トランスフォーマーアーキテクチャに基づく新しいVOモデルであるBrightVOを紹介し,フロントエンドの視覚的特徴抽出を行う。
ポーズグラフ最適化を用いて、このモジュールは、エラーを減らし、精度とロバスト性の両方を改善するために、ポーズ推定を反復的に洗練する。
論文 参考訳(メタデータ) (2025-01-15T08:50:52Z) - Smartphone-based Iris Recognition through High-Quality Visible Spectrum Iris Capture [3.7681656804525057]
本研究では、自動焦点調整とズーム調整により高品質なVISアイリス画像を連続的にキャプチャする新しいAndroidアプリケーションを提案する。
この手法は,47名を対象に,スマートフォンで撮影したVIS画像とNIRアイリス画像を用いて検証した。
論文 参考訳(メタデータ) (2024-12-17T16:28:08Z) - CTVIS: Consistent Training for Online Video Instance Segmentation [62.957370691452844]
オンラインビデオインスタンスセグメンテーション(VIS)におけるインスタンスの関連付けにおいて,インスタンス埋め込みの識別が重要な役割を担っている
近年のオンラインVIS手法では,参照フレームのみから派生したCIを活用している。
我々は,オンラインVIS(Consistent Training for Online VIS)と呼ばれる,トレーニングパイプラインと推論パイプラインの整合性を重視した,シンプルで効果的なトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:44:25Z) - Iris Recognition Based on SIFT Features [63.07521951102555]
アイリス画像の認識にはSIFT(Scale Invariant Feature Transformation)を用いる。
我々は、SIFT演算子を用いて、スケール空間における特徴SIFT特徴点を抽出し、特徴点周辺のテクスチャ情報に基づいてマッチングを行う。
また、SIFT手法と、極座標変換とLog-Gaborウェーブレットに基づく一般的なマッチング手法の相補性を示す。
論文 参考訳(メタデータ) (2021-10-30T04:55:33Z) - Toward Accurate and Reliable Iris Segmentation Using Uncertainty
Learning [96.72850130126294]
高精度で信頼性の高いアイリスセグメンテーションのためのアイリスU変換器(アイリスUsformer)を提案する。
IrisUsformerの精度向上のために,位置感応操作と再パッケージング変圧器ブロックを採用することで精巧に設計する。
IrisUsformer は SOTA IrisParseNet の 35% MAC を用いて, セグメンテーション精度の向上を図っている。
論文 参考訳(メタデータ) (2021-10-20T01:37:19Z) - On Benchmarking Iris Recognition within a Head-mounted Display for AR/VR
Application [16.382021536377437]
我々は、ヘッドマウントディスプレイ(HMD)に適した虹彩認識アルゴリズムのセットを評価する。
我々は最近開発されたミニチュアセグメンテーションモデル(EyeMMS)を用いて虹彩のセグメンテーションを行っている。
アイリス認識の性能に感銘を受けて,HMDにおける非協調的なキャプチャ設定において,ユーザの継続的な認証を提案する。
論文 参考訳(メタデータ) (2020-10-20T17:05:11Z) - Cross-Spectral Periocular Recognition with Conditional Adversarial
Networks [59.17685450892182]
本研究では,近赤外・近赤外スペクトル間の近赤外画像の変換を訓練した条件付き生成逆相関ネットワークを提案する。
EER=1%, GAR>99% @ FAR=1%, ポリUデータベースの最先端技術に匹敵するスペクトル近視性能を得た。
論文 参考訳(メタデータ) (2020-08-26T15:02:04Z) - Towards Precise Intra-camera Supervised Person Re-identification [54.86892428155225]
人物の再識別(Re-ID)のためのカメラ内監視(ICS)は、アイデンティティラベルが各カメラビュー内に独立してアノテートされていると仮定する。
カメラ間ラベルの欠如により、ICS Re-ID問題は、完全に監督されたラベルよりもはるかに難しい。
われわれの手法は、2つのデータセットで最先端の完全教師付き手法に匹敵する性能を発揮する。
論文 参考訳(メタデータ) (2020-02-12T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。