論文の概要: DeformIrisNet: An Identity-Preserving Model of Iris Texture Deformation
- arxiv url: http://arxiv.org/abs/2207.08980v1
- Date: Mon, 18 Jul 2022 23:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:51:25.326913
- Title: DeformIrisNet: An Identity-Preserving Model of Iris Texture Deformation
- Title(参考訳): DeformIrisNet:虹彩テクスチャ変形のアイデンティティ保存モデル
- Authors: Siamul Karim Khan, Patrick Tinsley and Adam Czajka
- Abstract要約: アイリス認識の主流となるアプローチでは、リング状のアイリス領域のサイズは正準長方形に線形にスケールされる。
データから直接アイリステクスチャの特徴の複雑な動きを効果的に学習できる新しいディープオートエンコーダモデルを提案する。
- 参考スコア(独自算出の注目度): 4.142375560633827
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nonlinear iris texture deformations due to pupil size variations are one of
the main factors responsible for within-class variance of genuine comparison
scores in iris recognition. In dominant approaches to iris recognition, the
size of a ring-shaped iris region is linearly scaled to a canonical rectangle,
used further in encoding and matching. However, the biological complexity of
iris sphincter and dilator muscles causes the movements of iris features to be
nonlinear in a function of pupil size, and not solely organized along radial
paths. Alternatively to the existing theoretical models based on biomechanics
of iris musculature, in this paper we propose a novel deep autoencoder-based
model that can effectively learn complex movements of iris texture features
directly from the data. The proposed model takes two inputs, (a) an
ISO-compliant near-infrared iris image with initial pupil size, and (b) the
binary mask defining the target shape of the iris. The model makes all the
necessary nonlinear deformations to the iris texture to match the shape of iris
in image (a) with the shape provided by the target mask (b). The
identity-preservation component of the loss function helps the model in finding
deformations that preserve identity and not only visual realism of generated
samples. We also demonstrate two immediate applications of this model: better
compensation for iris texture deformations in iris recognition algorithms,
compared to linear models, and creation of generative algorithm that can aid
human forensic examiners, who may need to compare iris images with large
difference in pupil dilation. We offer the source codes and model weights
available along with this paper.
- Abstract(参考訳): 瞳孔サイズの変化による非線形虹彩テクスチャの変形は、虹彩認識における真正比較スコアのクラス内ばらつきの原因の1つである。
アイリス認識における支配的なアプローチでは、リング状アイリス領域のサイズは正準矩形に線形にスケールされ、さらに符号化やマッチングに用いられる。
しかし、虹彩括約筋と拡張筋の生物学的複雑さは、虹彩の特徴の運動を瞳孔の大きさの関数で非線形にし、放射状経路に沿ってのみ組織化しない。
本稿では, アイリス筋の生体力学に基づく既存の理論モデルに対して, データから直接アイリステクスチャの特徴の複雑な動きを効果的に学習するディープオートエンコーダモデルを提案する。
提案モデルは2つの入力を必要とする。
(a)初期瞳孔の大きさのISO準拠近赤外虹彩像
(b)虹彩の目標形状を定義する二分マスク。
モデルは画像中の虹彩形状にマッチする虹彩テクスチャに必要となる全ての非線形変形を与える
(a)対象マスクが設けた形状
(b)
損失関数のアイデンティティ保存成分は、モデルが生成したサンプルの視覚的リアリズムだけでなく、アイデンティティを保存する変形を見つけるのに役立つ。
線形モデルと比較して虹彩認識アルゴリズムの虹彩テクスチャ変形に対する補正の精度向上と,瞳孔拡張量の大きな差で虹彩画像を比較する必要のあるヒトの法医学検査者を支援する生成アルゴリズムの作成について述べる。
この論文と一緒に利用可能なソースコードとモデルウェイトを提供します。
関連論文リスト
- Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - On the Feasibility of Creating Iris Periocular Morphed Images [9.021226651004055]
本研究は、画像レベルで虹彩形態を生成するためのエンドツーエンドフレームワークを提案する。
ペア対象の選択、セグメンテーション、形態形成、新しい虹彩認識システムなど、異なる段階を考慮する。
その結果,従来の虹彩認識システムと混同できる非常にリアルな画像が得られた。
論文 参考訳(メタデータ) (2024-08-24T06:48:46Z) - EyePreserve: Identity-Preserving Iris Synthesis [8.973296574093506]
本稿では,アイリス画像の完全データ駆動型,アイデンティティ保存型,瞳孔径変化型合成法を提案する。
提案手法の直接的な応用は、(a)虹彩認識のための既存の生体計測データセットの合成、または強化、および(b)瞳孔拡張に有意な差がある虹彩画像対を調べるための法医学の専門家を支援することである。
論文 参考訳(メタデータ) (2023-12-19T10:29:29Z) - iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images [13.60510525958336]
iWarpGANは、クラス間とクラス内の両方のバリエーションでアイリス画像を生成する。
深層学習に基づく虹彩マッチングの性能を向上させることで合成画像の有用性を実証する。
論文 参考訳(メタデータ) (2023-05-21T23:10:14Z) - Shape-Erased Feature Learning for Visible-Infrared Person
Re-Identification [90.39454748065558]
体型は、VI-ReIDにとって重要なモダリティシェードの1つである。
本稿では,2つの部分空間におけるモダリティ共有特徴を関連づける形状学習パラダイムを提案する。
SYSU-MM01, RegDB, HITSZ-VCMデータセットを用いた実験により, 本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-04-09T10:22:10Z) - Artificial Pupil Dilation for Data Augmentation in Iris Semantic
Segmentation [0.0]
現代の虹彩認識のアプローチでは、深層学習を用いて虹彩の有効部分を眼の他の部分から切り離す。
本稿では,新しいデータ拡張手法を導入することにより,虹彩意味分節システムの精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2022-12-24T13:31:56Z) - Toward Accurate and Reliable Iris Segmentation Using Uncertainty
Learning [96.72850130126294]
高精度で信頼性の高いアイリスセグメンテーションのためのアイリスU変換器(アイリスUsformer)を提案する。
IrisUsformerの精度向上のために,位置感応操作と再パッケージング変圧器ブロックを採用することで精巧に設計する。
IrisUsformer は SOTA IrisParseNet の 35% MAC を用いて, セグメンテーション精度の向上を図っている。
論文 参考訳(メタデータ) (2021-10-20T01:37:19Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z) - An approach to human iris recognition using quantitative analysis of
image features and machine learning [0.5243460995467893]
本稿では,虹彩認識のための効率的なフレームワークを4段階に分けて提案する。
その結果、提案手法は99.64%の精度で信頼性の高い予測を行うことができることを確認した。
論文 参考訳(メタデータ) (2020-09-12T23:23:33Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。