論文の概要: iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images
- arxiv url: http://arxiv.org/abs/2305.12596v2
- Date: Wed, 30 Aug 2023 03:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 17:02:09.471209
- Title: iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images
- Title(参考訳): iWarpGAN: 合成アイリス画像を生成するためのアイデンティティとスタイルの分離
- Authors: Shivangi Yadav and Arun Ross
- Abstract要約: iWarpGANは、クラス間とクラス内の両方のバリエーションでアイリス画像を生成する。
深層学習に基づく虹彩マッチングの性能を向上させることで合成画像の有用性を実証する。
- 参考スコア(独自算出の注目度): 13.60510525958336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have shown success in approximating
complex distributions for synthetic image generation. However, current
GAN-based methods for generating biometric images, such as iris, have certain
limitations: (a) the synthetic images often closely resemble images in the
training dataset; (b) the generated images lack diversity in terms of the
number of unique identities represented in them; and (c) it is difficult to
generate multiple images pertaining to the same identity. To overcome these
issues, we propose iWarpGAN that disentangles identity and style in the context
of the iris modality by using two transformation pathways: Identity
Transformation Pathway to generate unique identities from the training set, and
Style Transformation Pathway to extract the style code from a reference image
and output an iris image using this style. By concatenating the transformed
identity code and reference style code, iWarpGAN generates iris images with
both inter- and intra-class variations. The efficacy of the proposed method in
generating such iris DeepFakes is evaluated both qualitatively and
quantitatively using ISO/IEC 29794-6 Standard Quality Metrics and the VeriEye
iris matcher. Further, the utility of the synthetically generated images is
demonstrated by improving the performance of deep learning based iris matchers
that augment synthetic data with real data during the training process.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、合成画像生成のための複雑な分布の近似に成功している。
しかし、現在のGANベースの虹彩などの生体画像生成法には、一定の制限がある。
(a) 合成画像は、訓練データセット内の画像によく似ていることが多い。
(b)生成した画像は、それらに代表される独特なアイデンティティの数に関して多様性を欠いている。
(c)同一の同一性に係る複数の画像を生成することは困難である。
これらの課題を解決するために,iWarpGANを提案する。iWarpGANは2つの変換経路を用いてアイリスモダリティの文脈でアイデンティティとスタイルをアンタングルし,トレーニングセットからユニークなアイデンティティを生成するID変換パスと,参照画像からスタイルコードを抽出し,このスタイルを用いてアイリスイメージを出力するスタイル変換パスである。
iWarpGANは変換されたアイデンティティコードと参照スタイルコードを組み合わせることで、クラス間およびクラス内の両方のバリエーションでアイリス画像を生成する。
提案手法の有効性をISO/IEC 29794-6標準品質測定値とVeriEye iris matcherを用いて定性的かつ定量的に評価した。
さらに、学習過程で実データで合成データを増強するディープラーニングベースの虹彩マッチング器の性能を向上させることにより、合成画像の有用性を実証する。
関連論文リスト
- Fusion is all you need: Face Fusion for Customized Identity-Preserving Image Synthesis [7.099258248662009]
テキスト・ツー・イメージ(T2I)モデルは人工知能の開発を著しく進歩させてきた。
しかし、既存のT2Iベースの手法は、参照画像から個人を正確に再現するのに苦労することが多い。
我々は、安定拡散から得られた事前学習されたUNetを利用して、対象の顔画像を直接生成プロセスに組み込む。
論文 参考訳(メタデータ) (2024-09-27T19:31:04Z) - EyePreserve: Identity-Preserving Iris Synthesis [8.973296574093506]
本稿では,アイリス画像の完全データ駆動型,アイデンティティ保存型,瞳孔径変化型合成法を提案する。
提案手法の直接的な応用は、(a)虹彩認識のための既存の生体計測データセットの合成、または強化、および(b)瞳孔拡張に有意な差がある虹彩画像対を調べるための法医学の専門家を支援することである。
論文 参考訳(メタデータ) (2023-12-19T10:29:29Z) - T-Person-GAN: Text-to-Person Image Generation with Identity-Consistency
and Manifold Mix-Up [16.165889084870116]
テキストのみに条件付けされた高解像度の人物画像を生成するためのエンドツーエンドアプローチを提案する。
2つの新しいメカニズムで人物画像を生成するための効果的な生成モデルを開発する。
論文 参考訳(メタデータ) (2022-08-18T07:41:02Z) - DeformIrisNet: An Identity-Preserving Model of Iris Texture Deformation [4.142375560633827]
アイリス認識の主流となるアプローチでは、リング状のアイリス領域のサイズは正準長方形に線形にスケールされる。
データから直接アイリステクスチャの特徴の複雑な動きを効果的に学習できる新しいディープオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2022-07-18T23:23:23Z) - Iris Recognition Based on SIFT Features [63.07521951102555]
アイリス画像の認識にはSIFT(Scale Invariant Feature Transformation)を用いる。
我々は、SIFT演算子を用いて、スケール空間における特徴SIFT特徴点を抽出し、特徴点周辺のテクスチャ情報に基づいてマッチングを行う。
また、SIFT手法と、極座標変換とLog-Gaborウェーブレットに基づく一般的なマッチング手法の相補性を示す。
論文 参考訳(メタデータ) (2021-10-30T04:55:33Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - DVG-Face: Dual Variational Generation for Heterogeneous Face Recognition [85.94331736287765]
我々は、HFRを二重生成問題として定式化し、新しいDual Variational Generation(DVG-Face)フレームワークを用いてそれに取り組む。
大規模可視データの豊富なアイデンティティ情報を結合分布に統合する。
同一の同一性を持つ多種多様な多種多様な画像は、ノイズから生成することができる。
論文 参考訳(メタデータ) (2020-09-20T09:48:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。