論文の概要: iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images
- arxiv url: http://arxiv.org/abs/2305.12596v1
- Date: Sun, 21 May 2023 23:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:14:04.227791
- Title: iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images
- Title(参考訳): iWarpGAN: 合成アイリス画像を生成するためのアイデンティティとスタイルの分離
- Authors: Shivangi Yadav and Arun Ross
- Abstract要約: 我々はiWarpGANを提案するが、iWarpGANはアイリスのモダリティの文脈でアイデンティティとスタイルを歪めている。
iWarpGANは、変換されたIDコードと参照スタイルコードを組み合わせることで、クラス内およびクラス内の両方のバリエーションでアイリス画像を生成する。
- 参考スコア(独自算出の注目度): 13.875545441867137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Adversarial Networks (GANs) have shown success in approximating
complex distributions for synthetic image generation and for editing specific
portions of an input image, particularly in faces. However, current GAN-based
methods for generating biometric images, such as iris, have limitations in
controlling the identity of the generated images, i.e., the synthetically
generated images often closely resemble images in the training dataset.
Further, the generated images often lack diversity in terms of the number of
unique identities represented in them. To overcome these issues, we propose
iWarpGAN that disentangles identity and style in the context of the iris
modality by using two transformation pathways: Identity Transformation Pathway
to generate unique identities from the training set, and Style Transformation
Pathway to extract the style code from a reference image and output an iris
image using this style. By concatenating the transformed identity code and
reference style code, iWarpGAN generates iris images with both inter and
intra-class variations. The efficacy of the proposed method in generating Iris
DeepFakes is evaluated both qualitatively and quantitatively using ISO/IEC
29794-6 Standard Quality Metrics and the VeriEye iris matcher. Finally, the
utility of the synthetically generated images is demonstrated by improving the
performance of multiple deep learning based iris matchers that augment
synthetic data with real data during the training process.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、合成画像生成のための複雑な分布の近似や、特に顔における入力画像の特定の部分の編集に成功している。
しかし、現在のGANベースの虹彩のような生体画像生成法では、生成した画像の同一性を制御する限界があり、合成生成された画像はトレーニングデータセット内の画像とよく似ている。
さらに、生成された画像は、それらに表されるユニークなアイデンティティの数に関して、しばしば多様性を欠いている。
これらの課題を解決するために,iWarpGANを提案する。iWarpGANは2つの変換経路を用いてアイリスモダリティの文脈でアイデンティティとスタイルをアンタングルし,トレーニングセットからユニークなアイデンティティを生成するID変換パスと,参照画像からスタイルコードを抽出し,このスタイルを用いてアイリスイメージを出力するスタイル変換パスである。
iWarpGANは変換されたアイデンティティコードと参照スタイルコードを組み合わせることで、クラス間およびクラス内の両方のバリエーションでアイリス画像を生成する。
提案手法の有効性をISO/IEC 29794-6標準品質測定値とVeriEye iris matcherを用いて定性的かつ定量的に評価した。
最後に、学習過程で実データで合成データを増強する複数のディープラーニングベースの虹彩マッチング器の性能を向上させることにより、合成画像の有用性を実証する。
関連論文リスト
- Fusion is all you need: Face Fusion for Customized Identity-Preserving Image Synthesis [7.099258248662009]
テキスト・ツー・イメージ(T2I)モデルは人工知能の開発を著しく進歩させてきた。
しかし、既存のT2Iベースの手法は、参照画像から個人を正確に再現するのに苦労することが多い。
我々は、安定拡散から得られた事前学習されたUNetを利用して、対象の顔画像を直接生成プロセスに組み込む。
論文 参考訳(メタデータ) (2024-09-27T19:31:04Z) - EyePreserve: Identity-Preserving Iris Synthesis [8.973296574093506]
本稿では,アイリス画像の完全データ駆動型,アイデンティティ保存型,瞳孔径変化型合成法を提案する。
提案手法の直接的な応用は、(a)虹彩認識のための既存の生体計測データセットの合成、または強化、および(b)瞳孔拡張に有意な差がある虹彩画像対を調べるための法医学の専門家を支援することである。
論文 参考訳(メタデータ) (2023-12-19T10:29:29Z) - T-Person-GAN: Text-to-Person Image Generation with Identity-Consistency
and Manifold Mix-Up [16.165889084870116]
テキストのみに条件付けされた高解像度の人物画像を生成するためのエンドツーエンドアプローチを提案する。
2つの新しいメカニズムで人物画像を生成するための効果的な生成モデルを開発する。
論文 参考訳(メタデータ) (2022-08-18T07:41:02Z) - DeformIrisNet: An Identity-Preserving Model of Iris Texture Deformation [4.142375560633827]
アイリス認識の主流となるアプローチでは、リング状のアイリス領域のサイズは正準長方形に線形にスケールされる。
データから直接アイリステクスチャの特徴の複雑な動きを効果的に学習できる新しいディープオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2022-07-18T23:23:23Z) - Iris Recognition Based on SIFT Features [63.07521951102555]
アイリス画像の認識にはSIFT(Scale Invariant Feature Transformation)を用いる。
我々は、SIFT演算子を用いて、スケール空間における特徴SIFT特徴点を抽出し、特徴点周辺のテクスチャ情報に基づいてマッチングを行う。
また、SIFT手法と、極座標変換とLog-Gaborウェーブレットに基づく一般的なマッチング手法の相補性を示す。
論文 参考訳(メタデータ) (2021-10-30T04:55:33Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - DVG-Face: Dual Variational Generation for Heterogeneous Face Recognition [85.94331736287765]
我々は、HFRを二重生成問題として定式化し、新しいDual Variational Generation(DVG-Face)フレームワークを用いてそれに取り組む。
大規模可視データの豊富なアイデンティティ情報を結合分布に統合する。
同一の同一性を持つ多種多様な多種多様な画像は、ノイズから生成することができる。
論文 参考訳(メタデータ) (2020-09-20T09:48:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。