論文の概要: CIT-GAN: Cyclic Image Translation Generative Adversarial Network With
Application in Iris Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2012.02374v1
- Date: Fri, 4 Dec 2020 02:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:42:49.738697
- Title: CIT-GAN: Cyclic Image Translation Generative Adversarial Network With
Application in Iris Presentation Attack Detection
- Title(参考訳): cit-gan:循環型画像翻訳生成広告ネットワークとiris提示攻撃検出への応用
- Authors: Shivangi Yadav and Arun Ross
- Abstract要約: 本稿では,CIT-GAN(Cyclic Image Translation Generative Adversarial Network)を提案する。
提案したCIT-GANは、アイリス提示攻撃検出(PAD)の文脈において、トレーニングセットに表現されていないクラスに対する合成プレゼンテーション攻撃(PA)サンプルを生成するために使用される。
提案手法により生成された合成画像の品質は,StarGanを含む他の競合する手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 15.662245877172126
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we propose a novel Cyclic Image Translation Generative
Adversarial Network (CIT-GAN) for multi-domain style transfer. To facilitate
this, we introduce a Styling Network that has the capability to learn style
characteristics of each domain represented in the training dataset. The Styling
Network helps the generator to drive the translation of images from a source
domain to a reference domain and generate synthetic images with style
characteristics of the reference domain. The learned style characteristics for
each domain depend on both the style loss and domain classification loss. This
induces variability in style characteristics within each domain. The proposed
CIT-GAN is used in the context of iris presentation attack detection (PAD) to
generate synthetic presentation attack (PA) samples for classes that are
under-represented in the training set. Evaluation using current
state-of-the-art iris PAD methods demonstrates the efficacy of using such
synthetically generated PA samples for training PAD methods. Further, the
quality of the synthetically generated samples is evaluated using Frechet
Inception Distance (FID) score. Results show that the quality of synthetic
images generated by the proposed method is superior to that of other competing
methods, including StarGan.
- Abstract(参考訳): 本研究では,マルチドメイン・スタイル・トランスファーのためのCIT-GAN(Cyclic Image Translation Generative Adversarial Network)を提案する。
そこで本研究では,トレーニングデータセットで表現される各ドメインのスタイル特性を学習する能力を有するスタイリングネットワークを提案する。
スタイリングネットワークは、ジェネレータがソースドメインから参照ドメインへの画像の変換を駆動し、参照ドメインのスタイル特性を持つ合成画像を生成するのを支援する。
各ドメインの学習スタイルの特徴は、スタイル損失とドメイン分類損失の両方に依存する。
これにより、各ドメイン内のスタイル特性のばらつきが引き起こされる。
提案したCIT-GANは、アイリス提示攻撃検出(PAD)の文脈において、トレーニングセットに表現されていないクラスに対する合成プレゼンテーション攻撃(PA)サンプルを生成するために使用される。
現在最先端のアイリスPAD法による評価は、PAD法をトレーニングするために合成されたPAサンプルを使用することの有効性を示す。
さらに、Frechet Inception Distance(FID)スコアを用いて合成した試料の品質を評価する。
提案手法により生成された合成画像の品質は,StarGanを含む他の競合する手法よりも優れていることを示す。
関連論文リスト
- Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Learning Disentangled Prompts for Compositional Image Synthesis [27.99470176603746]
本研究では,事前学習した画像生成モデルに1つの画像から新しいスタイルや概念を教え,新しい画像を合成する問題について検討する。
いくつかの画像から意味(クラス)とドメイン(スタイル)の非絡み合ったプロンプトを学習する新規なソースクラス蒸留ビジュアルプロンプトを提案する。
論文 参考訳(メタデータ) (2023-06-01T14:56:37Z) - iWarpGAN: Disentangling Identity and Style to Generate Synthetic Iris
Images [13.60510525958336]
iWarpGANは、クラス間とクラス内の両方のバリエーションでアイリス画像を生成する。
深層学習に基づく虹彩マッチングの性能を向上させることで合成画像の有用性を実証する。
論文 参考訳(メタデータ) (2023-05-21T23:10:14Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Cyclically Disentangled Feature Translation for Face Anti-spoofing [61.70377630461084]
循環不整合特徴変換ネットワーク(CDFTN)と呼ばれる新しい領域適応手法を提案する。
CDFTNは、(1)ソースドメイン不変の生長特徴と2)ドメイン固有のコンテンツ特徴とを持つ擬似ラベル付きサンプルを生成する。
ソースドメインラベルの監督の下で、合成擬似ラベル付き画像に基づいてロバスト分類器を訓練する。
論文 参考訳(メタデータ) (2022-12-07T14:12:34Z) - SIAN: Style-Guided Instance-Adaptive Normalization for Multi-Organ
Histopathology Image Synthesis [63.845552349914186]
本研究では,異なる臓器に対して,現実的な色分布とテクスチャを合成するためのスタイル誘導型インスタンス適応正規化(SIAN)を提案する。
4つのフェーズは一緒に動作し、生成ネットワークに統合され、イメージセマンティクス、スタイル、インスタンスレベルのバウンダリを埋め込む。
論文 参考訳(メタデータ) (2022-09-02T16:45:46Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Improving Augmentation and Evaluation Schemes for Semantic Image
Synthesis [16.097324852253912]
本稿では,GAN(Generative Adversarial Network)に特化して設計された新しい拡張方式を提案する。
本稿では,ジェネレータへの入力として使用するセマンティックラベルマップのオブジェクト形状をランダムにワープする。
ワープされたラベルマップと非ワープされたラベルマップと画像の間の局所的な形状の相違により、GANはシーンの構造的および幾何学的詳細をよりよく学習することができる。
論文 参考訳(メタデータ) (2020-11-25T10:55:26Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。