論文の概要: MIPGAN -- Generating Strong and High Quality Morphing Attacks Using
Identity Prior Driven GAN
- arxiv url: http://arxiv.org/abs/2009.01729v3
- Date: Wed, 7 Apr 2021 11:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 08:03:11.828484
- Title: MIPGAN -- Generating Strong and High Quality Morphing Attacks Using
Identity Prior Driven GAN
- Title(参考訳): MIPGAN -- アイデンティティ事前駆動型GANを用いた強力で高品質なモーフィング攻撃の生成
- Authors: Haoyu Zhang, Sushma Venkatesh, Raghavendra Ramachandra, Kiran Raja,
Naser Damer, Christoph Busch
- Abstract要約: 本稿では,アイデンティティ優先型生成適応ネットワークを用いた攻撃生成手法を提案する。
提案するMIPGANは、知覚的品質と識別因子を利用した新たに定式化された損失関数であるStyleGANから派生した。
提案手法は,商用およびディープラーニングベースの顔認識システムに対して,その脆弱性を評価することによって,強力なモーフィング攻撃を発生させることが可能であることを示す。
- 参考スコア(独自算出の注目度): 22.220940043294334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face morphing attacks target to circumvent Face Recognition Systems (FRS) by
employing face images derived from multiple data subjects (e.g., accomplices
and malicious actors). Morphed images can be verified against contributing data
subjects with a reasonable success rate, given they have a high degree of
facial resemblance. The success of morphing attacks is directly dependent on
the quality of the generated morph images. We present a new approach for
generating strong attacks extending our earlier framework for generating face
morphs. We present a new approach using an Identity Prior Driven Generative
Adversarial Network, which we refer to as MIPGAN (Morphing through Identity
Prior driven GAN). The proposed MIPGAN is derived from the StyleGAN with a
newly formulated loss function exploiting perceptual quality and identity
factor to generate a high quality morphed facial image with minimal artefacts
and with high resolution. We demonstrate the proposed approach's applicability
to generate strong morphing attacks by evaluating its vulnerability against
both commercial and deep learning based Face Recognition System (FRS) and
demonstrate the success rate of attacks. Extensive experiments are carried out
to assess the FRS's vulnerability against the proposed morphed face generation
technique on three types of data such as digital images, re-digitized (printed
and scanned) images, and compressed images after re-digitization from newly
generated MIPGAN Face Morph Dataset. The obtained results demonstrate that the
proposed approach of morph generation poses a high threat to FRS.
- Abstract(参考訳): 顔形態攻撃は、複数のデータ主体(例えば、共犯者や悪質なアクター)から派生した顔画像を利用することで、顔認識システム(FRS)を回避しようとする。
モルフィド画像は、顔の類似度が高いため、合理的な成功率の貢献データに対して検証することができる。
モーフィング攻撃の成功は、生成したモーフィング画像の品質に直接依存する。
我々は、顔形態を生成するための以前のフレームワークを拡張する強力な攻撃を生成するための新しいアプローチを提案する。
我々は,アイデンティティ優先型生成型敵ネットワークを用いた新しいアプローチを提案し,これをmipgan(アイデンティティ優先型ganによるモーフィング)と呼ぶ。
提案したMIPGANは,知覚品質と識別因子を利用して,最小限のアーチファクトと高解像度の高品質な顔画像を生成する,新たに構成された損失関数であるStyleGANから派生した。
提案手法は,商用およびディープラーニングベースの顔認識システム(FRS)に対する脆弱性を評価することによって,強力なモーフィング攻撃を発生させる可能性を示し,攻撃の成功率を示す。
提案手法に対するfrsの脆弱性を評価するために, ディジタル画像, 再デジタル化(印刷およびスキャン)画像, 新たに生成されたmipgan顔形態データセットからの再デジタル化後の圧縮画像などの3種類のデータに対して, frsの脆弱性を評価した。
その結果, モルヒネ生成のアプローチはFRSに高い脅威をもたらすことが示された。
関連論文リスト
- LADIMO: Face Morph Generation through Biometric Template Inversion with Latent Diffusion [5.602947425285195]
顔改ざん攻撃は、顔認識システムに深刻なセキュリティ脅威をもたらす。
本稿では,2つの顔認識の埋め込みにおいて,表現レベルの顔形態形成手法であるLADIMOを提案する。
顔形態変種は個々の攻撃成功率を持ち、形態的攻撃ポテンシャルを最大化できることを示す。
論文 参考訳(メタデータ) (2024-10-10T14:41:37Z) - DiffusionFace: Towards a Comprehensive Dataset for Diffusion-Based Face Forgery Analysis [71.40724659748787]
DiffusionFaceは、最初の拡散ベースのフェイスフォージェリーデータセットである。
非条件およびテキストガイドの顔画像生成、Img2Img、Inpaint、Diffusionベースの顔交換アルゴリズムなど、さまざまなフォージェリーカテゴリをカバーする。
重要なメタデータと、評価のための実世界のインターネットソースの偽顔画像データセットを提供する。
論文 参考訳(メタデータ) (2024-03-27T11:32:44Z) - Hierarchical Generative Network for Face Morphing Attacks [7.34597796509503]
顔認識システム(FRS)は、複数のアイデンティティを含む形態画像を作成することで、顔認識システム(FRS)を回避している。
本研究では, 画像の品質向上と寄与するアイデンティティの保存を図るため, 新たなモーフィング攻撃法を提案する。
論文 参考訳(メタデータ) (2024-03-17T06:09:27Z) - Optimal-Landmark-Guided Image Blending for Face Morphing Attacks [8.024953195407502]
本稿では,最適なランドマーク誘導画像ブレンディングを用いた顔形態形成攻撃を行うための新しい手法を提案する。
提案手法は, ランドマークの最適化とグラフ畳み込みネットワーク(GCN)によるランドマークと外観特徴の組み合わせにより, 従来のアプローチの限界を克服する。
論文 参考訳(メタデータ) (2024-01-30T03:45:06Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Landmark Enforcement and Style Manipulation for Generative Morphing [24.428843425522107]
本稿では,この問題を解決するためにランドマーク法を導入し,新しいスタイルGAN形態生成手法を提案する。
本モデルの潜伏空間の探索は主成分分析 (PCA) を用いて行われ, 両面が変形した潜伏表現に与える影響を強調した。
形態素の高周波再構成を改善するため,StyleGAN2モデルにおける雑音入力のトレインビリティについて検討した。
論文 参考訳(メタデータ) (2022-10-18T22:10:25Z) - GMFIM: A Generative Mask-guided Facial Image Manipulation Model for
Privacy Preservation [0.7734726150561088]
入力顔画像に知覚不可能な編集を適用するために,GANをベースとしたマスク誘導顔画像マニピュレーションモデルを提案する。
我々のモデルは、最先端の手法と比較して、自動顔認識システムに対してより良い性能を実現することができる。
論文 参考訳(メタデータ) (2022-01-10T14:09:14Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。