論文の概要: Facial De-morphing: Extracting Component Faces from a Single Morph
- arxiv url: http://arxiv.org/abs/2209.02933v1
- Date: Wed, 7 Sep 2022 05:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:29:55.553409
- Title: Facial De-morphing: Extracting Component Faces from a Single Morph
- Title(参考訳): 顔面変形:単一形態からの成分顔の抽出
- Authors: Sudipta Banerjee and Prateek Jaiswal and Arun Ross
- Abstract要約: モルヒネ攻撃検出戦略は モルヒネを検出できるが 画像や身元を復元できない
そこで本研究では,顔画像から両アイデンティティの画像を同時に復元できる新しいデモーフィング手法を提案する。
- 参考スコア(独自算出の注目度): 12.346914707006773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A face morph is created by strategically combining two or more face images
corresponding to multiple identities. The intention is for the morphed image to
match with multiple identities. Current morph attack detection strategies can
detect morphs but cannot recover the images or identities used in creating
them. The task of deducing the individual face images from a morphed face image
is known as \textit{de-morphing}. Existing work in de-morphing assume the
availability of a reference image pertaining to one identity in order to
recover the image of the accomplice - i.e., the other identity. In this work,
we propose a novel de-morphing method that can recover images of both
identities simultaneously from a single morphed face image without needing a
reference image or prior information about the morphing process. We propose a
generative adversarial network that achieves single image-based de-morphing
with a surprisingly high degree of visual realism and biometric similarity with
the original face images. We demonstrate the performance of our method on
landmark-based morphs and generative model-based morphs with promising results.
- Abstract(参考訳): 複数のアイデンティティに対応する2つ以上の顔画像を戦略的に組み合わせて顔形態を作成する。
その意図は、モーフィックな画像が複数のアイデンティティと一致することである。
現在の形態攻撃検出戦略は、形態を検出することができるが、それらを作成する際に使用される画像やアイデンティティを回復することはできない。
顔画像から個々の顔画像を導出するタスクは \textit{de-morphing} と呼ばれる。
既存のデフォーミングの作業は、共犯者のイメージ、すなわち他のアイデンティティを回復するために、1つのアイデンティティに関連する参照イメージが利用可能であると仮定する。
そこで本研究では, 参照画像や先行情報を必要とせずに, 両人物の画像を単一の顔画像から同時に復元できるデモーフィング手法を提案する。
本稿では,従来の顔画像と驚くほど高い視覚的リアリズムと生体的類似性を持つ単一画像に基づくデモーフィングを実現する。
本手法はランドマークに基づく形態と生成モデルに基づく形態に対して有望な結果を示す。
関連論文リスト
- StableIdentity: Inserting Anybody into Anywhere at First Sight [57.99693188913382]
一つの顔画像で同一性に一貫性のある再テクスチャ化を可能にするStableIdentityを提案する。
私たちは、1つの画像から学んだアイデンティティを直接、微調整なしでビデオ/3D生成に注入する最初の人です。
論文 参考訳(メタデータ) (2024-01-29T09:06:15Z) - SDeMorph: Towards Better Facial De-morphing from Single Morph [0.0]
顔認識システム(FRS)はモルヒネ攻撃に対して脆弱である。
現在のMorph Detection (MAD)は、その形態を検出できるが、その形態を生成するために使われるアイデンティティを回復できない。
SDeMorphは参照のない新しいデモルフィング法であり,ボナファイドのアイデンティティを復元する。
論文 参考訳(メタデータ) (2023-08-22T13:46:12Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Disentangling Identity and Pose for Facial Expression Recognition [54.50747989860957]
より識別的な特徴表現を学習するために,識別モデルを提案し,不整形表情認識(IPD-FER)モデルを提案する。
アイデンティティエンコーダでは、訓練中に訓練済みの顔認識モデルを利用して固定し、特定の表情訓練データに対する制限を軽減する。
合成された中性画像と同一個体の表情画像との差を比較することにより、表現成分はアイデンティティやポーズからさらに切り離される。
論文 参考訳(メタデータ) (2022-08-17T06:48:13Z) - Are GAN-based Morphs Threatening Face Recognition? [3.0921354926071274]
本稿では,4種類のモーフィング攻撃のためのデータセットと対応するコードを提供することにより,このギャップを埋める。
また、4つの最先端の顔認識システムの脆弱性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-05-05T08:19:47Z) - Adversarially Perturbed Wavelet-based Morphed Face Generation [16.98806338782858]
モールフド画像は、顔認識システムを騙して、複数の人を誤って受け入れる。
画像合成が簡単になるにつれて、研究コミュニティの利用可能なデータを拡張することが不可欠である。
両方の手法を用いて、FERET, FRGC, FRLLデータセットから高品質な逆向き摂動を生成する。
論文 参考訳(メタデータ) (2021-11-03T01:18:29Z) - Can GAN Generated Morphs Threaten Face Recognition Systems Equally as
Landmark Based Morphs? -- Vulnerability and Detection [22.220940043294334]
本稿では,新たなGAN(Generative Adversarial Network)-StyleGANを用いた顔形態生成フレームワークを提案する。
2500枚の顔画像が新たに作成された形態データセットでは、この研究に批判的な疑問が浮かび上がっている。
論文 参考訳(メタデータ) (2020-07-07T16:52:56Z) - Style Your Face Morph and Improve Your Face Morphing Attack Detector [2.0883760606514934]
顔の画像は合成画像で、2つの被験者の顔と非常によく似ているので、どちらも検証に使える。
形態素顔画像の品質を向上するスタイル転送方式を提案する。
論文 参考訳(メタデータ) (2020-04-23T19:29:07Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。