論文の概要: Facial Demorphing from a Single Morph Using a Latent Conditional GAN
- arxiv url: http://arxiv.org/abs/2507.18566v2
- Date: Mon, 28 Jul 2025 06:43:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 14:15:47.06854
- Title: Facial Demorphing from a Single Morph Using a Latent Conditional GAN
- Title(参考訳): 潜時条件GANを用いた単一形態からの顔面変形
- Authors: Nitish Shukla, Arun Ross,
- Abstract要約: 提案手法は,不明瞭な形態や顔のスタイルから生成した画像の変形を可能にするために,遅延空間における形態を分解する。
合成顔から生成した形態を学習し、異なる形態技術を用いて実顔から生成した形態を試験する。
- 参考スコア(独自算出の注目度): 10.902536447343465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A morph is created by combining two (or more) face images from two (or more) identities to create a composite image that is highly similar to all constituent identities, allowing the forged morph to be biometrically associated with more than one individual. Morph Attack Detection (MAD) can be used to detect a morph, but does not reveal the constituent images. Demorphing - the process of deducing the constituent images - is thus vital to provide additional evidence about a morph. Existing demorphing methods suffer from the morph replication problem, where the outputs tend to look very similar to the morph itself, or assume that train and test morphs are generated using the same morph technique. The proposed method overcomes these issues. The method decomposes a morph in latent space allowing it to demorph images created from unseen morph techniques and face styles. We train our method on morphs created from synthetic faces and test on morphs created from real faces using different morph techniques. Our method outperforms existing methods by a considerable margin and produces high fidelity demorphed face images.
- Abstract(参考訳): モルフは、2つ(またはそれ以上)のアイデンティティから2つ(またはそれ以上)の顔画像を組み合わせて、すべての構成IDに非常によく似た合成画像を生成し、偽造形態を複数の個人と生体的に関連付けることによって生成される。
モルフ検出(MAD)は、形態を検出するために用いられるが、構成画像は明らかにしない。
従って、デモルフィング (demorphing) - 構成像を推論するプロセス - は、形態に関する追加の証拠を提供するために不可欠である。
既存のデモルフィズム法では、出力がモルフィズム自身と非常によく似ているか、または同じモルフィズム技術を用いて列車と試験モルフィズムが生成されると仮定するモルフィズム複製問題に悩まされる。
提案手法はこれらの問題を克服する。
この方法は、見えない形態技術や顔スタイルから生成された画像の変形を可能にする潜伏空間のモルフを分解する。
合成顔から生成した形態を学習し、異なる形態技術を用いて実顔から生成した形態を試験する。
提案手法は既存の手法よりもかなりのマージンで優れ,高忠実度デモルフィックな顔画像を生成する。
関連論文リスト
- diffDemorph: Extending Reference-Free Demorphing to Unseen Faces [10.902536447343465]
diffDeMorphは、視覚的忠実度の高い複合形態画像から成分画像を効果的に切り離す。
本手法は,合成顔画像を用いて生成した形態を訓練し,実形態を検査することにより,その実用性を向上させる。
論文 参考訳(メタデータ) (2025-05-20T15:48:27Z) - dc-GAN: Dual-Conditioned GAN for Face Demorphing From a Single Morph [10.902536447343465]
顔変形は、顔形態を構成する原画像の復元を試みる。
dc-GAN(Dual-conditioned GAN)は、画像から抽出された埋め込みと同様に、形態像上に条件付けられた新規な変形法である。
本手法は, 形状再現問題を克服し, 構成像の高忠実度再構成を行う。
論文 参考訳(メタデータ) (2024-11-20T19:24:30Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Facial De-morphing: Extracting Component Faces from a Single Morph [12.346914707006773]
モルヒネ攻撃検出戦略は モルヒネを検出できるが 画像や身元を復元できない
そこで本研究では,顔画像から両アイデンティティの画像を同時に復元できる新しいデモーフィング手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T05:01:02Z) - I M Avatar: Implicit Morphable Head Avatars from Videos [68.13409777995392]
モノクロビデオから暗黙の頭部アバターを学習するための新しい手法であるIMavatarを提案する。
従来の3DMMによるきめ細かい制御機構に着想を得て, 学習用ブレンドサップとスキンフィールドによる表現・ポーズ関連変形を表現した。
本手法は,最先端の手法と比較して,幾何性を改善し,より完全な表現空間をカバーできることを定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2021-12-14T15:30:32Z) - Image Morphing with Perceptual Constraints and STN Alignment [70.38273150435928]
本稿では,一対の入力画像で動作する条件付きGANモーフィングフレームワークを提案する。
特別なトレーニングプロトコルは、知覚的類似性損失と組み合わせてフレームのシーケンスを生成し、時間とともにスムーズな変換を促進する。
我々は、古典的かつ潜時的な空間変形技術との比較を行い、自己スーパービジョンのための一連の画像から、我々のネットワークが視覚的に楽しむモーフィング効果を生成することを実証する。
論文 参考訳(メタデータ) (2020-04-29T10:49:10Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。