論文の概要: diffDemorph: Extending Reference-Free Demorphing to Unseen Faces
- arxiv url: http://arxiv.org/abs/2505.14527v1
- Date: Tue, 20 May 2025 15:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.540329
- Title: diffDemorph: Extending Reference-Free Demorphing to Unseen Faces
- Title(参考訳): diffDemorph: 参照なしのデモーフィングを見えない顔に拡張する
- Authors: Nitish Shukla, Arun Ross,
- Abstract要約: 本稿では,視覚的忠実度の高い複合形態像から成分像を効果的に切り離す,拡散に基づく新しいアプローチを提案する。
我々の手法は、モーフィック技法やフェイススタイルにまたがる最初の一般化であり、一般的なトレーニングプロトコルの下では、現在の最先端を$geq 59.46%で打ち負かしている。
- 参考スコア(独自算出の注目度): 10.902536447343465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A face morph is created by combining two (or more) face images corresponding to two (or more) identities to produce a composite that successfully matches the constituent identities. Reference-free (RF) demorphing reverses this process using only the morph image, without the need for additional reference images. Previous RF demorphing methods were overly constrained, as they rely on assumptions about the distributions of training and testing morphs such as the morphing technique used, face style, and images used to create the morph. In this paper, we introduce a novel diffusion-based approach that effectively disentangles component images from a composite morph image with high visual fidelity. Our method is the first to generalize across morph techniques and face styles, beating the current state of the art by $\geq 59.46\%$ under a common training protocol across all datasets tested. We train our method on morphs created using synthetically generated face images and test on real morphs, thereby enhancing the practicality of the technique. Experiments on six datasets and two face matchers establish the utility and efficacy of our method.
- Abstract(参考訳): 顔形態は、2つの(またはそれ以上)のアイデンティティに対応する2つの(またはそれ以上)の顔画像を組み合わせて、構成されたアイデンティティとうまく一致した合成物を生成する。
参照フリー(RF)デモルフィズムは、追加の参照イメージを必要とせずに、モルフィックイメージのみを使用してこのプロセスを逆転させる。
従来のRFデモルフィング法は、モルフィング技術、顔のスタイル、モルフィングを作成するために使用される画像など、トレーニングや試験形態の分布に関する仮定に依存するため、過度に制約されていた。
本稿では,視覚的忠実度の高い複合形態像から成分像を効果的に切り離す,拡散に基づく新しいアプローチを提案する。
我々の手法は、試験されたすべてのデータセットで共通のトレーニングプロトコルの下で現在の最先端を$\geq 59.46\%で打ち負かし、モーフィックテクニックとフェイススタイルを一般化する最初の方法である。
本手法は,合成顔画像を用いて生成した形態を訓練し,実形態を検査することにより,その実用性を向上させる。
6つのデータセットと2つの顔マッチング実験により,本手法の有用性と有効性を確立した。
関連論文リスト
- dc-GAN: Dual-Conditioned GAN for Face Demorphing From a Single Morph [10.902536447343465]
そこで本研究では, モーフィック画像に条件付き新規なGANデモルフィック法であるdc-GANを提案する。
提案手法は, 形態の再現性を克服し, ボナフィド画像の高品質な再構成を行う。
論文 参考訳(メタデータ) (2024-11-20T19:24:30Z) - Facial Demorphing via Identity Preserving Image Decomposition [10.902536447343465]
モルヒネ攻撃検出技術は ボナファイドの情報を抽出しない
参照不要でボナファイドを高精度に回収する手法を提案する。
本手法は, 高品質なボナファイドを定義・忠実度で再構成する。
論文 参考訳(メタデータ) (2024-08-20T16:42:11Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Facial De-morphing: Extracting Component Faces from a Single Morph [12.346914707006773]
モルヒネ攻撃検出戦略は モルヒネを検出できるが 画像や身元を復元できない
そこで本研究では,顔画像から両アイデンティティの画像を同時に復元できる新しいデモーフィング手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T05:01:02Z) - Image Morphing with Perceptual Constraints and STN Alignment [70.38273150435928]
本稿では,一対の入力画像で動作する条件付きGANモーフィングフレームワークを提案する。
特別なトレーニングプロトコルは、知覚的類似性損失と組み合わせてフレームのシーケンスを生成し、時間とともにスムーズな変換を促進する。
我々は、古典的かつ潜時的な空間変形技術との比較を行い、自己スーパービジョンのための一連の画像から、我々のネットワークが視覚的に楽しむモーフィング効果を生成することを実証する。
論文 参考訳(メタデータ) (2020-04-29T10:49:10Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。