論文の概要: Mitigating the Impact of Attribute Editing on Face Recognition
- arxiv url: http://arxiv.org/abs/2403.08092v1
- Date: Tue, 12 Mar 2024 22:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:22:35.560424
- Title: Mitigating the Impact of Attribute Editing on Face Recognition
- Title(参考訳): 属性編集が顔認識に与える影響について
- Authors: Sudipta Banerjee, Sai Pranaswi Mullangi, Shruti Wagle, Chinmay Hegde,
Nasir Memon
- Abstract要約: ローカル属性とグローバル属性の編集を行う2つの手法を提案する。
我々は、現在最先端の生成モデルを用いて、26の顔意味、人口統計、および表現に基づく属性を実証的に比較した。
本手法は,識別を維持しながら顔編集において,SOTA(BLIP, InstantID)よりも優れていた。
- 参考スコア(独自算出の注目度): 15.168932314507366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial attribute editing using generative models can impair automated face
recognition. This degradation persists even with recent identity-preserving
models such as InstantID. To mitigate this issue, we propose two techniques
that perform local and global attribute editing. Local editing operates on the
finer details via a regularization-free method based on ControlNet conditioned
on depth maps and auxiliary semantic segmentation masks. Global editing
operates on coarser details via a regularization-based method guided by custom
loss and regularization set. In this work, we empirically ablate twenty-six
facial semantic, demographic and expression-based attributes altered using
state-of-the-art generative models and evaluate them using ArcFace and AdaFace
matchers on CelebA, CelebAMaskHQ and LFW datasets. Finally, we use LLaVA, a
vision-language framework for attribute prediction to validate our editing
techniques. Our methods outperform SoTA (BLIP, InstantID) at facial editing
while retaining identity.
- Abstract(参考訳): 生成モデルを用いた顔属性の編集は、顔の自動認識を損なう可能性がある。
この劣化は、InstantIDのような最近のID保存モデルでも持続する。
この問題を軽減するために,局所的およびグローバルな属性編集を行う2つの手法を提案する。
局所編集は、深度マップとセマンティックセマンティックセグメンテーションマスクを条件とした制御ネットに基づく正規化フリーの手法により、より細部まで操作する。
グローバル編集は、カスタマイズされた損失と正規化セットによってガイドされた正規化ベースの方法を通じて、粗い詳細で動作する。
本研究では,CelebA,CelebAMaskHQおよびLFWデータセット上のArcFaceおよびAdaFaceマーカを用いて,最新の生成モデルを用いて変化した26の顔意味,人口統計,表現に基づく属性を実証的に比較した。
最後に,属性予測のための視覚言語フレームワークであるLLaVAを用いて編集手法を検証する。
本手法は,識別を維持しながら顔編集において,SOTA(BLIP, InstantID)よりも優れていた。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - DreamIdentity: Improved Editability for Efficient Face-identity
Preserved Image Generation [69.16517915592063]
人間の顔の正確な表現を学習するための新しい顔識別エンコーダを提案する。
また、モデルの編集可能性を高めるために、自己拡張編集可能性学習を提案する。
我々の手法は、異なるシーン下でより高速にアイデンティティ保存された画像を生成することができる。
論文 参考訳(メタデータ) (2023-07-01T11:01:17Z) - ManiCLIP: Multi-Attribute Face Manipulation from Text [104.30600573306991]
テキスト記述に基づく新しい多属性顔操作法を提案する。
本手法は,テキスト関連属性の編集を最小限に抑えた自然な顔を生成する。
論文 参考訳(メタデータ) (2022-10-02T07:22:55Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - A comprehensive survey on semantic facial attribute editing using
generative adversarial networks [0.688204255655161]
多くの顔生成と操作モデルが提案されている。
セマンティック顔属性編集(Semantic face attribute editing)は、顔画像の1つ以上の属性の値を変更する過程である。
アーキテクチャに基づいて、最先端のモデルはエンコーダデコーダ、イメージ・ツー・イメージ、フォトガイドモデルに分類され、研究される。
論文 参考訳(メタデータ) (2022-05-21T13:09:38Z) - A Latent Transformer for Disentangled and Identity-Preserving Face
Editing [3.1542695050861544]
本稿では,StyleGANジェネレータの潜時空間を介して顔属性を編集することを提案する。
我々は、専用潜伏変換ネットワークを訓練し、損失関数に明示的な絡み合いとアイデンティティ保存項を組み込む。
本モデルは,現実的な(非合成的な)画像やビデオの難易度においても,不整合で制御可能で,顔属性の編集が可能なモデルである。
論文 参考訳(メタデータ) (2021-06-22T16:04:30Z) - MagGAN: High-Resolution Face Attribute Editing with Mask-Guided
Generative Adversarial Network [145.4591079418917]
MagGANは、望ましい属性変更に関連する顔の部分のみを編集することを学ぶ。
各属性変更の影響領域をジェネレータに組み込むために、新しいマスク誘導条件付け戦略を導入する。
高解像度(1024×1024$)の顔編集のために,マルチレベルパッチワイド識別器構造を提案する。
論文 参考訳(メタデータ) (2020-10-03T20:56:16Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。