論文の概要: Adv-CPG: A Customized Portrait Generation Framework with Facial Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2503.08269v1
- Date: Tue, 11 Mar 2025 10:34:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:45:37.701672
- Title: Adv-CPG: A Customized Portrait Generation Framework with Facial Adversarial Attacks
- Title(参考訳): Adv-CPG: 対顔攻撃によるカスタムポートレート生成フレームワーク
- Authors: Junying Wang, Hongyuan Zhang, Yuan Yuan,
- Abstract要約: 本稿では,顔対立攻撃(Adv-CPG)を用いたカスタムポートレート生成フレームワークを提案する。
顔のプライバシー保護を実現するため,軽量なローカルID暗号化器と暗号化エンハンサーを考案した。
細粒度でパーソナライズされたポートレート生成を実現するため,マルチモーダル画像カスタマイズ器を開発した。
- 参考スコア(独自算出の注目度): 15.003037338788017
- License:
- Abstract: Recent Customized Portrait Generation (CPG) methods, taking a facial image and a textual prompt as inputs, have attracted substantial attention. Although these methods generate high-fidelity portraits, they fail to prevent the generated portraits from being tracked and misused by malicious face recognition systems. To address this, this paper proposes a Customized Portrait Generation framework with facial Adversarial attacks (Adv-CPG). Specifically, to achieve facial privacy protection, we devise a lightweight local ID encryptor and an encryption enhancer. They implement progressive double-layer encryption protection by directly injecting the target identity and adding additional identity guidance, respectively. Furthermore, to accomplish fine-grained and personalized portrait generation, we develop a multi-modal image customizer capable of generating controlled fine-grained facial features. To the best of our knowledge, Adv-CPG is the first study that introduces facial adversarial attacks into CPG. Extensive experiments demonstrate the superiority of Adv-CPG, e.g., the average attack success rate of the proposed Adv-CPG is 28.1% and 2.86% higher compared to the SOTA noise-based attack methods and unconstrained attack methods, respectively.
- Abstract(参考訳): 近年,顔画像とテキストのプロンプトを入力として用いたCPG(Customized Portrait Generation)手法が注目されている。
これらの方法は高忠実なポートレートを生成するが、悪意ある顔認識システムによって生成されたポートレートが追跡され、誤用されるのを防ぐことはできない。
そこで本稿では, 対面攻撃(Adv-CPG)を用いたカスタムポートレート生成フレームワークを提案する。
具体的には、顔のプライバシー保護を実現するために、軽量なローカルID暗号化と暗号化エンハンサーを考案する。
ターゲットのIDを直接注入し、追加のIDガイダンスを追加することで、プログレッシブな二重層暗号化保護を実装している。
さらに、細粒度でパーソナライズされたポートレート生成を実現するために、制御されたきめ細かい顔の特徴を生成できるマルチモーダル画像カスタマイズ器を開発した。
我々の知る限りでは、Adv-CPGはCPGに対顔攻撃を導入した最初の研究である。
広汎な実験により,提案したAdv-CPGの平均攻撃成功率は,SOTAノイズベース攻撃法と非拘束攻撃法と比較して28.1%,2.86%高かった。
関連論文リスト
- IDProtector: An Adversarial Noise Encoder to Protect Against ID-Preserving Image Generation [21.06493827123594]
本稿では,1つのフォワードパスのポートレート写真に対して,非知覚的な逆方向ノイズを印加する逆方向ノイズエンコーダであるIDProtectorを紹介する。
我々のアプローチは、InstantID、IP-Adapter、PhotoMakerなど、最先端のエンコーダベースの複数のメソッドに対して、ポートレートを普遍的に保護する。
論文 参考訳(メタデータ) (2024-12-16T10:27:48Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。