論文の概要: Makeup-Guided Facial Privacy Protection via Untrained Neural Network Priors
- arxiv url: http://arxiv.org/abs/2408.12387v1
- Date: Tue, 20 Aug 2024 17:59:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 13:53:43.087772
- Title: Makeup-Guided Facial Privacy Protection via Untrained Neural Network Priors
- Title(参考訳): トレーニングされていないニューラルネットワークによるメイクアップガイドによる顔のプライバシー保護
- Authors: Fahad Shamshad, Muzammal Naseer, Karthik Nandakumar,
- Abstract要約: ディープラーニングベースの顔認識システムは、ユーザーの同意なしにユーザーを追跡することによって、重大なプライバシーリスクを生じさせる。
最近の顔のプライバシー保護アプローチは、自然なメイクスタイルに敵対的ノイズを埋め込むことを提唱している。
これらのアプローチは、必ずしも容易に利用できない大規模なメイクアップデータセットのトレーニングを必要とする。
そこで本稿では,非トレーニングニューラルネットワークのみを最適化したテスト時間最適化手法を提案する。
- 参考スコア(独自算出の注目度): 20.006182211662853
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning-based face recognition (FR) systems pose significant privacy risks by tracking users without their consent. While adversarial attacks can protect privacy, they often produce visible artifacts compromising user experience. To mitigate this issue, recent facial privacy protection approaches advocate embedding adversarial noise into the natural looking makeup styles. However, these methods require training on large-scale makeup datasets that are not always readily available. In addition, these approaches also suffer from dataset bias. For instance, training on makeup data that predominantly contains female faces could compromise protection efficacy for male faces. To handle these issues, we propose a test-time optimization approach that solely optimizes an untrained neural network to transfer makeup style from a reference to a source image in an adversarial manner. We introduce two key modules: a correspondence module that aligns regions between reference and source images in latent space, and a decoder with conditional makeup layers. The untrained decoder, optimized via carefully designed structural and makeup consistency losses, generates a protected image that resembles the source but incorporates adversarial makeup to deceive FR models. As our approach does not rely on training with makeup face datasets, it avoids potential male/female dataset biases while providing effective protection. We further extend the proposed approach to videos by leveraging on temporal correlations. Experiments on benchmark datasets demonstrate superior performance in face verification and identification tasks and effectiveness against commercial FR systems. Our code and models will be available at https://github.com/fahadshamshad/deep-facial-privacy-prior
- Abstract(参考訳): ディープラーニングベースの顔認識(FR)システムは、ユーザの同意なしにユーザを追跡することにより、重大なプライバシーリスクを生じさせる。
敵の攻撃はプライバシーを保護できるが、ユーザー体験を損なう目に見える成果物をしばしば生み出す。
この問題を軽減するために、最近の顔のプライバシー保護アプローチは、自然な化粧スタイルに敵対的ノイズを埋め込むことを提唱している。
しかし、これらの方法は、必ずしも容易に利用できない大規模なメイクアップデータセットのトレーニングを必要とする。
さらに、これらのアプローチはデータセットバイアスにも悩まされる。
例えば、主に女性の顔を含む化粧データのトレーニングは、男性の顔に対する保護効果を損なう可能性がある。
これらの問題に対処するために、トレーニングされていないニューラルネットワークを単純に最適化して、ソース画像への参照から逆向きにメイクスタイルを転送するテストタイム最適化手法を提案する。
本稿では,遅延空間における参照画像とソース画像の領域をアライメントする対応モジュールと,条件付きメイクレイヤを持つデコーダの2つの重要なモジュールを紹介する。
トレーニングされていないデコーダは、慎重に設計された構造と構成の整合性を損なうことで最適化され、ソースに似た保護されたイメージを生成するが、FRモデルを騙すために敵のメイクを組み込む。
当社のアプローチはメイクフェイスデータセットによるトレーニングに頼らないため、効果的な保護を提供しながら、潜在的な男性/女性データセットバイアスを回避することができる。
我々は、時間的相関を利用して、提案した動画へのアプローチをさらに拡張する。
ベンチマークデータセットの実験は、顔認証および識別タスクにおいて優れた性能を示し、商用FRシステムに対する有効性を示す。
私たちのコードとモデルはhttps://github.com/fahadshamshad/deep-face-privacy-priorで公開されます。
関連論文リスト
- Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Protecting Facial Privacy: Generating Adversarial Identity Masks via
Style-robust Makeup Transfer [24.25863892897547]
対向性化粧品転写GAN(AMT-GAN)は、対向性化粧品の顔画像構築を目的とした新しい顔保護法である。
本稿では,新しい正規化モジュールを導入するとともに,化粧品の移動における対向雑音とサイクル構成損失との矛盾を解消するための共同トレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-03-07T03:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。