論文の概要: Protecting Facial Privacy: Generating Adversarial Identity Masks via
Style-robust Makeup Transfer
- arxiv url: http://arxiv.org/abs/2203.03121v1
- Date: Mon, 7 Mar 2022 03:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 17:42:17.606731
- Title: Protecting Facial Privacy: Generating Adversarial Identity Masks via
Style-robust Makeup Transfer
- Title(参考訳): 顔のプライバシーを守る:スタイルロバストメイクアップ転送による敵のアイデンティティマスクの生成
- Authors: Shengshan Hu, Xiaogeng Liu, Yechao Zhang, Minghui Li, Leo Yu Zhang,
Hai Jin, Libing Wu
- Abstract要約: 対向性化粧品転写GAN(AMT-GAN)は、対向性化粧品の顔画像構築を目的とした新しい顔保護法である。
本稿では,新しい正規化モジュールを導入するとともに,化粧品の移動における対向雑音とサイクル構成損失との矛盾を解消するための共同トレーニング戦略を導入する。
- 参考スコア(独自算出の注目度): 24.25863892897547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep face recognition (FR) systems have shown amazing performance in
identification and verification, they also arouse privacy concerns for their
excessive surveillance on users, especially for public face images widely
spread on social networks. Recently, some studies adopt adversarial examples to
protect photos from being identified by unauthorized face recognition systems.
However, existing methods of generating adversarial face images suffer from
many limitations, such as awkward visual, white-box setting, weak
transferability, making them difficult to be applied to protect face privacy in
reality. In this paper, we propose adversarial makeup transfer GAN (AMT-GAN), a
novel face protection method aiming at constructing adversarial face images
that preserve stronger black-box transferability and better visual quality
simultaneously. AMT-GAN leverages generative adversarial networks (GAN) to
synthesize adversarial face images with makeup transferred from reference
images. In particular, we introduce a new regularization module along with a
joint training strategy to reconcile the conflicts between the adversarial
noises and the cycle consistence loss in makeup transfer, achieving a desirable
balance between the attack strength and visual changes. Extensive experiments
verify that compared with state of the arts, AMT-GAN can not only preserve a
comfortable visual quality, but also achieve a higher attack success rate over
commercial FR APIs, including Face++, Aliyun, and Microsoft.
- Abstract(参考訳): 深層顔認識(deep face recognition, fr)システムは、識別と検証において驚くべきパフォーマンスを示しているが、特にソーシャルネットワークに広く普及している公開顔画像において、ユーザに対する過度な監視に対するプライバシーの懸念も高めている。
近年,写真が無許可の顔認識システムによって識別されるのを防ぐために,敵対的な例を採用する研究もある。
しかし、既存の対向的な顔画像生成方法は、目障りな視覚、ホワイトボックス設定、転送性が弱く、実際の顔プライバシーを保護するために適用が難しいなど、多くの制限に苦しめられている。
本稿では,より強力なブラックボックス転送性と視覚的品質を同時に維持する対向顔画像構築を目的とした,新しい顔保護手法であるAMT-GANを提案する。
amt-ganはgan(generative adversarial networks)を利用して、参照画像からメークアップされた顔画像を生成する。
特に,新しい正則化モジュールと,逆騒音とメークアップ転送におけるサイクル構成損失との競合を解消し,攻撃強度と視覚変化との望ましいバランスを実現するための合同トレーニング戦略を導入する。
AMT-GANは、最先端のアートと比較して、快適な視覚的品質を維持するだけでなく、Face++、Aliyun、Microsoftといった商用FR APIよりも高い攻撃成功率を達成することができる。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - NeRFTAP: Enhancing Transferability of Adversarial Patches on Face
Recognition using Neural Radiance Fields [15.823538329365348]
本稿では、FRモデルへの転送可能性と被害者の顔画像の両方を考慮し、新たな敵攻撃法を提案する。
我々は,敵パッチの転送可能性を高めるために,ソースと対象対象のための新しいビューフェイス画像を生成する。
本研究は, FRシステムの強靭性向上に有用な知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T03:17:14Z) - Face Encryption via Frequency-Restricted Identity-Agnostic Attacks [25.198662208981467]
悪意あるコレクターは、生体情報を簡単に盗むためにディープフェイス認識システムを使用します。
非許可の顔認識から顔画像を暗号化するための周波数制限ID非依存(FRIA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-11T07:38:46Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。