論文の概要: MASQUE: A Text-Guided Diffusion-Based Framework for Localized and Customized Adversarial Makeup
- arxiv url: http://arxiv.org/abs/2503.10549v1
- Date: Thu, 13 Mar 2025 17:05:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:47.988786
- Title: MASQUE: A Text-Guided Diffusion-Based Framework for Localized and Customized Adversarial Makeup
- Title(参考訳): MASQUE: テキストガイド付き拡散ベースフレームワーク
- Authors: Youngjin Kwon, Xiao Zhang,
- Abstract要約: 我々は,ユーザ定義のテキストプロンプトで導かれる局所的な対角化粧を生成する新しい拡散ベースのフレームワークであるMASQUEを開発する。
以上の結果から,MASQUEはすべてのベースラインに対するドッジ成功率を大幅に向上し,知覚的忠実度が向上し,テキストメイクプロンプトへの適応性が向上することが示された。
- 参考スコア(独自算出の注目度): 5.458723542827626
- License:
- Abstract: As facial recognition is increasingly adopted for government and commercial services, its potential misuse has raised serious concerns about privacy and civil rights. To counteract, various anti-facial recognition techniques have been proposed for privacy protection by adversarially perturbing face images, among which generative makeup-based approaches are the most popular. However, these methods, designed primarily to impersonate specific target identities, can only achieve weak dodging success rates while increasing the risk of targeted abuse. In addition, they often introduce global visual artifacts or a lack of adaptability to accommodate diverse makeup prompts, compromising user satisfaction. To address the above limitations, we develop MASQUE, a novel diffusion-based framework that generates localized adversarial makeups guided by user-defined text prompts. Built upon precise null-text inversion, customized cross-attention fusion with masking, and a pairwise adversarial guidance mechanism using images of the same individual, MASQUE achieves robust dodging performance without requiring any external identity. Comprehensive evaluations on open-source facial recognition models and commercial APIs demonstrate that MASQUE significantly improves dodging success rates over all baselines, along with higher perceptual fidelity and stronger adaptability to various text makeup prompts.
- Abstract(参考訳): 顔認証が政府や商業サービスにますます採用されているため、その潜在的な誤用は、プライバシーと公民権に関する深刻な懸念を引き起こしている。
これに対抗するために, 顔画像の逆摂動によるプライバシー保護のための様々な顔認証技術が提案されている。
しかし、これらの方法は、主に特定のターゲットのアイデンティティを偽造するために設計されており、標的の虐待のリスクを高めながら、弱いドッジ成功率を達成できない。
さらに、グローバルなビジュアルアーティファクトや、多様なメイクアッププロンプトに対応する適応性の欠如を導入し、ユーザの満足度を損なうことも多い。
上記の制約に対処するため,ユーザ定義のテキストプロンプトでガイドされる局所的な対角化粧を生成する新しい拡散ベースのフレームワークであるMASQUEを開発した。
MASQUEは、正確なヌルテキストインバージョン、マスキングによるカスタマイズされたクロスアテンション融合、同一人物の画像を用いた対角誘導機構に基づいており、外部認証を必要とせずに堅牢なドッジ性能を実現する。
オープンソース顔認識モデルと商用APIに関する総合的な評価は、MASQUEがすべてのベースラインに対するドッジ成功率を大幅に改善し、知覚の忠実度が向上し、様々なテキストメイクプロンプトへの適応性が向上することを示している。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - 3D-Aware Adversarial Makeup Generation for Facial Privacy Protection [23.915259014651337]
3DAM-GAN(3DAM-GAN)
新しいメイクアップ調整モジュール(MAM)とメイクアップ転送モジュール(MTM)で構成されるUVベースのジェネレータは、現実的で堅牢なメイクアップをレンダリングするために設計されている。
いくつかのベンチマークデータセットの実験結果は、3DAM-GANが様々なFRモデルに対して効果的に顔を保護することを示した。
論文 参考訳(メタデータ) (2023-06-26T12:27:59Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Protecting Facial Privacy: Generating Adversarial Identity Masks via
Style-robust Makeup Transfer [24.25863892897547]
対向性化粧品転写GAN(AMT-GAN)は、対向性化粧品の顔画像構築を目的とした新しい顔保護法である。
本稿では,新しい正規化モジュールを導入するとともに,化粧品の移動における対向雑音とサイクル構成損失との矛盾を解消するための共同トレーニング戦略を導入する。
論文 参考訳(メタデータ) (2022-03-07T03:56:17Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。