論文の概要: Double Privacy Guard: Robust Traceable Adversarial Watermarking against Face Recognition
- arxiv url: http://arxiv.org/abs/2404.14693v1
- Date: Tue, 23 Apr 2024 02:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 15:31:26.742951
- Title: Double Privacy Guard: Robust Traceable Adversarial Watermarking against Face Recognition
- Title(参考訳): ダブルプライバシガード:顔認証に対するロバストな追跡可能な敵対的透かし
- Authors: Yunming Zhang, Dengpan Ye, Sipeng Shen, Caiyun Xie, Ziyi Liu, Jiacheng Deng, Long Tang,
- Abstract要約: 本稿では、トレース可能な対向型透かしに基づく、最初の二重プライバシー保護機構(DPG)を提案する。
DPGは、認証されていない顔認識(FR)モデルを騙すために、ワンタイムの透かし埋め込みを使用している。
DPGは,最先端FRモデルにおいて,攻撃成功率とトレーサビリティの精度を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 13.007649270429493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide deployment of Face Recognition (FR) systems poses risks of privacy leakage. One countermeasure to address this issue is adversarial attacks, which deceive malicious FR searches but simultaneously interfere the normal identity verification of trusted authorizers. In this paper, we propose the first Double Privacy Guard (DPG) scheme based on traceable adversarial watermarking. DPG employs a one-time watermark embedding to deceive unauthorized FR models and allows authorizers to perform identity verification by extracting the watermark. Specifically, we propose an information-guided adversarial attack against FR models. The encoder embeds an identity-specific watermark into the deep feature space of the carrier, guiding recognizable features of the image to deviate from the source identity. We further adopt a collaborative meta-optimization strategy compatible with sub-tasks, which regularizes the joint optimization direction of the encoder and decoder. This strategy enhances the representation of universal carrier features, mitigating multi-objective optimization conflicts in watermarking. Experiments confirm that DPG achieves significant attack success rates and traceability accuracy on state-of-the-art FR models, exhibiting remarkable robustness that outperforms the existing privacy protection methods using adversarial attacks and deep watermarking, or simple combinations of the two. Our work potentially opens up new insights into proactive protection for FR privacy.
- Abstract(参考訳): 顔認識(FR)システムの広範な展開は、プライバシー漏洩のリスクを生じさせる。
この問題に対処するための対策の1つは、悪意のあるFR探索を騙しながら、信頼された権限者の正常な身元確認を同時に妨害する敵攻撃である。
本稿では,トレーサブルな対角線透かしに基づくDPG(Double Privacy Guard)方式を提案する。
DPGは、不正なFRモデルを欺くためにワンタイムの透かし埋め込みを採用しており、認証者は透かしを抽出して身元確認を行うことができる。
具体的には,FRモデルに対する情報誘導型敵攻撃を提案する。
エンコーダは、同一性固有の透かしをキャリアの深い特徴空間に埋め込んで、画像の認識可能な特徴を誘導し、元のアイデンティティから逸脱させる。
さらに、エンコーダとデコーダの協調最適化方向を規則化するサブタスクと互換性のある協調メタ最適化戦略を採用する。
この戦略は、透かしにおける多目的最適化競合を緩和し、ユニバーサルキャリアの特徴の表現を強化する。
実験により、DSGは最先端のFRモデル上で大きな攻撃成功率とトレーサビリティの精度を達成し、敵の攻撃や深層透かし、あるいは2つの単純な組み合わせによって既存のプライバシー保護手法より優れていることを示す。
我々の研究は、FRのプライバシーに対する積極的な保護に関する新たな洞察を開放する可能性がある。
関連論文リスト
- Attacking LLM Watermarks by Exploiting Their Strengths [22.07546496631127]
生成モデルは、AIが生成したテキスト、コード、画像が、多くのアプリケーションで生成したコンテンツをミラーすることを可能にする。
モデル出力に情報を埋め込んでソースを検証する技術であるウォーターマーキングは、そのようなAI生成コンテンツの誤用を軽減するのに有用である。
既存の透かし方式が驚くほど攻撃を受けやすいことを示します。
論文 参考訳(メタデータ) (2024-02-25T20:24:07Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.276177968730549]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Dual Defense: Adversarial, Traceable, and Invisible Robust Watermarking
against Face Swapping [13.659927216999407]
顔交換に代表される深い偽造の悪意ある応用は、誤情報拡散や身元確認詐欺のようなセキュリティ上の脅威を導入している。
本稿では,デュアルディフェンス(Dual Defense)と呼ばれる,トレーサビリティと敵意を組み合わせた新たなアクティブディフェンス機構を提案する。
ターゲットの顔に単一の堅牢な透かしを埋め込んで、悪意のある顔交換の突然のケースに積極的に反応する。
論文 参考訳(メタデータ) (2023-10-25T10:39:51Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Evaluating the Robustness of Trigger Set-Based Watermarks Embedded in
Deep Neural Networks [22.614495877481144]
最先端のトリガーセットベースの透かしアルゴリズムは、所有権を証明するという設計目標を達成することができない。
本稿では,対象モデルの基盤となる透かしアルゴリズムに対する敵の知識を活用する新しい適応攻撃を提案する。
論文 参考訳(メタデータ) (2021-06-18T14:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。