論文の概要: Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing
- arxiv url: http://arxiv.org/abs/2411.16832v1
- Date: Mon, 25 Nov 2024 18:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:33:14.608062
- Title: Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing
- Title(参考訳): 編集と私の顔は安定しない: 悪意のある生成編集に対する個人的生体認証
- Authors: Hanhui Wang, Yihua Zhang, Ruizheng Bai, Yue Zhao, Sijia Liu, Zhengzhong Tu,
- Abstract要約: FaceLockは、敵の摂動を最適化して生体情報を破壊または著しく変更する、ポートレート保護の新しいアプローチである。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
- 参考スコア(独自算出の注目度): 19.94455452402954
- License:
- Abstract: Recent advancements in diffusion models have made generative image editing more accessible, enabling creative edits but raising ethical concerns, particularly regarding malicious edits to human portraits that threaten privacy and identity security. Existing protection methods primarily rely on adversarial perturbations to nullify edits but often fail against diverse editing requests. We propose FaceLock, a novel approach to portrait protection that optimizes adversarial perturbations to destroy or significantly alter biometric information, rendering edited outputs biometrically unrecognizable. FaceLock integrates facial recognition and visual perception into perturbation optimization to provide robust protection against various editing attempts. We also highlight flaws in commonly used evaluation metrics and reveal how they can be manipulated, emphasizing the need for reliable assessments of protection. Experiments show FaceLock outperforms baselines in defending against malicious edits and is robust against purification techniques. Ablation studies confirm its stability and broad applicability across diffusion-based editing algorithms. Our work advances biometric defense and sets the foundation for privacy-preserving practices in image editing. The code is available at: https://github.com/taco-group/FaceLock.
- Abstract(参考訳): 拡散モデルの最近の進歩により、生成的な画像編集がよりアクセスしやすくなり、創造的な編集が可能になったが、特にプライバシーとアイデンティティのセキュリティを脅かす人間の肖像画に対する悪意のある編集に関する倫理的な懸念が高まっている。
既存の保護方法は、主に編集を無効化するために敵の摂動に頼っているが、しばしば多様な編集要求に対して失敗する。
生体情報を破壊したり、著しく変化させたりすることで、バイオメトリック的に認識不能な出力を描画する、顔保護のための新しいアプローチであるFaceLockを提案する。
FaceLockは顔認識と視覚認識を摂動最適化に統合し、様々な編集の試みに対して堅牢な保護を提供する。
また、一般的に使用されている評価指標の欠陥を強調し、それらがどのように操作できるかを明らかにし、保護の信頼性評価の必要性を強調します。
実験によると、FaceLockは悪意のある編集に対する防御においてベースラインよりも優れており、浄化技術に対して堅牢である。
アブレーション研究は拡散に基づく編集アルゴリズムにおける安定性と幅広い適用性を確認している。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
コードは、https://github.com/taco-group/FaceLock.comで入手できる。
関連論文リスト
- Attack as Defense: Run-time Backdoor Implantation for Image Content Protection [20.30801340875602]
バックドアアタック(英: backdoor attack)とは、ターゲットモデルに脆弱性を埋め込む方法であり、トリガーを通じてアクティベートできる。
本研究では,画像編集モデルにバックドアを埋め込むことにより,画像コンテンツ修正の悪用を防止する。
データ中毒を使った従来のバックドア攻撃とは異なり、私たちは、ランタイムバックドア移植のための最初のフレームワークを開発しました。
論文 参考訳(メタデータ) (2024-10-19T03:58:25Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Towards Prompt-robust Face Privacy Protection via Adversarial Decoupling
Augmentation Framework [20.652130361862053]
顔認識保護アルゴリズムの防御性能を高めるために,Adversarial Decoupling Augmentation Framework (ADAF)を提案する。
ADAFは、様々な攻撃プロンプトに対する防御安定のために、多レベルテキスト関連の拡張を導入している。
論文 参考訳(メタデータ) (2023-05-06T09:00:50Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。