論文の概要: Fragile by Design: On the Limits of Adversarial Defenses in Personalized Generation
- arxiv url: http://arxiv.org/abs/2511.10382v1
- Date: Fri, 14 Nov 2025 01:48:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.834823
- Title: Fragile by Design: On the Limits of Adversarial Defenses in Personalized Generation
- Title(参考訳): デザインによるフラジレ:個人化世代における敵防衛の限界について
- Authors: Zhen Chen, Yi Zhang, Xiangyu Yin, Chengxuan Qin, Xingyu Zhao, Xiaowei Huang, Wenjie Ruan,
- Abstract要約: Anti-DreamBoothのような防御機構は、顔認証漏洩のリスクを軽減する。
これらの手法の2つの重要かつ見過ごされた限界を同定する。
その結果、現在の手法はいずれもそのような脅威下での保護効果を維持していないことが明らかとなった。
- 参考スコア(独自算出の注目度): 26.890796322896346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized AI applications such as DreamBooth enable the generation of customized content from user images, but also raise significant privacy concerns, particularly the risk of facial identity leakage. Recent defense mechanisms like Anti-DreamBooth attempt to mitigate this risk by injecting adversarial perturbations into user photos to prevent successful personalization. However, we identify two critical yet overlooked limitations of these methods. First, the adversarial examples often exhibit perceptible artifacts such as conspicuous patterns or stripes, making them easily detectable as manipulated content. Second, the perturbations are highly fragile, as even a simple, non-learned filter can effectively remove them, thereby restoring the model's ability to memorize and reproduce user identity. To investigate this vulnerability, we propose a novel evaluation framework, AntiDB_Purify, to systematically evaluate existing defenses under realistic purification threats, including both traditional image filters and adversarial purification. Results reveal that none of the current methods maintains their protective effectiveness under such threats. These findings highlight that current defenses offer a false sense of security and underscore the urgent need for more imperceptible and robust protections to safeguard user identity in personalized generation.
- Abstract(参考訳): DreamBoothのようなパーソナライズされたAIアプリケーションは、ユーザーイメージからカスタマイズされたコンテンツを生成するだけでなく、プライバシー上の懸念、特に顔認証の漏洩のリスクを生じさせる。
反DreamBoothのような最近の防衛メカニズムは、個人化の成功を防ぐために、ユーザー写真に敵の摂動を注入することで、このリスクを軽減しようとする。
しかし,これらの手法の限界は2つある。
第一に、敵の例は目立ったパターンやストライプのような知覚可能な人工物を示すことが多く、操作された内容として容易に検出できる。
第二に、摂動は非常に脆弱であり、単純な非学習フィルタでさえ効果的にそれらを取り除くことができ、それによってモデルのユーザアイデンティティを記憶し再現する能力が回復する。
この脆弱性を調査するために,従来の画像フィルタと対向的浄化の両方を含む現実的な浄化脅威下で,既存の防御を体系的に評価する,新しい評価フレームワークであるAntiDB_Purifyを提案する。
その結果、現在の手法はいずれもそのような脅威下での保護効果を維持していないことが明らかとなった。
これらの知見は、現在の防衛がセキュリティの誤った感覚を与え、パーソナライズされた世代におけるユーザーアイデンティティを保護するために、より認識不能で堅牢な保護を緊急に必要としていることを強調している。
関連論文リスト
- Perturb a Model, Not an Image: Towards Robust Privacy Protection via Anti-Personalized Diffusion Models [32.903448192224644]
拡散モデルの最近の進歩は、アイデンティティやオブジェクトのような特定の主題の高品質な合成を可能にしている。
パーソナライズ技術は、悪意のあるユーザーによって不正なコンテンツを生成するために誤用されることがある。
生成品質を損なうことなく、対象モデルの個人化を効果的に阻害する新規な損失関数であるダイレクトプロテッシブ最適化(DPO)を導入する。
論文 参考訳(メタデータ) (2025-11-03T07:42:05Z) - Towards Robust Defense against Customization via Protective Perturbation Resistant to Diffusion-based Purification [20.862062527487794]
保護摂動は、知覚不能な対向雑音を注入することで、画像誤用を緩和する。
浄化は保護的摂動を除去し 悪意ある偽造の危険に 再び画像を露呈する
AntiPureは、代表的な浄化条件下で持続する知覚不能な摂動を埋め込み、効果的なポストカストマイゼーション歪みを達成する。
論文 参考訳(メタデータ) (2025-09-17T11:30:13Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Invisible Backdoor Attack Through Singular Value Decomposition [2.681558084723648]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻なセキュリティ脅威をもたらす
トリガーを知覚しにくく、知覚できないものにするため、様々な目に見えないバックドア攻撃が提案されている。
本稿では,DEBAと呼ばれる目に見えないバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:25:12Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Scapegoat Generation for Privacy Protection from Deepfake [21.169776378130635]
本稿では,原文入力のスタイルを変更してスケープゴート画像を生成する「ディープフェイク防止のための新しい問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
論文 参考訳(メタデータ) (2023-03-06T06:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。