論文の概要: Evaluating Adversarial Protections for Diffusion Personalization: A Comprehensive Study
- arxiv url: http://arxiv.org/abs/2507.03953v1
- Date: Sat, 05 Jul 2025 08:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.954966
- Title: Evaluating Adversarial Protections for Diffusion Personalization: A Comprehensive Study
- Title(参考訳): 拡散パーソナライズのための対人保護の評価 : 総合的研究
- Authors: Kai Ye, Tianyi Chen, Zhen Wang,
- Abstract要約: AdvDM、ASPL、FSGM、MetaCloak、Mist、PhotoGuard、SDS、SimACを比較した。
摂動に基づく保護法は様々な摂動予算の下で評価される。
その結果,メソッド選択の実践的ガイダンスが得られた。
- 参考スコア(独自算出の注目度): 34.13730911290684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing adoption of diffusion models for image generation and personalization, concerns regarding privacy breaches and content misuse have become more pressing. In this study, we conduct a comprehensive comparison of eight perturbation based protection methods: AdvDM, ASPL, FSGM, MetaCloak, Mist, PhotoGuard, SDS, and SimAC--across both portrait and artwork domains. These methods are evaluated under varying perturbation budgets, using a range of metrics to assess visual imperceptibility and protective efficacy. Our results offer practical guidance for method selection. Code is available at: https://github.com/vkeilo/DiffAdvPerturbationBench.
- Abstract(参考訳): 画像生成とパーソナライゼーションのための拡散モデルの採用の増加に伴い、プライバシ侵害やコンテンツ誤用に関する懸念が高まっている。
本研究では,AdvDM,ASPL,FSGM,MetaCloak,Mist,PhotoGuard,SDS,SimACの8つの摂動保護手法を総合的に比較した。
これらの方法は様々な摂動予算の下で評価され、様々な指標を用いて視覚障害と保護効果を評価する。
本結果は,メソッド選択の実践的ガイダンスを提供する。
コードは、https://github.com/vkeilo/DiffAdvPerturbationBench.comで入手できる。
関連論文リスト
- Protective Perturbations against Unauthorized Data Usage in Diffusion-based Image Generation [15.363134355805764]
拡散に基づくテキスト・ツー・イメージモデルは、様々な画像関連タスクに対して大きな可能性を示してきた。
認証されていないデータを使ってこれらのモデルをカスタマイズすることは、深刻なプライバシーと知的財産の問題を引き起こす。
既存の方法は、敵の攻撃に基づく保護的摂動を導入する。
本稿では,拡散画像生成における不正なデータ使用を防止するための保護摂動法について検討する。
論文 参考訳(メタデータ) (2024-12-25T06:06:41Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。