論文の概要: CAT: Contrastive Adversarial Training for Evaluating the Robustness of Protective Perturbations in Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2502.07225v1
- Date: Tue, 11 Feb 2025 03:35:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:45.631646
- Title: CAT: Contrastive Adversarial Training for Evaluating the Robustness of Protective Perturbations in Latent Diffusion Models
- Title(参考訳): CAT:潜在拡散モデルにおける保護摂動のロバスト性評価のための対照的対人訓練
- Authors: Sen Peng, Mingyue Wang, Jianfei He, Jijia Yang, Xiaohua Jia,
- Abstract要約: 保護的摂動としての敵対的な例は、不正なデータの使用を防ぐために開発された。
本稿では,これらの保護手法に対する適応攻撃としてアダプタを利用するコントラスト適応訓練(Contrastive Adversarial Training, CAT)を提案する。
- 参考スコア(独自算出の注目度): 15.363134355805764
- License:
- Abstract: Latent diffusion models have recently demonstrated superior capabilities in many downstream image synthesis tasks. However, customization of latent diffusion models using unauthorized data can severely compromise the privacy and intellectual property rights of data owners. Adversarial examples as protective perturbations have been developed to defend against unauthorized data usage by introducing imperceptible noise to customization samples, preventing diffusion models from effectively learning them. In this paper, we first reveal that the primary reason adversarial examples are effective as protective perturbations in latent diffusion models is the distortion of their latent representations, as demonstrated through qualitative and quantitative experiments. We then propose the Contrastive Adversarial Training (CAT) utilizing adapters as an adaptive attack against these protection methods, highlighting their lack of robustness. Extensive experiments demonstrate that our CAT method significantly reduces the effectiveness of protective perturbations in customization configurations, urging the community to reconsider and enhance the robustness of existing protective perturbation methods. Code is available at \hyperlink{here}{https://github.com/senp98/CAT}.
- Abstract(参考訳): 遅延拡散モデルは最近、多くの下流画像合成タスクにおいて優れた機能を示した。
しかし、無許可データを用いた潜伏拡散モデルのカスタマイズは、データ所有者のプライバシーと知的財産権を著しく侵害する可能性がある。
保護摂動の逆の例は、カスタマイズサンプルに知覚不可能なノイズを導入し、拡散モデルが効果的に学習することを防ぐことによって、不正なデータ使用を防止するために開発された。
本稿では, 潜伏拡散モデルにおける保護摂動は, 定性的, 定量的な実験によって示されるように, 潜伏拡散モデルの歪みであることを示す。
次に,これらの保護手法に対する適応攻撃としてアダプタを利用するコントラスト適応訓練(Contrastive Adversarial Training, CAT)を提案する。
CAT法は, カスタマイズ構成における保護摂動の有効性を著しく低減し, 既存の保護摂動手法の堅牢性向上をコミュニティに促すものである。
コードは \hyperlink{here}{https://github.com/senp98/CAT} で公開されている。
関連論文リスト
- Protective Perturbations against Unauthorized Data Usage in Diffusion-based Image Generation [15.363134355805764]
拡散に基づくテキスト・ツー・イメージモデルは、様々な画像関連タスクに対して大きな可能性を示してきた。
認証されていないデータを使ってこれらのモデルをカスタマイズすることは、深刻なプライバシーと知的財産の問題を引き起こす。
既存の方法は、敵の攻撃に基づく保護的摂動を導入する。
本稿では,拡散画像生成における不正なデータ使用を防止するための保護摂動法について検討する。
論文 参考訳(メタデータ) (2024-12-25T06:06:41Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - Struggle with Adversarial Defense? Try Diffusion [8.274506117450628]
アドリア攻撃は微妙な摂動を導入して誤分類を引き起こす。
拡散に基づく敵の訓練は、しばしば収束の課題と高い計算費用に遭遇する。
本稿では,これらの問題を克服するために,真性最大化拡散(TMDC)を提案する。
論文 参考訳(メタデータ) (2024-04-12T06:52:40Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Toward effective protection against diffusion based mimicry through
score distillation [15.95715097030366]
拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-10-02T18:56:12Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Unlearnable Examples for Diffusion Models: Protect Data from Unauthorized Exploitation [25.55296442023984]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。