論文の概要: A Low-Rank Defense Method for Adversarial Attack on Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.10319v1
- Date: Tue, 10 Feb 2026 21:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.301545
- Title: A Low-Rank Defense Method for Adversarial Attack on Diffusion Models
- Title(参考訳): 拡散モデルにおける逆攻撃に対する低域防御法
- Authors: Jiaxuan Zhu, Siyu Huang,
- Abstract要約: 本稿では,Low-Rank Defense (LoRD) という,LDM(Latent Diffusion Models) に対する敵攻撃を効果的に防御する戦略を提案する。
LoRDは、対向サンプルの検出と防御のために、マージアイデアとバランスパラメータを導入し、ローランク適応(LoRA)モジュールと組み合わせた。
本手法は, 逆方向とクリーンなサンプルの両方で微調整されたLCMが, 高品質な画像を生成することを保証している。
- 参考スコア(独自算出の注目度): 13.070143225543724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, adversarial attacks for diffusion models as well as their fine-tuning process have been developed rapidly. To prevent the abuse of these attack algorithms from affecting the practical application of diffusion models, it is critical to develop corresponding defensive strategies. In this work, we propose an efficient defensive strategy, named Low-Rank Defense (LoRD), to defend the adversarial attack on Latent Diffusion Models (LDMs). LoRD introduces the merging idea and a balance parameter, combined with the low-rank adaptation (LoRA) modules, to detect and defend the adversarial samples. Based on LoRD, we build up a defense pipeline that applies the learned LoRD modules to help diffusion models defend against attack algorithms. Our method ensures that the LDM fine-tuned on both adversarial and clean samples can still generate high-quality images. To demonstrate the effectiveness of our approach, we conduct extensive experiments on facial and landscape images, and our method shows significantly better defense performance compared to the baseline methods.
- Abstract(参考訳): 近年,拡散モデルと微調整プロセスに対する敵攻撃が急速に進展している。
これらの攻撃アルゴリズムの悪用が拡散モデルの適用に影響を与えないようにするためには、対応する防御戦略を開発することが重要である。
本研究では,Low-Rank Defense (LoRD) という,Latent Diffusion Models (LDMs) に対する敵攻撃を防御する効果的な防御戦略を提案する。
LoRDは、対向サンプルを検出し、防御するために、マージアイデアとバランスパラメータを導入し、ローランク適応(LoRA)モジュールと組み合わせた。
LoRDをベースとして,学習したLoRDモジュールを適用したディフェンスパイプラインを構築し,拡散モデルによる攻撃アルゴリズムの防御を支援する。
本手法は, 逆方向とクリーンなサンプルの両方で微調整されたLCMが, 高品質な画像を生成することを保証している。
提案手法の有効性を実証するため, 顔画像や風景画像に対して広範囲に実験を行い, ベースライン法と比較して, 防御性能が有意に向上したことを示す。
関連論文リスト
- DLADiff: A Dual-Layer Defense Framework against Fine-Tuning and Zero-Shot Customization of Diffusion Models [74.9510349783152]
悪意のあるアクターは、拡散モデルのカスタマイズを利用することができ、人の数または1つのイメージだけで、元のアイデンティティとほぼ同一の合成IDを作成することができる。
本稿では,ファインチューニング法とゼロショット法の両方を保護するためのDual-Layer Anti-Diffusion (DLADiff)を提案する。
論文 参考訳(メタデータ) (2025-11-25T04:35:55Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Toward effective protection against diffusion based mimicry through
score distillation [15.95715097030366]
拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-10-02T18:56:12Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。