論文の概要: An h-space Based Adversarial Attack for Protection Against Few-shot Personalization
- arxiv url: http://arxiv.org/abs/2507.17554v1
- Date: Wed, 23 Jul 2025 14:43:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.046023
- Title: An h-space Based Adversarial Attack for Protection Against Few-shot Personalization
- Title(参考訳): ファウショットパーソナライゼーション対策のためのh-spaceに基づく逆攻撃
- Authors: Xide Xu, Sandesh Kamath, Muhammad Atif Butt, Bogdan Raducanu,
- Abstract要約: 本稿では,H空間に基づく摂動を抑えるために,敵の攻撃を利用するHAADという新しいアンチ・カストマイゼーション手法を提案する。
より効率的な変種HAAD-KVを導入し、h-空間のKVパラメータのみに基づいて摂動を構成する。
その単純さにもかかわらず、我々の手法は最先端の敵攻撃よりも優れており、その効果が浮き彫りになっている。
- 参考スコア(独自算出の注目度): 5.357486699062561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The versatility of diffusion models in generating customized images from few samples raises significant privacy concerns, particularly regarding unauthorized modifications of private content. This concerning issue has renewed the efforts in developing protection mechanisms based on adversarial attacks, which generate effective perturbations to poison diffusion models. Our work is motivated by the observation that these models exhibit a high degree of abstraction within their semantic latent space (`h-space'), which encodes critical high-level features for generating coherent and meaningful content. In this paper, we propose a novel anti-customization approach, called HAAD (h-space based Adversarial Attack for Diffusion models), that leverages adversarial attacks to craft perturbations based on the h-space that can efficiently degrade the image generation process. Building upon HAAD, we further introduce a more efficient variant, HAAD-KV, that constructs perturbations solely based on the KV parameters of the h-space. This strategy offers a stronger protection, that is computationally less expensive. Despite their simplicity, our methods outperform state-of-the-art adversarial attacks, highlighting their effectiveness.
- Abstract(参考訳): 少数のサンプルからカスタマイズされた画像を生成する際の拡散モデルの汎用性は、特に未承認のプライベートコンテンツの修正に関して、重要なプライバシー上の懸念を提起する。
この課題は、毒の拡散モデルに対する効果的な摂動を発生させる敵対的攻撃に基づく保護機構の開発への取り組みを再燃させた。
我々の研究は、これらのモデルがセマンティック潜在空間(h-space)内で高い抽象性を示しており、コヒーレントで有意義なコンテンツを生成するための重要な高レベルな特徴を符号化しているという観察に動機づけられている。
本稿では,画像生成過程を効率よく劣化させるh-spaceに基づく摂動を敵攻撃に活用する,HAAD(h-space based Adversarial Attack for Diffusion model)と呼ばれる新しいアンチカストマイゼーション手法を提案する。
HAADに基づいて、h-空間のKVパラメータのみに基づいて摂動を構成するより効率的な変種HAAD-KVを導入する。
この戦略は、より強力な保護を提供する。
その単純さにもかかわらず、我々の手法は最先端の敵攻撃よりも優れており、その効果が浮き彫りになっている。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Backdoor Defense in Diffusion Models via Spatial Attention Unlearning [0.0]
テキストと画像の拡散モデルは、バックドア攻撃に対してますます脆弱である。
本研究では,拡散モデルにおけるバックドア攻撃を緩和する新しい手法である空間注意アンラーニング(SAU)を提案する。
論文 参考訳(メタデータ) (2025-04-21T04:00:19Z) - MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Toward effective protection against diffusion based mimicry through
score distillation [15.95715097030366]
拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
論文 参考訳(メタデータ) (2023-10-02T18:56:12Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。