論文の概要: Understanding and Improving Adversarial Attacks on Latent Diffusion
Model
- arxiv url: http://arxiv.org/abs/2310.04687v1
- Date: Sat, 7 Oct 2023 05:24:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 16:37:40.710719
- Title: Understanding and Improving Adversarial Attacks on Latent Diffusion
Model
- Title(参考訳): 潜伏拡散モデルによる敵攻撃の理解と改善
- Authors: Boyang Zheng, Chumeng Liang, Xiaoyu Wu, Yan Liu
- Abstract要約: 我々は、潜在拡散モデル(LDM)に対する敵対的攻撃を理解するための包括的な理論的枠組みを導入する。
本稿では,LDMの前方および後方プロセスの両方において,敵攻撃を誘導する統一目標を用いた新たな敵攻撃を提案する。
以上の結果から,本手法は現在の攻撃よりも優れており,最先端の複数ショット生成パイプライン上での一般化が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 8.268827963476317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent Diffusion Model (LDM) has emerged as a leading tool in image
generation, particularly with its capability in few-shot generation. This
capability also presents risks, notably in unauthorized artwork replication and
misinformation generation. In response, adversarial attacks have been designed
to safeguard personal images from being used as reference data. However,
existing adversarial attacks are predominantly empirical, lacking a solid
theoretical foundation. In this paper, we introduce a comprehensive theoretical
framework for understanding adversarial attacks on LDM. Based on the framework,
we propose a novel adversarial attack that exploits a unified target to guide
the adversarial attack both in the forward and the reverse process of LDM. We
provide empirical evidences that our method overcomes the offset problem of the
optimization of adversarial attacks in existing methods. Through rigorous
experiments, our findings demonstrate that our method outperforms current
attacks and is able to generalize over different state-of-the-art few-shot
generation pipelines based on LDM. Our method can serve as a stronger and
efficient tool for people exposed to the risk of data privacy and security to
protect themselves in the new era of powerful generative models. The code is
available on GitHub: https://github.com/CaradryanLiang/ImprovedAdvDM.git.
- Abstract(参考訳): Latent Diffusion Model (LDM) は画像生成の先駆的なツールとして登場し、特に数ショット生成の能力がある。
この能力は、特に未承認のアートワークの複製と誤情報生成のリスクも提示する。
これに対し、個人画像が参照データとして使用されるのを防ぐために敵攻撃が設計された。
しかし、既存の敵対的攻撃は主に経験的であり、確かな理論的基礎を欠いている。
本稿では, LDMに対する敵対的攻撃を理解するための包括的理論的枠組みを提案する。
本フレームワークをベースとして,LDMの前方と後方の両方で敵攻撃を誘導するために,統一目標を利用した新たな敵攻撃を提案する。
提案手法は,既存手法における敵攻撃の最適化のオフセット問題を克服する実証的証拠を提供する。
厳密な実験により,本手法は現在の攻撃よりも優れており,LDMに基づく様々な最新数ショット生成パイプラインを一般化可能であることが示された。
我々の手法は、データプライバシとセキュリティのリスクに晒され、強力な生成モデルの新時代に身を守るための、より強力で効率的なツールとして機能する。
コードはGitHubで入手できる。 https://github.com/CaradryanLiang/ImprovedAdvDM.git。
関連論文リスト
- Efficiently Adversarial Examples Generation for Visual-Language Models under Targeted Transfer Scenarios using Diffusion Models [14.648969482318252]
本稿では,自然に制約のない逆の例を生成するAdvDiffVLMを紹介する。
本手法は,既存のトランスファーベース攻撃法と比較して10Xから30Xまでの高速化を実現する。
特にAdvDiffVLMは、GPT-4Vを含む商用VLMをブラックボックス方式で攻撃できる。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Modeling Adversarial Attack on Pre-trained Language Models as Sequential
Decision Making [10.425483543802846]
敵攻撃タスクは、事前訓練された言語モデル(PLM)が小さな摂動に弱いことを発見した。
本稿では, PLM に対する逆攻撃タスクを逐次決定問題としてモデル化する。
そこで本稿では,SDM-Attack と呼ばれる敵を発生させる適切な逐次攻撃経路を見つけるための強化学習を提案する。
論文 参考訳(メタデータ) (2023-05-27T10:33:53Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Defending against the Label-flipping Attack in Federated Learning [5.769445676575767]
フェデレーテッド・ラーニング(FL)は、参加する仲間にデザインによる自律性とプライバシを提供する。
ラベルフリッピング(LF)攻撃(英: label-flipping, LF)は、攻撃者がラベルをめくってトレーニングデータに毒を盛る攻撃である。
本稿では、まず、ピアのローカル更新からこれらの勾配を動的に抽出する新しいディフェンスを提案する。
論文 参考訳(メタデータ) (2022-07-05T12:02:54Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。