論文の概要: Toward effective protection against diffusion based mimicry through
score distillation
- arxiv url: http://arxiv.org/abs/2311.12832v2
- Date: Sat, 3 Feb 2024 22:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 04:08:42.156471
- Title: Toward effective protection against diffusion based mimicry through
score distillation
- Title(参考訳): スコア蒸留による拡散系模倣の効果的防止に向けて
- Authors: Haotian Xue, Chumeng Liang, Xiaoyu Wu, Yongxin Chen
- Abstract要約: 拡散に基づく模倣パイプラインから画像を保護するため、摂動を追加する努力がなされている。
既存の手法のほとんどは非効率であり、個々のユーザーが使うには実用的ではない。
本稿では,潜伏拡散モデルに対する攻撃に関する新たな知見と,より効果的な保護のための新しいプラグ・アンド・プレイ戦略を提案する。
- 参考スコア(独自算出の注目度): 15.95715097030366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While generative diffusion models excel in producing high-quality images,
they can also be misused to mimic authorized images, posing a significant
threat to AI systems. Efforts have been made to add calibrated perturbations to
protect images from diffusion-based mimicry pipelines. However, most of the
existing methods are too ineffective and even impractical to be used by
individual users due to their high computation and memory requirements. In this
work, we present novel findings on attacking latent diffusion models (LDM) and
propose new plug-and-play strategies for more effective protection. In
particular, we explore the bottleneck in attacking an LDM, discovering that the
encoder module rather than the denoiser module is the vulnerable point. Based
on this insight, we present our strategy using Score Distillation Sampling
(SDS) to double the speed of protection and reduce memory occupation by half
without compromising its strength. Additionally, we provide a robust protection
strategy by counterintuitively minimizing the semantic loss, which can assist
in generating more natural perturbations. Finally, we conduct extensive
experiments to substantiate our findings and comprehensively evaluate our newly
proposed strategies. We hope our insights and protective measures can
contribute to better defense against malicious diffusion-based mimicry,
advancing the development of secure AI systems. The code is available in
https://github.com/xavihart/Diff-Protect
- Abstract(参考訳): 生成拡散モデルは高品質な画像を生成するのに優れているが、認証された画像を模倣するために誤用することもでき、AIシステムに重大な脅威をもたらす。
拡散に基づく模倣パイプラインから画像を保護するために、キャリブレーションされた摂動を追加する努力がなされている。
しかし、既存の手法のほとんどは非効率であり、高い計算量とメモリ要求のために個々のユーザーが使用するには実用的ではない。
本研究では,遅延拡散モデル(LDM)の攻撃に関する新たな知見と,より効果的な保護のための新しいプラグアンドプレイ戦略を提案する。
特に、ldmを攻撃する際のボトルネックを探求し、デノイザーモジュールではなくエンコーダモジュールが脆弱な点であることを発見します。
この知見に基づいて,SDS(Score Distillation Sampling)を用いて保護速度を2倍にし,その強度を損なうことなくメモリ占有量を半減する戦略を提案する。
さらに,より自然な摂動を生成するのに役立つ意味的損失を,直感的に最小化することで,堅牢な保護戦略を提供する。
最後に,本研究の成果を裏付ける広範な実験を行い,新たに提案した戦略を総合的に評価する。
我々の洞察と保護措置が、悪意のある拡散に基づく模倣に対する防御に寄与し、セキュアなAIシステムの開発を促進することを願っている。
コードはhttps://github.com/xavihart/Diff-Protectで入手できる。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Reliable Model Watermarking: Defending Against Theft without Compromising on Evasion [15.086451828825398]
回避敵は、ウォーターマークサンプルを記憶したモデルによって生成されるショートカットを、容易に利用することができる。
モデルを学習してそれらを正確に認識することで、ユニークな透かし行動が知識注入によって促進される。
論文 参考訳(メタデータ) (2024-04-21T03:38:20Z) - Pixel is a Barrier: Diffusion Models Are More Adversarially Robust Than We Think [14.583181596370386]
拡散モデルの逆例は、安全上の問題に対する解決策として広く使われている。
このことは、拡散モデルがほとんどの深層モデルのような敵攻撃に対して脆弱であると考えることを誤解させるかもしれない。
本稿では, 勾配をベースとしたホワイトボックス攻撃がLDM攻撃に有効であっても, PDM攻撃に失敗する,という新たな知見を示す。
論文 参考訳(メタデータ) (2024-04-20T08:28:43Z) - MalPurifier: Enhancing Android Malware Detection with Adversarial
Purification against Evasion Attacks [19.68134775248897]
MalPurifierは敵の浄化を利用して、独立して摂動を除去し、軽く柔軟な方法で攻撃を緩和する。
2つのAndroidマルウェアデータセットの実験結果は、MalPurifierが最先端の防御よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-12-11T14:48:43Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Confidence-driven Sampling for Backdoor Attacks [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Unlearnable Examples for Diffusion Models: Protect Data from
Unauthorized Exploitation [20.47099939773165]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Data Forensics in Diffusion Models: A Systematic Analysis of Membership
Privacy [62.16582309504159]
本研究では,拡散モデルに対するメンバシップ推論攻撃の系統的解析を開発し,各攻撃シナリオに適した新しい攻撃手法を提案する。
提案手法は容易に入手可能な量を利用して,現実的なシナリオにおいてほぼ完全な攻撃性能 (>0.9 AUCROC) を達成することができる。
論文 参考訳(メタデータ) (2023-02-15T17:37:49Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。