論文の概要: To Generate or Not? Safety-Driven Unlearned Diffusion Models Are Still
Easy To Generate Unsafe Images ... For Now
- arxiv url: http://arxiv.org/abs/2310.11868v1
- Date: Wed, 18 Oct 2023 10:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 16:56:28.198749
- Title: To Generate or Not? Safety-Driven Unlearned Diffusion Models Are Still
Easy To Generate Unsafe Images ... For Now
- Title(参考訳): 生成するかどうか?
安全駆動型未学習拡散モデルでは、安全でない画像を簡単に生成できる...
今のところ
- Authors: Yimeng Zhang, Jinghan Jia, Xin Chen, Aochuan Chen, Yihua Zhang,
Jiancheng Liu, Ke Ding, Sijia Liu
- Abstract要約: 我々はUnlearnDiffと呼ばれる新しい逆学習手法を開発した。
この技術は、画像分類攻撃と同様に、生成的モデリングにおいて直感的なプロセスとして、敵対的プロンプトの作成を合理化する。
本研究は,UnlearnDiffの有効性と効率を,最先端の対人プロンプト法と比較した。
- 参考スコア(独自算出の注目度): 23.732933901883865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advances in diffusion models (DMs) have revolutionized the
generation of complex and diverse images. However, these models also introduce
potential safety hazards, such as the production of harmful content and
infringement of data copyrights. Although there have been efforts to create
safety-driven unlearning methods to counteract these challenges, doubts remain
about their capabilities. To bridge this uncertainty, we propose an evaluation
framework built upon adversarial attacks (also referred to as adversarial
prompts), in order to discern the trustworthiness of these safety-driven
unlearned DMs. Specifically, our research explores the (worst-case) robustness
of unlearned DMs in eradicating unwanted concepts, styles, and objects,
assessed by the generation of adversarial prompts. We develop a novel
adversarial learning approach called UnlearnDiff that leverages the inherent
classification capabilities of DMs to streamline the generation of adversarial
prompts, making it as simple for DMs as it is for image classification attacks.
This technique streamlines the creation of adversarial prompts, making the
process as intuitive for generative modeling as it is for image classification
assaults. Through comprehensive benchmarking, we assess the unlearning
robustness of five prevalent unlearned DMs across multiple tasks. Our results
underscore the effectiveness and efficiency of UnlearnDiff when compared to
state-of-the-art adversarial prompting methods. Codes are available at
https://github.com/OPTML-Group/Diffusion-MU-Attack. WARNING: This paper
contains model outputs that may be offensive in nature.
- Abstract(参考訳): 拡散モデル(DM)の最近の進歩は、複雑で多様な画像の生成に革命をもたらした。
しかし、これらのモデルは有害なコンテンツの生成やデータ著作権の侵害など、潜在的な安全リスクも導入する。
これらの課題に対処するために、安全駆動のアンラーニング手法を作成する努力はあったが、その能力に疑問が残る。
この不確かさを解消するために,我々は,これらの安全駆動型非学習dmの信頼性を識別するために,敵攻撃(敵プロンプトとも呼ばれる)に基づく評価フレームワークを提案する。
特に本研究では,不必要な概念,スタイル,オブジェクトの消去において,非学習dmの(最悪の)堅牢性について検討し,敵のプロンプトの生成によって評価する。
我々は, 画像分類攻撃の手法として, DMの固有な分類能力を活用して, 画像分類攻撃と同様に, DMの生成を簡素化する, UnlearnDiff と呼ばれる新しい逆学習手法を開発した。
このテクニックは、敵対的プロンプトの作成を合理化し、画像分類攻撃と同様に生成モデリングのプロセスを直感的にします。
総合的なベンチマークにより、複数のタスクにまたがる5つの未学習DMの未学習堅牢性を評価する。
本研究は,UnlearnDiffの有効性と効率を,最先端の対人プロンプト法と比較した。
コードはhttps://github.com/optml-group/diffusion-mu-attackで入手できる。
WARNING: 本論文は、自然界で攻撃的なモデル出力を含む。
関連論文リスト
- Score Forgetting Distillation: A Swift, Data-Free Method for Machine Unlearning in Diffusion Models [63.43422118066493]
マシン・アンラーニング(MU)は安全でセキュアで信頼性の高いGenAIモデルを開発する上で重要な基盤である。
従来のMUメソッドは、しばしば厳密な仮定に依存し、実際のデータへのアクセスを必要とする。
本稿では,拡散モデルにおいて望ましくない情報を忘れることを促進する革新的なMUアプローチであるScore Forgetting Distillation (SFD)を紹介する。
論文 参考訳(メタデータ) (2024-09-17T14:12:50Z) - Attacks and Defenses for Generative Diffusion Models: A Comprehensive Survey [5.300811350105823]
拡散モデル (DM) は様々な生成タスクにおいて最先端の性能を達成した。
近年の研究では、DMは幅広い攻撃を受けやすいことが示されている。
論文 参考訳(メタデータ) (2024-08-06T18:52:17Z) - Defensive Unlearning with Adversarial Training for Robust Concept Erasure in Diffusion Models [42.734578139757886]
拡散モデル(DM)はテキスト・画像生成において顕著な成功を収めてきたが、安全性のリスクも生じている。
マシン・アンラーニングのテクニックは、概念消去としても知られ、これらのリスクに対処するために開発されている。
本研究は, 対人訓練(AT)の原理をマシン・アンラーニングに統合することにより, 概念消去の堅牢性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-05-24T05:47:23Z) - Robust Diffusion Models for Adversarial Purification [28.313494459818497]
拡散モデル(DM)に基づく対位法(AP)は、対位法トレーニング(AT)の最も強力な代替手段であることが示されている。
本稿では,事前訓練したDMとは独立に,敵対的指導を施した新しい頑健な逆過程を提案する。
この堅牢なガイダンスは、よりセマンティックなコンテンツを保持する純粋化された例を生成するだけでなく、DMの正確でロバストなトレードオフを軽減することができる。
論文 参考訳(メタデータ) (2024-03-24T08:34:08Z) - UnlearnCanvas: Stylized Image Dataset for Enhanced Machine Unlearning Evaluation in Diffusion Models [31.48739583108113]
拡散モデル(DM)はテキスト・画像生成において前例のない機能を示し、多様な用途で広く利用されている。
彼らはまた、有害なコンテンツの生成や著作権紛争など、社会的な問題も提起している。
マシン・アンラーニング(MU)は、DMから望ましくない生成能力を除去できる有望なソリューションとして登場した。
論文 参考訳(メタデータ) (2024-02-19T05:25:53Z) - Robust Safety Classifier for Large Language Models: Adversarial Prompt
Shield [7.5520641322945785]
大規模言語モデルの安全性は、敵の攻撃に対する脆弱性のため、依然として重要な懸念事項である。
本稿では,検出精度を向上し,対向プロンプトに対するレジリエンスを示す軽量モデルであるAdversarial Prompt Shield(APS)を紹介する。
また、対戦型トレーニングデータセットを自律的に生成するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-10-31T22:22:10Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。