論文の概要: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- arxiv url: http://arxiv.org/abs/2302.04578v1
- Date: Thu, 9 Feb 2023 11:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:02:37.206439
- Title: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- Title(参考訳): 逆例が良い: 逆例による拡散モデルからの絵画模倣の防止
- Authors: Chumeng Liang, Xiaoyu Wu, Yang Hua, Jiaru Zhang, Yiming Xue, Tao Song,
Zhengui Xue, Ruhui Ma, Haibing Guan
- Abstract要約: 拡散モデル(DM)は、生成タスクにおける最先端のパフォーマンスを実現し、AI for Artの波を加速させる。
本稿では、人間の視覚によく似たイメージ$x'$を作成できるが、DMでは認識できない画像$x'$を作成することができることを示す。
本稿では,DMの逆例を生成するアルゴリズムであるAdvDMを提案する。
- 参考スコア(独自算出の注目度): 32.701307512642835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Models (DMs) achieve state-of-the-art performance in generative
tasks, boosting a wave in AI for Art. Despite the success of commercialization,
DMs meanwhile provide tools for copyright violations, where infringers benefit
from illegally using paintings created by human artists to train DMs and
generate novel paintings in a similar style. In this paper, we show that it is
possible to create an image $x'$ that is similar to an image $x$ for human
vision but unrecognizable for DMs. We build a framework to define and evaluate
this adversarial example for diffusion models. Based on the framework, we
further propose AdvDM, an algorithm to generate adversarial examples for DMs.
By optimizing upon different latent variables sampled from the reverse process
of DMs, AdvDM conducts a Monte-Carlo estimation of adversarial examples for
DMs. Extensive experiments show that the estimated adversarial examples can
effectively hinder DMs from extracting their features. Our method can be a
powerful tool for human artists to protect their copyright against infringers
with DM-based AI-for-Art applications.
- Abstract(参考訳): 拡散モデル(DM)は、生成タスクにおける最先端のパフォーマンスを実現し、AI for Artの波を加速させる。
一方、商業化の成功にもかかわらず、DMは著作権侵害のためのツールを提供しており、侵害者は、人間の芸術家によって作られた絵画を使ってDMを訓練し、同様のスタイルで新しい絵画を制作する。
本稿では、人間の視覚によく似たイメージ$x'$を作成できるが、DMでは認識できない画像$x'$を作成することができることを示す。
拡散モデルの逆例を定義し,評価するためのフレームワークを構築した。
さらに,この枠組みに基づいて,DMの逆例を生成するアルゴリズムであるAdvDMを提案する。
DMの逆過程からサンプリングされた様々な潜伏変数を最適化することにより、AdvDMはDMの逆例のモンテカルロ推定を行う。
大規模な実験により、推定された敵の例は、DMが特徴を引き出すのを効果的に妨げていることが示された。
我々の方法は、DMベースのAI-for-Artアプリケーションで著作権を侵害者から保護する強力なツールとなり得る。
関連論文リスト
- To Generate or Not? Safety-Driven Unlearned Diffusion Models Are Still
Easy To Generate Unsafe Images ... For Now [23.732933901883865]
我々はUnlearnDiffと呼ばれる新しい逆学習手法を開発した。
この技術は、画像分類攻撃と同様に、生成的モデリングにおいて直感的なプロセスとして、敵対的プロンプトの作成を合理化する。
本研究は,UnlearnDiffの有効性と効率を,最先端の対人プロンプト法と比較した。
論文 参考訳(メタデータ) (2023-10-18T10:36:34Z) - Human-Producible Adversarial Examples [24.44559596065277]
我々は,マーカーペンほど複雑ではない実世界に対して,人為的に生成可能な敵の例を生成する手法を初めて提示する。
わずか4ドルのラインを引けば、YOLOベースのモデルを54.8%のケースで破壊でき、これを9ドルに増やすと、テストされたケースの81.8%が破壊される。
我々は,デジタルとアナログの両方の世界において,我々のシステムを徹底的に評価し,我々のタグが訓練されていない人間に応用できることを実証した。
論文 参考訳(メタデータ) (2023-09-30T17:22:02Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Mist: Towards Improved Adversarial Examples for Diffusion Models [0.8883733362171035]
拡散モデル(DM)は、人工知能によって生成されたコンテンツ、特にアート作品の制作において大きな成功を収めた。
侵害者は、認可されていない人造絵画をDMで模倣することで利益を得ることができる。
近年の研究では、拡散モデルに対する様々な逆例が、これらの著作権侵害に対する効果的な手段である可能性が示唆されている。
論文 参考訳(メタデータ) (2023-05-22T03:43:34Z) - A Recipe for Watermarking Diffusion Models [53.456012264767914]
拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
論文 参考訳(メタデータ) (2023-03-17T17:25:10Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。