論文の概要: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- arxiv url: http://arxiv.org/abs/2302.04578v1
- Date: Thu, 9 Feb 2023 11:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:02:37.206439
- Title: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- Title(参考訳): 逆例が良い: 逆例による拡散モデルからの絵画模倣の防止
- Authors: Chumeng Liang, Xiaoyu Wu, Yang Hua, Jiaru Zhang, Yiming Xue, Tao Song,
Zhengui Xue, Ruhui Ma, Haibing Guan
- Abstract要約: 拡散モデル(DM)は、生成タスクにおける最先端のパフォーマンスを実現し、AI for Artの波を加速させる。
本稿では、人間の視覚によく似たイメージ$x'$を作成できるが、DMでは認識できない画像$x'$を作成することができることを示す。
本稿では,DMの逆例を生成するアルゴリズムであるAdvDMを提案する。
- 参考スコア(独自算出の注目度): 32.701307512642835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Models (DMs) achieve state-of-the-art performance in generative
tasks, boosting a wave in AI for Art. Despite the success of commercialization,
DMs meanwhile provide tools for copyright violations, where infringers benefit
from illegally using paintings created by human artists to train DMs and
generate novel paintings in a similar style. In this paper, we show that it is
possible to create an image $x'$ that is similar to an image $x$ for human
vision but unrecognizable for DMs. We build a framework to define and evaluate
this adversarial example for diffusion models. Based on the framework, we
further propose AdvDM, an algorithm to generate adversarial examples for DMs.
By optimizing upon different latent variables sampled from the reverse process
of DMs, AdvDM conducts a Monte-Carlo estimation of adversarial examples for
DMs. Extensive experiments show that the estimated adversarial examples can
effectively hinder DMs from extracting their features. Our method can be a
powerful tool for human artists to protect their copyright against infringers
with DM-based AI-for-Art applications.
- Abstract(参考訳): 拡散モデル(DM)は、生成タスクにおける最先端のパフォーマンスを実現し、AI for Artの波を加速させる。
一方、商業化の成功にもかかわらず、DMは著作権侵害のためのツールを提供しており、侵害者は、人間の芸術家によって作られた絵画を使ってDMを訓練し、同様のスタイルで新しい絵画を制作する。
本稿では、人間の視覚によく似たイメージ$x'$を作成できるが、DMでは認識できない画像$x'$を作成することができることを示す。
拡散モデルの逆例を定義し,評価するためのフレームワークを構築した。
さらに,この枠組みに基づいて,DMの逆例を生成するアルゴリズムであるAdvDMを提案する。
DMの逆過程からサンプリングされた様々な潜伏変数を最適化することにより、AdvDMはDMの逆例のモンテカルロ推定を行う。
大規模な実験により、推定された敵の例は、DMが特徴を引き出すのを効果的に妨げていることが示された。
我々の方法は、DMベースのAI-for-Artアプリケーションで著作権を侵害者から保護する強力なツールとなり得る。
関連論文リスト
- Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline [30.80691226540351]
我々は、生成AIモデルに対する著作権侵害攻撃を形式化し、SilentBadDiffusionというバックドア攻撃手法を提案した。
本手法は, 著作権情報とテキスト参照の接続を有毒データに戦略的に埋め込む方法である。
本実験は, 汚染データの盗みと有効性を示すものである。
論文 参考訳(メタデータ) (2024-01-07T08:37:29Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Mist: Towards Improved Adversarial Examples for Diffusion Models [0.8883733362171035]
拡散モデル(DM)は、人工知能によって生成されたコンテンツ、特にアート作品の制作において大きな成功を収めた。
侵害者は、認可されていない人造絵画をDMで模倣することで利益を得ることができる。
近年の研究では、拡散モデルに対する様々な逆例が、これらの著作権侵害に対する効果的な手段である可能性が示唆されている。
論文 参考訳(メタデータ) (2023-05-22T03:43:34Z) - A Recipe for Watermarking Diffusion Models [53.456012264767914]
拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
論文 参考訳(メタデータ) (2023-03-17T17:25:10Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。