論文の概要: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- arxiv url: http://arxiv.org/abs/2302.04578v2
- Date: Tue, 6 Jun 2023 06:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 20:46:41.073698
- Title: Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples
- Title(参考訳): 逆例が良い: 逆例による拡散モデルからの絵画模倣の防止
- Authors: Chumeng Liang, Xiaoyu Wu, Yang Hua, Jiaru Zhang, Yiming Xue, Tao Song,
Zhengui Xue, Ruhui Ma, Haibing Guan
- Abstract要約: 拡散モデル(DM)はAI for Artの波を加速させるが、新たな著作権侵害を引き起こす。
本稿では,人造美術品の保護にDMの逆例を活用することを提案する。
我々の方法は、DMベースのAI-for-Artアプリケーションを備えた侵害者に対して、人間のアーティストが著作権を保護する強力なツールとなり得る。
- 参考スコア(独自算出の注目度): 32.701307512642835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Diffusion Models (DMs) boost a wave in AI for Art yet raise new
copyright concerns, where infringers benefit from using unauthorized paintings
to train DMs to generate novel paintings in a similar style. To address these
emerging copyright violations, in this paper, we are the first to explore and
propose to utilize adversarial examples for DMs to protect human-created
artworks. Specifically, we first build a theoretical framework to define and
evaluate the adversarial examples for DMs. Then, based on this framework, we
design a novel algorithm, named AdvDM, which exploits a Monte-Carlo estimation
of adversarial examples for DMs by optimizing upon different latent variables
sampled from the reverse process of DMs. Extensive experiments show that the
generated adversarial examples can effectively hinder DMs from extracting their
features. Therefore, our method can be a powerful tool for human artists to
protect their copyright against infringers equipped with DM-based AI-for-Art
applications. The code of our method is available on GitHub:
https://github.com/mist-project/mist.git.
- Abstract(参考訳): 近年、拡散モデル (DM) はAI for Art の波を加速させるが、著作権侵害者は無許可の絵画を使ってDMを訓練し、同様のスタイルで新しい絵画を制作することで、新たな著作権上の懸念を提起している。
こうした著作権侵害に対処するため,本論文では,人造美術品の保護にDMの逆例を活用することを提案する。
具体的には、まず、DMの逆例を定義し評価するための理論的枠組みを構築する。
そこで我々は,この枠組みに基づいて,DMの逆過程からサンプリングされた様々な潜伏変数を最適化することにより,モンテカルロによるDMの逆例推定を利用したAdvDMという新しいアルゴリズムを設計する。
大規模な実験により, 生成した逆方向の例は, DMの抽出を効果的に妨げうることが示された。
したがって,本手法は,DMベースのAI-for-Artアプリケーションを備えた侵害者に対して,著作権を保護するための強力なツールとなる。
このメソッドのコードはgithubで入手できます。 https://github.com/mist-project/mist.git.com/です。
関連論文リスト
- Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline [30.80691226540351]
我々は、生成AIモデルに対する著作権侵害攻撃を形式化し、SilentBadDiffusionというバックドア攻撃手法を提案した。
本手法は, 著作権情報とテキスト参照の接続を有毒データに戦略的に埋め込む方法である。
本実験は, 汚染データの盗みと有効性を示すものである。
論文 参考訳(メタデータ) (2024-01-07T08:37:29Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Mist: Towards Improved Adversarial Examples for Diffusion Models [0.8883733362171035]
拡散モデル(DM)は、人工知能によって生成されたコンテンツ、特にアート作品の制作において大きな成功を収めた。
侵害者は、認可されていない人造絵画をDMで模倣することで利益を得ることができる。
近年の研究では、拡散モデルに対する様々な逆例が、これらの著作権侵害に対する効果的な手段である可能性が示唆されている。
論文 参考訳(メタデータ) (2023-05-22T03:43:34Z) - A Recipe for Watermarking Diffusion Models [53.456012264767914]
拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
論文 参考訳(メタデータ) (2023-03-17T17:25:10Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。