論文の概要: DUAW: Data-free Universal Adversarial Watermark against Stable Diffusion
Customization
- arxiv url: http://arxiv.org/abs/2308.09889v1
- Date: Sat, 19 Aug 2023 02:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:30:37.506569
- Title: DUAW: Data-free Universal Adversarial Watermark against Stable Diffusion
Customization
- Title(参考訳): duaw: 安定拡散のカスタマイズに対するデータフリーな普遍的敵対的ウォーターマーク
- Authors: Xiaoyu Ye, Hao Huang, Jiaqi An, Yongtao Wang
- Abstract要約: 本研究では,異なるカスタマイズアプローチから著作権付き画像を保護するために,目に見えないデータ自由なユニバーサル・逆向き透かし (DUAW) を提案する。
DUAWは、カスタマイズされたSDモデルによって生成された画像に顕著な歪みを誘発することにより、保護措置として機能する。
- 参考スコア(独自算出の注目度): 12.497879881519488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stable Diffusion (SD) customization approaches enable users to personalize SD
model outputs, greatly enhancing the flexibility and diversity of AI art.
However, they also allow individuals to plagiarize specific styles or subjects
from copyrighted images, which raises significant concerns about potential
copyright infringement. To address this issue, we propose an invisible
data-free universal adversarial watermark (DUAW), aiming to protect a myriad of
copyrighted images from different customization approaches across various
versions of SD models. First, DUAW is designed to disrupt the variational
autoencoder during SD customization. Second, DUAW operates in a data-free
context, where it is trained on synthetic images produced by a Large Language
Model (LLM) and a pretrained SD model. This approach circumvents the necessity
of directly handling copyrighted images, thereby preserving their
confidentiality. Once crafted, DUAW can be imperceptibly integrated into
massive copyrighted images, serving as a protective measure by inducing
significant distortions in the images generated by customized SD models.
Experimental results demonstrate that DUAW can effectively distort the outputs
of fine-tuned SD models, rendering them discernible to both human observers and
a simple classifier.
- Abstract(参考訳): 安定拡散(SD)カスタマイズアプローチにより、ユーザはSDモデルの出力をパーソナライズでき、AIアートの柔軟性と多様性を大幅に向上できる。
しかし、著作権のある画像から特定のスタイルや主題を盗み取ることも許されており、著作権侵害の可能性を懸念している。
この問題に対処するため,SDモデルのさまざまなバージョンにまたがるさまざまなカスタマイズアプローチから,無数の著作権付き画像を保護することを目的とした,目に見えないデータ自由なユニバーサル・逆向き透かし (DUAW) を提案する。
まず、SDカスタマイズ時の変分オートエンコーダを破壊するように設計されている。
第2に、DUAWはデータフリーのコンテキストで動作し、LLM(Large Language Model)と事前訓練されたSDモデルによって生成された合成画像に基づいて訓練される。
このアプローチは、著作権付き画像を直接扱う必要性を回避し、その機密性を維持する。
ひとたび作成されると、duawは大量の著作権付き画像に統合され、カスタマイズされたsdモデルによって生成された画像にかなりの歪みを生じさせることで保護措置となる。
実験により、DUAWは微調整SDモデルの出力を効果的に歪め、人間の観察者と単純な分類者の両方に識別できることを示した。
関連論文リスト
- A Training-Free Plug-and-Play Watermark Framework for Stable Diffusion [47.97443554073836]
既存のアプローチには、トレーサビリティと責任帰属のために生成されたイメージに透かしを埋め込むためのトレーニングコンポーネントやSD全体が含まれる。
AI生成コンテンツ(AIGC)の時代において、SDの迅速なイテレーションは、ウォーターマークモデルによる再トレーニングをコストがかかる。
SDのためのトレーニング不要なプラグアンドプレイ透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:29:46Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - CGI-DM: Digital Copyright Authentication for Diffusion Models via Contrasting Gradient Inversion [26.70115339710056]
Contrasting Gradient Inversion for Diffusion Models (CGI-DM) はデジタル著作権認証のための鮮やかな視覚表現を特徴とする新しい手法である。
入力画像が同じである場合、2つのモデルの潜在変数間のKLばらつきを定式化する。
WikiArtとDreamboothデータセットの実験は、デジタル著作権認証におけるCGI-DMの精度を実証している。
論文 参考訳(メタデータ) (2024-03-17T10:06:38Z) - Double-I Watermark: Protecting Model Copyright for LLM Fine-tuning [48.37597402174551]
二重I透かし」という新しい透かし手法を提案する。
提案手法はLLMの学習能力を活用することで,微調整中に特定の透かし情報をカスタマイズされたモデルに効果的に注入する。
提案手法を各種微調整法で評価し, その無害性, 頑健性, 独特性, 不受容性, 妥当性を理論的解析および実験的検証により検証した。
論文 参考訳(メタデータ) (2024-02-22T04:55:14Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - Unlearnable Examples for Diffusion Models: Protect Data from
Unauthorized Exploitation [20.47099939773165]
本研究では,不正な利用から画像を保護するために,Unlearnable Diffusion Perturbationを提案する。
この成果は、AI生成コンテンツに対するプライバシーと著作権の保護に寄与するため、現実世界のシナリオにおいて重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-02T20:19:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。