論文の概要: DUAW: Data-free Universal Adversarial Watermark against Stable Diffusion
Customization
- arxiv url: http://arxiv.org/abs/2308.09889v1
- Date: Sat, 19 Aug 2023 02:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:30:37.506569
- Title: DUAW: Data-free Universal Adversarial Watermark against Stable Diffusion
Customization
- Title(参考訳): duaw: 安定拡散のカスタマイズに対するデータフリーな普遍的敵対的ウォーターマーク
- Authors: Xiaoyu Ye, Hao Huang, Jiaqi An, Yongtao Wang
- Abstract要約: 本研究では,異なるカスタマイズアプローチから著作権付き画像を保護するために,目に見えないデータ自由なユニバーサル・逆向き透かし (DUAW) を提案する。
DUAWは、カスタマイズされたSDモデルによって生成された画像に顕著な歪みを誘発することにより、保護措置として機能する。
- 参考スコア(独自算出の注目度): 12.497879881519488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stable Diffusion (SD) customization approaches enable users to personalize SD
model outputs, greatly enhancing the flexibility and diversity of AI art.
However, they also allow individuals to plagiarize specific styles or subjects
from copyrighted images, which raises significant concerns about potential
copyright infringement. To address this issue, we propose an invisible
data-free universal adversarial watermark (DUAW), aiming to protect a myriad of
copyrighted images from different customization approaches across various
versions of SD models. First, DUAW is designed to disrupt the variational
autoencoder during SD customization. Second, DUAW operates in a data-free
context, where it is trained on synthetic images produced by a Large Language
Model (LLM) and a pretrained SD model. This approach circumvents the necessity
of directly handling copyrighted images, thereby preserving their
confidentiality. Once crafted, DUAW can be imperceptibly integrated into
massive copyrighted images, serving as a protective measure by inducing
significant distortions in the images generated by customized SD models.
Experimental results demonstrate that DUAW can effectively distort the outputs
of fine-tuned SD models, rendering them discernible to both human observers and
a simple classifier.
- Abstract(参考訳): 安定拡散(SD)カスタマイズアプローチにより、ユーザはSDモデルの出力をパーソナライズでき、AIアートの柔軟性と多様性を大幅に向上できる。
しかし、著作権のある画像から特定のスタイルや主題を盗み取ることも許されており、著作権侵害の可能性を懸念している。
この問題に対処するため,SDモデルのさまざまなバージョンにまたがるさまざまなカスタマイズアプローチから,無数の著作権付き画像を保護することを目的とした,目に見えないデータ自由なユニバーサル・逆向き透かし (DUAW) を提案する。
まず、SDカスタマイズ時の変分オートエンコーダを破壊するように設計されている。
第2に、DUAWはデータフリーのコンテキストで動作し、LLM(Large Language Model)と事前訓練されたSDモデルによって生成された合成画像に基づいて訓練される。
このアプローチは、著作権付き画像を直接扱う必要性を回避し、その機密性を維持する。
ひとたび作成されると、duawは大量の著作権付き画像に統合され、カスタマイズされたsdモデルによって生成された画像にかなりの歪みを生じさせることで保護措置となる。
実験により、DUAWは微調整SDモデルの出力を効果的に歪め、人間の観察者と単純な分類者の両方に識別できることを示した。
関連論文リスト
- SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計された新しいフレームワークである。
モデルは、学習したセマンティック概念から透かし情報を切り離し、埋め込み透かしを保持することができる。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - Risks When Sharing LoRA Fine-Tuned Diffusion Model Weights [0.10878040851638002]
本研究では, 微調整拡散モデルのプライバシー漏洩問題について, 現実的に検討する。
敵は、プライベート画像と同じIDを含む画像を生成することができる。
論文 参考訳(メタデータ) (2024-09-13T02:13:26Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - A Training-Free Plug-and-Play Watermark Framework for Stable Diffusion [47.97443554073836]
既存のアプローチには、トレーサビリティと責任帰属のために生成されたイメージに透かしを埋め込むためのトレーニングコンポーネントやSD全体が含まれる。
AI生成コンテンツ(AIGC)の時代において、SDの迅速なイテレーションは、ウォーターマークモデルによる再トレーニングをコストがかかる。
SDのためのトレーニング不要なプラグアンドプレイ透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:29:46Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。