論文の概要: A Recipe for Watermarking Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.10137v1
- Date: Fri, 17 Mar 2023 17:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:39:16.253229
- Title: A Recipe for Watermarking Diffusion Models
- Title(参考訳): 透かし拡散モデルのためのレシピ
- Authors: Yunqing Zhao, Tianyu Pang, Chao Du, Xiao Yang, Ngai-Man Cheung, Min
Lin
- Abstract要約: 拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
DMを下流のアプリケーション(画像の生成や編集など)に組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
- 参考スコア(独自算出の注目度): 57.229067662267575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, diffusion models (DMs) have demonstrated their advantageous
potential for generative tasks. Widespread interest exists in incorporating DMs
into downstream applications, such as producing or editing photorealistic
images. However, practical deployment and unprecedented power of DMs raise
legal issues, including copyright protection and monitoring of generated
content. In this regard, watermarking has been a proven solution for copyright
protection and content monitoring, but it is underexplored in the DMs
literature. Specifically, DMs generate samples from longer tracks and may have
newly designed multimodal structures, necessitating the modification of
conventional watermarking pipelines. To this end, we conduct comprehensive
analyses and derive a recipe for efficiently watermarking state-of-the-art DMs
(e.g., Stable Diffusion), via training from scratch or finetuning. Our recipe
is straightforward but involves empirically ablated implementation details,
providing a solid foundation for future research on watermarking DMs. Our Code:
https://github.com/yunqing-me/WatermarkDM.
- Abstract(参考訳): 近年,拡散モデル (DM) は生成タスクに有利な可能性を実証している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、dmsの実用的な展開と前例のない力は著作権保護や生成コンテンツの監視といった法的問題を引き起こす。
この点において、ウォーターマーキングは著作権保護とコンテンツ監視の証明済みのソリューションであるが、DMの文献では過小評価されている。
具体的には、DMはより長い線路からサンプルを生成し、新しく設計されたマルチモーダル構造を持つ可能性がある。
そこで本研究では,スクラッチや微調整からのトレーニングを通じて,最先端dms(例えば安定拡散)を効率的に透かし出すためのレシピを総合的に解析し,導出する。
われわれのレシピは単純だが、実装の詳細を実証的に改善し、将来の透かしDM研究の基盤となる。
コード:https://github.com/yunqing-me/WatermarkDM。
関連論文リスト
- AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - The Stronger the Diffusion Model, the Easier the Backdoor: Data Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline [30.80691226540351]
我々は、生成AIモデルに対する著作権侵害攻撃を形式化し、SilentBadDiffusionというバックドア攻撃手法を提案した。
本手法は, 著作権情報とテキスト参照の接続を有毒データに戦略的に埋め込む方法である。
本実験は, 汚染データの盗みと有効性を示すものである。
論文 参考訳(メタデータ) (2024-01-07T08:37:29Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - DiffusionShield: A Watermark for Copyright Protection against Generative Diffusion Models [41.81697529657049]
生成拡散モデル(GDM)に適した新しい透かし方式DiffusionShieldを導入する。
DiffusionShieldは、所有権情報を認識不能な透かしにエンコードし、画像に注入することで、GDMによる著作権侵害から画像を保護する。
透かしの均一性と共同最適化法により、DiffusionShieldは元の画像の歪みを低くする。
論文 参考訳(メタデータ) (2023-05-25T11:59:28Z) - Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples [32.701307512642835]
拡散モデル(DM)はAI for Artの波を加速させるが、新たな著作権侵害を引き起こす。
本稿では,人造美術品の保護にDMの逆例を活用することを提案する。
我々の方法は、DMベースのAI-for-Artアプリケーションを備えた侵害者に対して、人間のアーティストが著作権を保護する強力なツールとなり得る。
論文 参考訳(メタデータ) (2023-02-09T11:36:39Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。