論文の概要: A Recipe for Watermarking Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.10137v1
- Date: Fri, 17 Mar 2023 17:25:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:39:16.253229
- Title: A Recipe for Watermarking Diffusion Models
- Title(参考訳): 透かし拡散モデルのためのレシピ
- Authors: Yunqing Zhao, Tianyu Pang, Chao Du, Xiao Yang, Ngai-Man Cheung, Min
Lin
- Abstract要約: 拡散モデル(DM)は、生成タスクに有利な可能性を証明している。
DMを下流のアプリケーション(画像の生成や編集など)に組み込むことには幅広い関心がある。
しかし、DMの実践的な展開と前例のない力は、著作権保護や生成されたコンテンツの監視を含む法的問題を提起する。
ウォーターマーキングは著作権保護とコンテンツ監視のための実証済みのソリューションであるが、DMの文献では過小評価されている。
- 参考スコア(独自算出の注目度): 57.229067662267575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, diffusion models (DMs) have demonstrated their advantageous
potential for generative tasks. Widespread interest exists in incorporating DMs
into downstream applications, such as producing or editing photorealistic
images. However, practical deployment and unprecedented power of DMs raise
legal issues, including copyright protection and monitoring of generated
content. In this regard, watermarking has been a proven solution for copyright
protection and content monitoring, but it is underexplored in the DMs
literature. Specifically, DMs generate samples from longer tracks and may have
newly designed multimodal structures, necessitating the modification of
conventional watermarking pipelines. To this end, we conduct comprehensive
analyses and derive a recipe for efficiently watermarking state-of-the-art DMs
(e.g., Stable Diffusion), via training from scratch or finetuning. Our recipe
is straightforward but involves empirically ablated implementation details,
providing a solid foundation for future research on watermarking DMs. Our Code:
https://github.com/yunqing-me/WatermarkDM.
- Abstract(参考訳): 近年,拡散モデル (DM) は生成タスクに有利な可能性を実証している。
フォトリアリスティック画像の生成や編集など、DMを下流のアプリケーションに組み込むことには幅広い関心がある。
しかし、dmsの実用的な展開と前例のない力は著作権保護や生成コンテンツの監視といった法的問題を引き起こす。
この点において、ウォーターマーキングは著作権保護とコンテンツ監視の証明済みのソリューションであるが、DMの文献では過小評価されている。
具体的には、DMはより長い線路からサンプルを生成し、新しく設計されたマルチモーダル構造を持つ可能性がある。
そこで本研究では,スクラッチや微調整からのトレーニングを通じて,最先端dms(例えば安定拡散)を効率的に透かし出すためのレシピを総合的に解析し,導出する。
われわれのレシピは単純だが、実装の詳細を実証的に改善し、将来の透かしDM研究の基盤となる。
コード:https://github.com/yunqing-me/WatermarkDM。
関連論文リスト
- Attacking LLM Watermarks by Exploiting Their Strengths [22.07546496631127]
生成モデルは、AIが生成したテキスト、コード、画像が、多くのアプリケーションで生成したコンテンツをミラーすることを可能にする。
モデル出力に情報を埋め込んでソースを検証する技術であるウォーターマーキングは、そのようなAI生成コンテンツの誤用を軽減するのに有用である。
既存の透かし方式が驚くほど攻撃を受けやすいことを示します。
論文 参考訳(メタデータ) (2024-02-25T20:24:07Z) - The Stronger the Diffusion Model, the Easier the Backdoor: Data
Poisoning to Induce Copyright Breaches Without Adjusting Finetuning Pipeline [33.051071182668174]
本研究では, DMの著作権保護に関連する脆弱性について, バックドアデータ中毒攻撃の導入による検討を行った。
本手法は,拡散モデルのトレーニングや微調整プロセスへのアクセスや制御を必要とせずに動作する。
論文 参考訳(メタデータ) (2024-01-07T08:37:29Z) - A Somewhat Robust Image Watermark against Diffusion-based Editing Models [25.034612051522167]
拡散モデル(DM)に基づく編集モデルでは、画像著作権侵害や悪意のある編集に関する新たな課題が必然的に導入されている。
我々は,目に見えない透かしを埋め込む新しい手法RIW(Robust Invisible Watermarking)を開発した。
従来手法では0%であったのに対し,編集後の透かしでは高い抽出精度が96%であった。
論文 参考訳(メタデータ) (2023-11-22T22:18:42Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - VillanDiffusion: A Unified Backdoor Attack Framework for Diffusion
Models [69.20464255450788]
拡散モデル(英: Diffusion Models, DM)は、可逆的ノイズ付加から可逆的腐敗過程を学習し、雑音を除去する手法である。
最近の研究では、基本的な無条件DMがバックドア注入に弱いことが示されている。
本稿では,DMのバックドア分析の現在の範囲を広げるために,統合されたバックドア攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-12T05:14:13Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - DiffusionShield: A Watermark for Copyright Protection against Generative
Diffusion Models [43.61804104334356]
DiffusionShieldは、所有権情報を認識不能な透かしにエンコードし、画像に注入することで、GDMによる著作権侵害から画像を保護する。
DiffusionShieldは透かしの均一性と共同最適化法により、元の画像の歪みが低く、透かし検出性能が高く、長文を埋め込むことができる。
論文 参考訳(メタデータ) (2023-05-25T11:59:28Z) - Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples [32.701307512642835]
拡散モデル(DM)はAI for Artの波を加速させるが、新たな著作権侵害を引き起こす。
本稿では,人造美術品の保護にDMの逆例を活用することを提案する。
我々の方法は、DMベースのAI-for-Artアプリケーションを備えた侵害者に対して、人間のアーティストが著作権を保護する強力なツールとなり得る。
論文 参考訳(メタデータ) (2023-02-09T11:36:39Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。