論文の概要: The Stable Signature: Rooting Watermarks in Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.15435v1
- Date: Mon, 27 Mar 2023 17:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 13:58:34.472414
- Title: The Stable Signature: Rooting Watermarks in Latent Diffusion Models
- Title(参考訳): 安定なシグナチャ:潜拡散モデルにおけるローイング透かし
- Authors: Pierre Fernandez, Guillaume Couairon, Herv\'e J\'egou, Matthijs Douze
and Teddy Furon
- Abstract要約: 本稿では,画像透かしと潜時拡散モデルを組み合わせたアクティブな戦略を提案する。
目標は、生成したすべての画像が、将来の検出および/または識別を可能にする、見えない透かしを隠すことだ。
予め訓練された透かし抽出器は、生成された画像から隠された署名を回収し、統計検査を行い、生成モデルから来たものかどうかを判定する。
- 参考スコア(独自算出の注目度): 29.209892051477194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative image modeling enables a wide range of applications but raises
ethical concerns about responsible deployment. This paper introduces an active
strategy combining image watermarking and Latent Diffusion Models. The goal is
for all generated images to conceal an invisible watermark allowing for future
detection and/or identification. The method quickly fine-tunes the latent
decoder of the image generator, conditioned on a binary signature. A
pre-trained watermark extractor recovers the hidden signature from any
generated image and a statistical test then determines whether it comes from
the generative model. We evaluate the invisibility and robustness of the
watermarks on a variety of generation tasks, showing that Stable Signature
works even after the images are modified. For instance, it detects the origin
of an image generated from a text prompt, then cropped to keep $10\%$ of the
content, with $90$+$\%$ accuracy at a false positive rate below 10$^{-6}$.
- Abstract(参考訳): 生成画像モデリングは幅広いアプリケーションを可能にするが、責任あるデプロイメントに関する倫理的懸念を提起する。
本稿では,画像透かしと潜在拡散モデルを組み合わせたアクティブ戦略を提案する。
目標は、生成したすべての画像が、将来の検出や識別を可能にする、見えない透かしを隠すことだ。
この方法は、バイナリシグネチャで条件付けられたイメージジェネレータの潜在デコーダを迅速に微調整する。
予め訓練された透かし抽出器は、生成された画像から隠された署名を回収し、統計検査を行い、生成モデルから来たものかどうかを判定する。
画像修正後も安定署名が機能することを示すため,様々な世代タスクにおける透かしの可視性と頑健性を評価した。
例えば、テキストプロンプトから生成された画像の原点を検出し、その内容の10\%$を90$+$\%$精度で10$^{-6}$以下で保持する。
関連論文リスト
- An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Trigger-Based Fragile Model Watermarking for Image Transformation Networks [2.38776871944507]
脆弱な透かしでは、微妙な透かしが、改ざん時に透かしが壊れるように、物体に埋め込まれる。
画像変換・生成ネットワークのための新規なトリガ型フラクタモデル透かしシステムを提案する。
私たちのアプローチは、堅牢な透かしとは別として、さまざまなデータセットや攻撃に対して、モデルのソースと整合性を効果的に検証します。
論文 参考訳(メタデータ) (2024-09-28T19:34:55Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Stable Signature is Unstable: Removing Image Watermark from Diffusion Models [1.656188668325832]
本研究では,拡散モデルから透かしを微調整して除去する新たな攻撃法を提案する。
以上の結果から,本攻撃は画像が非透かしとなるような拡散モデルから効果的に透かしを除去できることが示唆された。
論文 参考訳(メタデータ) (2024-05-12T03:04:48Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - PTW: Pivotal Tuning Watermarking for Pre-Trained Image Generators [42.0915430715226]
本稿では,事前学習した発電機の透かし手法であるPivotal Tuning Watermarking (PTW)を提案する。
PTWは、ジェネレータの画質を良く保ちながら、既存の方法よりも長いコードを埋め込むことができる。
本研究では,厳密なゲームベースによる堅牢性と非検出性の定義を提案し,適応型ホワイトボックス攻撃に対してウォーターマーキングが堅牢でないことを示す。
論文 参考訳(メタデータ) (2023-04-14T19:44:37Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。