論文の概要: A Training-Free Plug-and-Play Watermark Framework for Stable Diffusion
- arxiv url: http://arxiv.org/abs/2404.05607v1
- Date: Mon, 8 Apr 2024 15:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-04-09 13:55:49.085823
- Title: A Training-Free Plug-and-Play Watermark Framework for Stable Diffusion
- Title(参考訳): 安定拡散のための無訓練プラグアンドプレイ透かしフレームワーク
- Authors: Guokai Zhang, Lanjun Wang, Yuting Su, An-An Liu,
- Abstract要約: 既存のアプローチには、トレーサビリティと責任帰属のために生成されたイメージに透かしを埋め込むためのトレーニングコンポーネントやSD全体が含まれる。
AI生成コンテンツ(AIGC)の時代において、SDの迅速なイテレーションは、ウォーターマークモデルによる再トレーニングをコストがかかる。
SDのためのトレーニング不要なプラグアンドプレイ透かしフレームワークを提案する。
- 参考スコア(独自算出の注目度): 47.97443554073836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, the family of Stable Diffusion (SD) models has gained prominence for its high quality outputs and scalability. This has also raised security concerns on social media, as malicious users can create and disseminate harmful content. Existing approaches involve training components or entire SDs to embed a watermark in generated images for traceability and responsibility attribution. However, in the era of AI-generated content (AIGC), the rapid iteration of SDs renders retraining with watermark models costly. To address this, we propose a training-free plug-and-play watermark framework for SDs. Without modifying any components of SDs, we embed diverse watermarks in the latent space, adapting to the denoising process. Our experimental findings reveal that our method effectively harmonizes image quality and watermark invisibility. Furthermore, it performs robustly under various attacks. We also have validated that our method is generalized to multiple versions of SDs, even without retraining the watermark model.
- Abstract(参考訳): 今日では、SD(Stable Diffusion)モデルのファミリーは、その高品質な出力とスケーラビリティで有名になっている。
これにより、悪意のあるユーザーが有害なコンテンツを作成・拡散できるため、ソーシャルメディアに対するセキュリティ上の懸念も高まっている。
既存のアプローチには、トレーサビリティと責任帰属のために生成されたイメージに透かしを埋め込むためのトレーニングコンポーネントやSD全体が含まれる。
しかし、AIGC(AI- generated Content)の時代、SDの迅速な反復は、ウォーターマークモデルによる再トレーニングをコストがかかる。
そこで本研究では,SDのためのトレーニング不要なプラグイン・アンド・プレイ・透かしフレームワークを提案する。
SDのコンポーネントを変更することなく、潜在空間に様々な透かしを埋め込み、デノナイジングプロセスに適応する。
実験結果から,本手法は画像品質と透かしの視認性を効果的に調和させることがわかった。
さらに、様々な攻撃で頑強に機能する。
また,透かしモデルを再学習することなく,SDの複数バージョンに一般化可能であることも確認した。
関連論文リスト
- WMVLM: Evaluating Diffusion Model Image Watermarking via Vision-Language Models [79.32764976020435]
拡散モデルから生成された画像を保護するためには,デジタル透かしが不可欠である。
従来の透かし評価手法では,残余と意味の両方の透かしの統一的な枠組みが欠如していた。
我々は,視覚言語モデルを用いた拡散モデル画像透かしのための最初の統一的・解釈可能な評価フレームワークLMを提案する。
論文 参考訳(メタデータ) (2026-01-29T12:14:32Z) - Diffusion-Based Image Editing: An Unforeseen Adversary to Robust Invisible Watermarks [4.138397555991069]
強力な拡散ベースの画像生成と編集モデルは、埋め込みの透かしを不注意に取り除いたり歪んだりすることができる。
本稿では,拡散に基づく画像編集が,最先端のロバストな透かしを効果的に破壊できることを示す理論的,実証的な分析を行う。
画像から透かしを消去するために生成画像再生を用いた拡散誘導攻撃を提案する。
論文 参考訳(メタデータ) (2025-11-05T16:20:29Z) - Diffusion-Based Image Editing for Breaking Robust Watermarks [4.273350357872755]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
論文 参考訳(メタデータ) (2025-10-07T14:34:42Z) - OptMark: Robust Multi-bit Diffusion Watermarking via Inference Time Optimization [66.69924980864053]
拡散復調過程の中間潜水器に頑健なマルチビット透かしを埋め込む最適化手法である OptMark を提案する。
OptMarkは、生成攻撃に対して早期に構造的な透かしを挿入し、画像変換に耐えるために遅れて詳細な透かしを挿入する。
実験結果から,OptMarkは有意変換,幾何変換,編集,再生攻撃に対する堅牢なレジリエンスを確保しつつ,目に見えないマルチビット透かしを実現することが示された。
論文 参考訳(メタデータ) (2025-08-29T15:50:59Z) - TAG-WM: Tamper-Aware Generative Image Watermarking via Diffusion Inversion Sensitivity [76.98973481600002]
本稿では,TAG-WMと命名されたタンパ認識画像ウォーターマーキング手法を提案する。
提案手法は、4つのキーモジュールからなる: 生成品質を保ちつつ、著作権と局所化の透かしを潜伏空間に埋め込むためのデュアルマークジョイントサンプリング (DMJS) アルゴリズム。
実験結果から,TAG-WMは歪み下においても,改質性および局所化能力の両面において最先端性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-06-30T03:14:07Z) - Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal [57.84348166457113]
本稿では,事前学習した画像の塗装モデルの表現能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-04-07T02:37:14Z) - TraceMark-LDM: Authenticatable Watermarking for Latent Diffusion Models via Binary-Guided Rearrangement [21.94988216476109]
我々は,非破壊的な性能を保証しつつ,画像の属性付けに透かしを統合するアルゴリズムであるTraceMark-LDMを紹介する。
TraceMark-LDMを用いて合成された画像は、最先端技術(SOTA)と比較して品質と属性の精度が優れている。
論文 参考訳(メタデータ) (2025-03-30T06:23:53Z) - SWA-LDM: Toward Stealthy Watermarks for Latent Diffusion Models [11.906245347904289]
埋め込みプロセスのランダム化によって透かしを強化する新しい手法であるSWA-LDMを紹介する。
提案する透かし攻撃は,既存の潜水式透かし法の本質的脆弱性を明らかにする。
この研究は、LDM生成画像の不正使用に対する保護に向けた重要なステップである。
論文 参考訳(メタデータ) (2025-02-14T16:55:45Z) - Dynamic watermarks in images generated by diffusion models [46.1135899490656]
高忠実度テキストから画像への拡散モデルが視覚コンテンツ生成に革命をもたらしたが、その普及は重大な倫理的懸念を提起している。
本稿では,拡散モデルのための新しい多段階透かしフレームワークを提案する。
我々の研究は、モデルオーナシップの検証と誤用防止のためのスケーラブルなソリューションを提供することで、AI生成コンテンツセキュリティの分野を前進させます。
論文 参考訳(メタデータ) (2025-02-13T03:23:17Z) - On the Coexistence and Ensembling of Watermarks [93.15379331904602]
様々なオープンソースの透かしは、画像の品質と復号性に小さな影響しか与えない。
我々は、アンサンブルがメッセージ全体のキャパシティを向上し、基本モデルを再トレーニングすることなく、キャパシティ、正確性、堅牢性、画像品質の新たなトレードオフを可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-29T00:37:06Z) - SuperMark: Robust and Training-free Image Watermarking via Diffusion-based Super-Resolution [27.345134138673945]
我々は、堅牢でトレーニング不要な透かしフレームワークであるSuperMarkを提案する。
SuperMarkは既存の手法を使って初期ガウスノイズに透かしを埋め込む。
次に、トレーニング済みの超解像モデルを適用して、透かしのノイズを消音し、最終的な透かしの画像を生成する。
抽出には、透かし画像がDDIM変換により初期透かしノイズに逆戻りされ、埋め込み透かしが抽出される。
実験により、SuperMarkは既存のメソッドに匹敵する忠実性を達成し、ロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:20:59Z) - Robust and Minimally Invasive Watermarking for EaaS [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - LaWa: Using Latent Space for In-Generation Image Watermarking [11.089926858383476]
知覚不能な画像透かしはそのような問題に対する有効な解決策の1つである。
LaWaは、LCD向けに設計された次世代画像透かし方式である。
また,LaWaは一般的な画像透かしにも利用できることを示す。
論文 参考訳(メタデータ) (2024-08-11T22:03:45Z) - Safe-SD: Safe and Traceable Stable Diffusion with Text Prompt Trigger for Invisible Generative Watermarking [20.320229647850017]
安定拡散(SD)モデルは一般的に画像合成とパーソナライズされた編集の分野で栄えている。
AIが作成したコンテンツを公開プラットフォームに公開することで、法的および倫理的リスクが高まる可能性がある。
本研究では,透かしを認識不能な構造に適応させる,安全かつ高追従性安定拡散フレームワーク(SafeSD)を提案する。
論文 参考訳(メタデータ) (2024-07-18T05:53:17Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。