論文の概要: MarkPlugger: Generalizable Watermark Framework for Latent Diffusion Models without Retraining
- arxiv url: http://arxiv.org/abs/2404.05607v2
- Date: Sat, 11 Oct 2025 14:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.474278
- Title: MarkPlugger: Generalizable Watermark Framework for Latent Diffusion Models without Retraining
- Title(参考訳): MarkPlugger: 遅延拡散モデルのための汎用的な透かしフレームワーク
- Authors: Guokai Zhang, Lanjun Wang, Yuting Su, An-An Liu,
- Abstract要約: AI生成コンテンツ(AIGC)の急速な発展期には、潜伏拡散モデル(LDM)の迅速な反復と修正により、ウォーターマークモデルによる再トレーニングがコストがかかる。
我々は,LDMの再学習を伴わない汎用的なプラグイン・アンド・プレイ・ウォーターマーク・フレームワークであるMarkPluggerを提案する。
実験結果から,本手法は画像品質と透かし回収率を効果的に調和させることがわかった。
- 参考スコア(独自算出の注目度): 48.41130825143742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, the family of latent diffusion models (LDMs) has gained prominence for its high quality outputs and scalability. This has also raised security concerns on social media, as malicious users can create and disseminate harmful content. Existing approaches typically involve training specific components or entire generative models to embed a watermark in generated images for traceability and responsibility. However, in the fast-evolving era of AI-generated content (AIGC), the rapid iteration and modification of LDMs makes retraining with watermark models costly. To address the problem, we propose MarkPlugger, a generalizable plug-and-play watermark framework without LDM retraining. In particular, to reduce the disturbance of the watermark on the semantics of the generated image, we try to identify a watermark representation that is approaching orthogonal to the semantic in latent space, and apply an additive fusion strategy for the watermark and the semantic. Without modifying any components of the LDMs, we embed diverse watermarks in latent space, adapting to the denoising process. Our experimental findings reveal that our method effectively harmonizes image quality and watermark recovery rate. We also have validated that our method is generalized to multiple official versions and modified variants of LDMs, even without retraining the watermark model. Furthermore, it performs robustly under various attacks of different intensities.
- Abstract(参考訳): 今日、潜在拡散モデル(LDM)のファミリーは、その高品質な出力とスケーラビリティで有名になっている。
これにより、悪意のあるユーザーが有害なコンテンツを作成・拡散できるため、ソーシャルメディアに対するセキュリティ上の懸念も高まっている。
既存のアプローチは通常、トレーサビリティと責任のために生成された画像に透かしを埋め込むために、特定のコンポーネントや生成モデルを訓練する。
しかし、AIGC(AIGC)の急速な発展期には、LCDの迅速な反復と修正により、ウォーターマークモデルによる再トレーニングがコストがかかる。
この問題に対処するために,LDMの再トレーニングを伴わない汎用的なプラグイン・アンド・プレイ・透かしフレームワークであるMarkPluggerを提案する。
特に、生成された画像のセマンティクスにおける透かしの乱れを軽減するため、潜時空間のセマンティクスに直交する透かし表現を同定し、透かしとセマンティクスに付加的な融合戦略を適用する。
LDMのコンポーネントを変更することなく、遅延空間に様々な透かしを埋め込み、デノナイジングプロセスに適応する。
実験結果から,本手法は画像品質と透かし回収率を効果的に調和させることがわかった。
また,本手法は,透かしモデルを再トレーニングすることなく,複数の公式バージョンに一般化され,改良されたLCDにも適用可能であることも確認できた。
さらに、異なる強度の様々な攻撃の下で頑強に機能する。
関連論文リスト
- SWA-LDM: Toward Stealthy Watermarks for Latent Diffusion Models [11.906245347904289]
埋め込みプロセスのランダム化によって透かしを強化する新しい手法であるSWA-LDMを紹介する。
提案する透かし攻撃は,既存の潜水式透かし法の本質的脆弱性を明らかにする。
この研究は、LDM生成画像の不正使用に対する保護に向けた重要なステップである。
論文 参考訳(メタデータ) (2025-02-14T16:55:45Z) - On the Coexistence and Ensembling of Watermarks [93.15379331904602]
様々なオープンソースの透かしは、画像の品質と復号性に小さな影響しか与えない。
我々は、アンサンブルがメッセージ全体のキャパシティを向上し、基本モデルを再トレーニングすることなく、キャパシティ、正確性、堅牢性、画像品質の新たなトレードオフを可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-29T00:37:06Z) - SuperMark: Robust and Training-free Image Watermarking via Diffusion-based Super-Resolution [27.345134138673945]
我々は、堅牢でトレーニング不要な透かしフレームワークであるSuperMarkを提案する。
SuperMarkは既存の手法を使って初期ガウスノイズに透かしを埋め込む。
次に、トレーニング済みの超解像モデルを適用して、透かしのノイズを消音し、最終的な透かしの画像を生成する。
抽出には、透かし画像がDDIM変換により初期透かしノイズに逆戻りされ、埋め込み透かしが抽出される。
実験により、SuperMarkは既存のメソッドに匹敵する忠実性を達成し、ロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:20:59Z) - Robust and Minimally Invasive Watermarking for EaaS [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - LaWa: Using Latent Space for In-Generation Image Watermarking [11.089926858383476]
知覚不能な画像透かしはそのような問題に対する有効な解決策の1つである。
LaWaは、LCD向けに設計された次世代画像透かし方式である。
また,LaWaは一般的な画像透かしにも利用できることを示す。
論文 参考訳(メタデータ) (2024-08-11T22:03:45Z) - Safe-SD: Safe and Traceable Stable Diffusion with Text Prompt Trigger for Invisible Generative Watermarking [20.320229647850017]
安定拡散(SD)モデルは一般的に画像合成とパーソナライズされた編集の分野で栄えている。
AIが作成したコンテンツを公開プラットフォームに公開することで、法的および倫理的リスクが高まる可能性がある。
本研究では,透かしを認識不能な構造に適応させる,安全かつ高追従性安定拡散フレームワーク(SafeSD)を提案する。
論文 参考訳(メタデータ) (2024-07-18T05:53:17Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。